
Novo Data Center de alta densidade promete acabar com a dependência de infraestruturas internacionais e coloca o interior paulista no mapa global de GPUs e processamento intensivo.
Campinas acaba de subir mais um degrau em sua trajetória como o principal hub tecnológico da América Latina. Com um investimento massivo de US$ 20 milhões, a Local DC inaugurou sua nova unidade voltada exclusivamente para cargas críticas de Inteligência Artificial.
- Participe dos nossos canais no Twitter, Telegram ou Whatsapp!
- Confira nossos stories no Instagram e veja notícias como essa!
- Siga o tecflow no Spotify Podcast para ouvir nosso conteúdo!
- Anuncie conosco aqui ou apoie o tecflow clicando neste link!
- Assine nossa newsletter neste link ou no LinkedIn!
- Siga o tecflow no tik tok!
Esqueça o armazenamento de dados tradicional. Estamos falando de um complexo de 10 mil metros quadrados projetado do zero para suportar a AI Stack, uma infraestrutura capaz de aguentar o calor e a demanda energética das GPUs mais potentes do mercado. Em entrevista exclusiva ao tecflow, o Diretor Presidente da Local DC, Wagner Rapchan, revela como esse “bunker tecnológico” vai permitir que empresas brasileiras criem e treinem suas próprias IAs com soberania, segurança e sem latência internacional.

tecflow: O novo Data Center de Campinas foi projetado para suportar a AI Stack da empresa. Do ponto de vista técnico, o que diferencia essa infraestrutura preparada para GPUs e processamento intensivo de um data center tradicional, e como isso acelera o desenvolvimento de IAs privadas no Brasil?
Wagner Rapchan, Diretor Presidente da Local DC: Diferente de um data center tradicional, focado majoritariamente em armazenamento e processamento generalista, a unidade de Campinas foi concebida desde a origem para workloads intensivos de inteligência artificial. Isso significa uma infraestrutura elétrica preparada para alta densidade por rack, suporte nativo a ambientes com uso intensivo de GPUs, arquitetura resiliente para processamento contínuo e baixa latência, além de conectividade robusta para análise de dados em tempo real. Essa combinação viabiliza plataformas privadas de IA com maior controle, segurança e performance, reduzindo a dependência de infraestruturas internacionais e acelerando o ciclo de desenvolvimento, treinamento e operação de modelos de IA no Brasil.
tecflow: Campinas já é conhecida como o ‘Vale do Silício Brasileiro’. Como a chegada dessa nova unidade de US$ 20 milhões, com foco em cargas críticas e serviços de missão crítica, altera o patamar do município na rede global de tecnologia e conectividade?
Wagner Rapchan: A chegada do data center da Local DC consolida Campinas não apenas como polo de inovação, mas como ponto estratégico de infraestrutura digital de alta criticidade. Um investimento dessa magnitude, voltado a serviços de missão crítica e inteligência artificial, eleva o município a um patamar mais próximo dos grandes hubs globais de conectividade, processamento avançado e serviços digitais. Na prática, isso fortalece o local, atrai empresas de tecnologia de maior complexidade e posiciona Campinas como referência nacional em infraestrutura preparada para o futuro da economia digital.
tecflow: Vocês adotam uma arquitetura descentralizada para reduzir a pegada de carbono. Como a Local DC consegue equilibrar a alta demanda energética exigida pela Inteligência Artificial com o objetivo de baixo impacto ambiental e maior eficiência no resfriamento?
Wagner Rapchan: A LocalDC adota uma arquitetura descentralizada, combinando data centers centrais com unidades de borda (edge datacenters) posicionadas estrategicamente próximas a fontes de energia limpa e a infraestruturas elétricas mais estáveis. Essa abordagem foi desenhada desde o início para atender às exigências energéticas da inteligência artificial sem ampliar proporcionalmente a pegada de carbono.
Um exemplo concreto é a nossa unidade de edge computing localizada no Parque Tecnológico de Sorocaba, onde existe uma usina solar fotovoltaica de geração distribuída que abastece parte relevante da demanda local. Ao consumir energia gerada na própria região, reduzimos perdas de transmissão, aumentamos a eficiência energética e diminuímos a dependência de energia proveniente de longas cadeias de distribuição.
Além disso, a descentralização permite operar com menor densidade térmica por site, viabilizando modelos de resfriamento mais eficientes e menos intensivos em energia quando comparados a grandes data centers centralizados. Parte do processamento de IA, como inferência, pré-processamento e análises locais, ocorre nesses nós de borda, reduzindo também o tráfego de dados e o consumo energético associado.
O resultado é um equilíbrio prático entre alta performance computacional, eficiência no uso de energia e redução do impacto ambiental, tornando viável operar workloads intensivos de IA de forma sustentável e resiliente no Brasil.

Conta de luz em risco? Entenda a guerra bilionária que
Um “puxadinho” na nova lei do setor elétrico colocou gigantes da energia e o Governo em pé de guerra. Entenda…
Oportunidade de ouro: IFSP libera 4.500 vagas em cursos de
Quer entrar no mercado de TI sem pagar nada? O Instituto Federal de São Paulo (IFSP) acaba de abrir inscrições…
O fim do Windows? Google e Samsung unem forças e
Prepare o monitor: a nova atualização do Android 16 acaba de transformar seu celular em um computador completo. Entenda a…
Apple choca o mercado e lança MacBook Neo por preço
Em estratégia inédita para driblar a crise dos chips, gigante de Cupertino aposta em notebook “popular” com bateria de 16…
Samsung lança no Brasil tela 3D que dispensa óculos e
Nova tecnologia Spatial Signage transforma imagens comuns em experiências 3D realistas para revolucionar lojas e escritórios; conheça o display de…
Conheça a calculadora “mágica” que fazia ligações e outras raridades
Evento gratuito no Shopping Mooca revela invenções bizarras e históricas da Casio, incluindo modelos que jogam e organizam rankings de…
tecflow: A unidade inicia com 6 MW, mas já prevê a expansão para 12 MW. Qual é o perfil de cliente que está impulsionando essa demanda por ambientes de alta densidade computacional e em quanto tempo vocês estimam atingir a capacidade total de 1.200 racks?
Wagner Rapchan: A unidade inicia com 6 MW e já nasce preparada para expansão até 12 MW justamente para atender a demanda crescente por ambientes de alta densidade computacional, impulsionada principalmente por empresas e governos que operam aplicações críticas de inteligência artificial.
Grande parte dessa capacidade será ocupada pelas soluções da AI Stack da LocalDC, voltadas tanto para cidades inteligentes quanto para IA privada corporativa. São workloads que exigem uso intensivo de GPUs, alta disponibilidade, baixa latência e operação contínua, especialmente em áreas como segurança pública, análise urbana, automação e visão computacional.
Vemos também uma perspectiva muito relevante de crescimento associada a iniciativas estruturantes como o REDATA, que reduz custos estruturais de dados, computação e energia, criando eficiência econômica para o uso intensivo de IA em território nacional. Esse novo cenário favorece o treinamento e a operação de modelos de IA no Brasil e tende a ampliar de forma significativa a demanda por infraestrutura computacional e energética.
Nesse contexto, a expansão para 12 MW acompanha um movimento estrutural do país, no qual o Brasil deixa de apenas consumir IA para desenvolvê-la e operá-la localmente, com soberania. A ocupação dos 1.200 racks será consequência direta dessa transformação.

tecflow: Você mencionou que a unidade de Campinas é um passo em direção à atuação internacional. Como a consolidação deste hub em São Paulo (Sorocaba, Osasco e Campinas) prepara a Local DC para competir no mercado externo e o que podemos esperar da empresa nos próximos anos nesse sentido?
Wagner Rapchan: A consolidação do Hub Paulista, integrando Sorocaba, Osasco e Campinas, estabelece uma base técnica e operacional altamente conectada, de baixa latência e preparada para escalar cargas críticas de inteligência artificial. Esse hub foi concebido como um modelo replicável, baseado em uma nuvem própria de data centers de borda interligados, apoiada por algumas unidades centrais, reduzindo a dependência de arquiteturas altamente centralizadas para IA.
Nesse arranjo, o treinamento e o machine learning permanecem nas unidades centrais, enquanto inferência, pré-processamento e análises distribuídas ocorrem nos edge datacenters. Isso permite distribuir carga, reduzir latência, otimizar energia e aumentar a resiliência, garantindo soberania de dados e de hardware.
A intenção é replicar esse modelo em outras regiões do Brasil, como Norte, Nordeste e Centro-Oeste, e também internacionalmente. Já existem conversas avançadas com parceiros estratégicos como a Ufinet, cuja extensa rede de fibra óptica na América Latina é essencial para viabilizar hubs regionais de IA com alta disponibilidade e baixa latência.
Nos próximos anos, a LocalDC deve expandir esse modelo, levando não apenas capacidade de data center, mas um ecossistema completo de AI Stack para governos e empresas, com foco em eficiência operacional e desenvolvimento local de inteligência artificial.
Faça como os mais de 10.000 leitores do tecflow, clique no sino azul e tenha nossas notícias em primeira mão! Confira as melhores ofertas de celulares na loja parceira do tecflow.
Marciel
Formado em Jornalismo, o editor atua há mais de 10 anos na cobertura de notícias relacionadas ao mercado B2B. Apesar de toda a Transformação Digital, ainda prefere ouvir música de forma analógica, no toca-discos.
