O impacto da IA nos data centers e o valor estratégico da infraestrutura

Patrick Smith, CTO da Pure Storage para EMEA

A IA está revolucionando quase todas as indústrias, até mesmo a própria indústria de IA. No início do ano, o DeepSeek R1 desbancou brevemente o ChatGPT na opinião pública, gerando especulações sobre uma mudança no equilíbrio de poder da IA ​​e aumentando a volatilidade nos mercados de tecnologia. Em todo o mundo, nações declararam suas intenções de se tornarem superpotências da IA, enquanto estima-se que as empresas de hiperescala invistam US$ 1 trilhão em infraestrutura otimizada para IA até 2028.

As empresas também estão investindo pesado. A IDC aponta que as 100 maiores empresas da Ásia planejam alocar 50% de seus orçamentos de TI para IA. No entanto, nem todos os projetos dão certo: o Gartner relata que quase um terço das iniciativas de IA não geram valor para os negócios. 

É evidente que há muitas oportunidades na IA, mas é preciso um investimento significativo para aproveitá-las. Neste artigo, explico como as empresas podem maximizar as chances de sucesso dos projetos de IA e o que é preciso considerar em termos de infraestrutura para viabilizar isso.

Demandas de computação e dados


As cargas de trabalho de IA se dividem em duas grandes categorias: treinamento — quando um modelo aprende com um conjunto de dados — e inferência, quando aplica o que aprendeu a novos dados. No entanto, etapas críticas são executadas antes mesmo do treinamento, incluindo coleta, preparação e curadoria de dados. 

A natureza desses dados varia muito, desde dados de arquivo até bancos de dados transacionais estruturados, frequentemente sem padronização adequada de governança. O que é consistente é que a IA consome muitos recursos. 

O consumo de energia e a voracidade do processamento da GPU durante o treinamento são bem conhecidos, e os pontos de verificação frequentes durante o treinamento aumentam as demandas de infraestrutura. Esses pontos de verificação garantem a recuperabilidade do modelo, a capacidade de reversão e a conformidade, demandando ainda mais em capacidade de armazenamento de dados e consumo de energia associado.

A geração aumentada de recuperação (RAG), que integra conjuntos de dados internos em LLMs, gera mais complexidade de armazenamento, contando com dados vetorizados — conjuntos de dados convertidos em vetores de alta dimensão para permitir comparações de similaridade. Essa transformação pode aumentar significativamente o tamanho do conjunto de dados, inclusive em até 10 vezes.

Após o treinamento, a inferência geralmente requer menos poder computacional, mas ainda envolve armazenamento contínuo de dados, tanto para registrar os resultados quanto para analisar os próprios dados.

Energia, escala e trade-offs


A crescente pegada energética da IA ​​é outro fator crítico. Algumas fontes indicam que o processamento de IA consome cerca de 30 vezes mais energia do que o software tradicional orientado a tarefas, e que os requisitos de energia dos data centers devem mais que dobrar até 2030. No nível de rack, o consumo de energia saltou de menos de 10 kW para 100 kW, ou até mais, em alguns clusters de IA, impulsionado em grande parte pelas demandas de GPUs de alto desempenho.

Isso gera um trade-off: toda energia gasta com armazenamento deixa de estar disponível para as GPUs. Um armazenamento eficiente e de alto desempenho é essencial para alimentar GPUs com dados em ritmo acelerado, e minimiza a sobrecarga sobre os orçamentos já limitados de energia. Além disso, o armazenamento pode impulsionar ganhos adicionais por meio de caches de valor-chave, que guardam dados, prompts e conversas mais utilizados, reduzindo o processamento repetitivo das GPUs. Esse recurso melhora a capacidade de resposta até mesmo em cargas de trabalho intensas, como RAG, negociação ou chatbots. No geral, o cache pode acelerar a inferência em até 20 vezes, maximizando a eficiência das GPUs, reduzindo custos e consumo de energia, e viabilizando aplicações de IA empresarial mais escalonáveis e responsivas.

A base da infraestrutura


O armazenamento de dados na infraestrutura de IA tem como papel garantir acesso a grandes volumes de informação com alta taxa de transferência e baixa latência. Quando o desempenho do armazenamento é insuficiente, pode criar gargalos nas GPUs e comprometer o valor de um hardware caro de computação.

As cargas de trabalho de IA costumam exigir centenas de terabytes – e até petabytes – de capacidade, além da habilidade de recuperar dados rapidamente para treinar modelos, executar inferências ou integrar novas fontes de dados. Isso vale tanto para dados em tempo real quanto para informações arquivadas que podem ser reutilizadas ou reprocessadas. O flash QLC de alta densidade se consolidou como solução ideal para essas demandas, combinando velocidade, capacidade, confiabilidade e eficiência energética quando utilizado em uma plataforma de armazenamento moderna. Com o QLC, é possível armazenar grandes volumes em flash a custos próximos aos de discos tradicionais, mas com a velocidade necessária para cargas de trabalho de IA.

Entregar IA em escala exige muito mais do que poder computacional. É preciso uma infraestrutura robusta, eficiente e responsiva. Nesse cenário, o armazenamento de dados ocupa posição central: desde a preparação inicial, passando pelo treinamento, até a inferência voltada ao usuário final, as cargas de trabalho de IA dependem de soluções rápidas, escalonáveis e energeticamente conscientes. Sem esta base, mesmo os projetos mais promissores correm o risco de naufragar sob o peso da própria complexidade.

Faça como os mais de 10.000 leitores do tecflow, clique no sino azul e tenha nossas notícias em primeira mão! Confira as melhores ofertas de celulares na loja parceira do tecflow.

Redação tecflow

Tecflow é um website focado em notícias sobre tecnologia com resenhas, artigos, tutoriais, podcasts, vídeos sobre tech, eletrônicos de consumo e mercado B2B.

Deixe comentário

Seu endereço de e-mail não será publicado. Os campos necessários são marcados com *.

Mais acessados

Dicas e Tutoriais

SmartPhones & Tablets

Mercado & Tecnologia

Consoles e Games

Ciência & Espaço

Eventos

Quem Somos

Tecflow é um website focado em notícias sobre tecnologia com resenhas, artigos, tutoriais, podcasts, vídeos sobre tech, eletrônicos de consumo e mercado B2B.

Siga Tecflow em:

Parceiro Autthentic

error: Content is protected !!