
Patrick Smith, CTO da Pure Storage para EMEA
A IA está revolucionando quase todas as indústrias, até mesmo a própria indústria de IA. No início do ano, o DeepSeek R1 desbancou brevemente o ChatGPT na opinião pública, gerando especulações sobre uma mudança no equilíbrio de poder da IA e aumentando a volatilidade nos mercados de tecnologia. Em todo o mundo, nações declararam suas intenções de se tornarem superpotências da IA, enquanto estima-se que as empresas de hiperescala invistam US$ 1 trilhão em infraestrutura otimizada para IA até 2028.
- Participe dos nossos canais no Twitter, Telegram ou Whatsapp!
- Confira nossos stories no Instagram e veja notícias como essa!
- Siga o tecflow no Spotify Podcast para ouvir nosso conteúdo!
- Anuncie conosco aqui ou apoie o tecflow clicando neste link
- Assine nossa newsletter neste link.
As empresas também estão investindo pesado. A IDC aponta que as 100 maiores empresas da Ásia planejam alocar 50% de seus orçamentos de TI para IA. No entanto, nem todos os projetos dão certo: o Gartner relata que quase um terço das iniciativas de IA não geram valor para os negócios.
É evidente que há muitas oportunidades na IA, mas é preciso um investimento significativo para aproveitá-las. Neste artigo, explico como as empresas podem maximizar as chances de sucesso dos projetos de IA e o que é preciso considerar em termos de infraestrutura para viabilizar isso.

Claro evolui pós-pago e integra iCloud e Google One aos
A Claro reafirma o seu papel como um hub de parcerias estratégicas com grandes empresas de tecnologia e anuncia importantes…
HONOR Lightning: Robô Humanoide da HONOR supera recorde mundial humano
VEJA O VÍDEO em que robô da HONOR rompe a barreira da tecnologia e supera tempo do recordista Jacob Kiplimo…
Além do papel: confira tecnologias que estão transformando o sistema
Do ensino básico ao superior, sistemas de assinaturas digitais, inteligência artificial na previsão de evasão escolar e automação de fluxo…
Check Point Alerta para Vazamento Silencioso de Credenciais no Claude
A adoção acelerada de inteligência artificial no desenvolvimento de software acaba de ganhar um novo capítulo de atenção. Pesquisadores da…
Valve lança solução para falta de memória em GPUs; ganho
Novo patch experimental da Valve revoluciona o gerenciamento de VRAM no Linux. Testes mostram Alan Wake II saltando de 14…
Expansão do mercado de data centers no Brasil é oportunidade
Por Walter Sanches O Brasil ocupa uma posição privilegiada no que se refere à expansão global dos data centers. Atualmente, o…
Demandas de computação e dados
As cargas de trabalho de IA se dividem em duas grandes categorias: treinamento — quando um modelo aprende com um conjunto de dados — e inferência, quando aplica o que aprendeu a novos dados. No entanto, etapas críticas são executadas antes mesmo do treinamento, incluindo coleta, preparação e curadoria de dados.
A natureza desses dados varia muito, desde dados de arquivo até bancos de dados transacionais estruturados, frequentemente sem padronização adequada de governança. O que é consistente é que a IA consome muitos recursos.
O consumo de energia e a voracidade do processamento da GPU durante o treinamento são bem conhecidos, e os pontos de verificação frequentes durante o treinamento aumentam as demandas de infraestrutura. Esses pontos de verificação garantem a recuperabilidade do modelo, a capacidade de reversão e a conformidade, demandando ainda mais em capacidade de armazenamento de dados e consumo de energia associado.
A geração aumentada de recuperação (RAG), que integra conjuntos de dados internos em LLMs, gera mais complexidade de armazenamento, contando com dados vetorizados — conjuntos de dados convertidos em vetores de alta dimensão para permitir comparações de similaridade. Essa transformação pode aumentar significativamente o tamanho do conjunto de dados, inclusive em até 10 vezes.
Após o treinamento, a inferência geralmente requer menos poder computacional, mas ainda envolve armazenamento contínuo de dados, tanto para registrar os resultados quanto para analisar os próprios dados.
Energia, escala e trade-offs
A crescente pegada energética da IA é outro fator crítico. Algumas fontes indicam que o processamento de IA consome cerca de 30 vezes mais energia do que o software tradicional orientado a tarefas, e que os requisitos de energia dos data centers devem mais que dobrar até 2030. No nível de rack, o consumo de energia saltou de menos de 10 kW para 100 kW, ou até mais, em alguns clusters de IA, impulsionado em grande parte pelas demandas de GPUs de alto desempenho.

Isso gera um trade-off: toda energia gasta com armazenamento deixa de estar disponível para as GPUs. Um armazenamento eficiente e de alto desempenho é essencial para alimentar GPUs com dados em ritmo acelerado, e minimiza a sobrecarga sobre os orçamentos já limitados de energia. Além disso, o armazenamento pode impulsionar ganhos adicionais por meio de caches de valor-chave, que guardam dados, prompts e conversas mais utilizados, reduzindo o processamento repetitivo das GPUs. Esse recurso melhora a capacidade de resposta até mesmo em cargas de trabalho intensas, como RAG, negociação ou chatbots. No geral, o cache pode acelerar a inferência em até 20 vezes, maximizando a eficiência das GPUs, reduzindo custos e consumo de energia, e viabilizando aplicações de IA empresarial mais escalonáveis e responsivas.
A base da infraestrutura
O armazenamento de dados na infraestrutura de IA tem como papel garantir acesso a grandes volumes de informação com alta taxa de transferência e baixa latência. Quando o desempenho do armazenamento é insuficiente, pode criar gargalos nas GPUs e comprometer o valor de um hardware caro de computação.
As cargas de trabalho de IA costumam exigir centenas de terabytes – e até petabytes – de capacidade, além da habilidade de recuperar dados rapidamente para treinar modelos, executar inferências ou integrar novas fontes de dados. Isso vale tanto para dados em tempo real quanto para informações arquivadas que podem ser reutilizadas ou reprocessadas. O flash QLC de alta densidade se consolidou como solução ideal para essas demandas, combinando velocidade, capacidade, confiabilidade e eficiência energética quando utilizado em uma plataforma de armazenamento moderna. Com o QLC, é possível armazenar grandes volumes em flash a custos próximos aos de discos tradicionais, mas com a velocidade necessária para cargas de trabalho de IA.

Entregar IA em escala exige muito mais do que poder computacional. É preciso uma infraestrutura robusta, eficiente e responsiva. Nesse cenário, o armazenamento de dados ocupa posição central: desde a preparação inicial, passando pelo treinamento, até a inferência voltada ao usuário final, as cargas de trabalho de IA dependem de soluções rápidas, escalonáveis e energeticamente conscientes. Sem esta base, mesmo os projetos mais promissores correm o risco de naufragar sob o peso da própria complexidade.
Faça como os mais de 10.000 leitores do tecflow, clique no sino azul e tenha nossas notícias em primeira mão! Confira as melhores ofertas de celulares na loja parceira do tecflow.
Redação tecflow
Tecflow é um website focado em notícias sobre tecnologia com resenhas, artigos, tutoriais, podcasts, vídeos sobre tech, eletrônicos de consumo e mercado B2B.


