

O avanço da inteligência artificial (IA) baseada em nuvem tem transformado o ambiente corporativo, impulsionando inovação, automação e ganho de eficiência. No entanto, essa integração acelerada também traz novos e complexos desafios de segurança cibernética. Segundo o Relatório Tenable 2025: Riscos da IA na Nuvem, divulgado pela Tenable — empresa global especializada em gerenciamento de exposição cibernética —, 70% das cargas de trabalho que utilizam serviços de IA na nuvem apresentam ao menos uma vulnerabilidade não corrigida.
- Participe dos nossos canais no Twitter, Telegram ou Whatsapp!
- Confira nossos stories no Instagram e veja notícias como essa!
- Siga o tecflow no Spotify Podcast para ouvir nosso conteúdo!
- Anuncie conosco aqui ou apoie o tecflow clicando neste link
- Assine nossa newsletter neste link.
A análise feita pela equipe da Tenable Cloud Research investigou ambientes em três das principais plataformas do setor — Amazon Web Services (AWS), Google Cloud Platform (GCP) e Microsoft Azure — e revelou uma série de falhas graves. Entre elas, estão vulnerabilidades críticas como a CVE-2023-38545 (relacionada ao cURL), permissões excessivas configuradas por padrão, falhas de isolamento de dados e acesso root não restrito em serviços como Amazon SageMaker e Google Vertex AI.
A pesquisa também introduz o conceito de “configurações Jenga®”, termo utilizado para ilustrar como serviços empilhados na nuvem — quando mal configurados — podem criar uma estrutura instável, vulnerável a falhas e ataques. Isso representa riscos reais como envenenamento de dados de treinamento, vazamento de informações sensíveis e perda da integridade dos modelos de IA.
Para entender melhor os achados do relatório e discutir como as empresas podem se proteger nesse cenário emergente, o tecflow conversou com Pedro Eurico Rego, engenheiro de segurança da Tenable Brasil. Na entrevista exclusiva, ele detalha os principais riscos, os conceitos técnicos envolvidos, e orienta sobre boas práticas de segurança para organizações que já utilizam — ou pretendem adotar — soluções de IA na nuvem.

tecflow: Quais são os principais riscos identificados pela Tenable em relação ao uso de ferramentas de IA na nuvem, e por que eles são considerados tão críticos?
Pedro Eurico: Ferramentas de IA podem propagar falhas de segurança; ativos de IA sensíveis, profundamente integrados às operações comerciais, podem conter vulnerabilidades ou configurações incorretas que representam riscos.
Um padrão de risco sério que encontramos é a ocorrência do conceito Jenga® (jogo de habilidade onde os jogadores se revezam para remover blocos de madeira de uma torre, tentando não derrubá-la) em serviços de IA gerenciados. O conceito Jenga identifica a tendência dos provedores de nuvem de construir um serviço em cima do outro, herdando padrões arriscados de uma camada para a outra. Essas configurações incorretas de nuvem, especialmente em ambientes de IA, podem ter implicações de risco graves se exploradas – em comparação, 70% das cargas de trabalho com IA em ambientes cloud apresentam vulnerabilidades não corrigidas, contra 50% das sem IA.
Outra descoberta que causa preocupação é a configuração incorreta comum de identidades superprivilegiadas em implementações de IA — e um risco ainda maior quando em combinação tóxica com uma vulnerabilidade crítica ou exposição pública. Alguns serviços de IA oferecem controle de acesso refinado. No entanto, esses recursos de gerenciamento de permissões são por serviço de nuvem e provedor de nuvem apenas. Configurar permissões suficientes ao aderir ao privilégio mínimo requer insights contextuais em ambientes de nuvem (e multi-nuvem), incluindo cargas de trabalho, identidades, dados confidenciais e outros recursos.
Para enfrentar os novos desafios de IA, é essencial que as organizações adotem uma abordagem de plataforma de proteção de aplicativos nativos da nuvem (CNAPP) que contextualize e priorize o risco em infraestrutura de nuvem, cargas de trabalho, rede, identidades, dados e IA. Para ir direto ao ponto: a IA, apesar de toda a sua inteligência, não é isenta de riscos e requer sua atenção.
tecflow: Como as configurações incorretas, como as encontradas no Google Vertex AI Notebooks, podem comprometer a segurança de toda a infraestrutura de IA?
Pedro Eurico: As configurações incorretas frequentemente expõem vulnerabilidades que podem ser exploradas por atacantes, resultando em roubo de dados, comprometimento de modelos e treinamento com informações maliciosas, aumentando a superfície de ataque e incapacitando a detecção de atividades maliciosas em tempo hábil.
Isso pode ocorrer de várias formas, como configurar notebooks (blocos de notas para desenvolvimento de IA) com acesso público e usuários com permissões mais amplas do que o necessário ou sem autenticação adequada; armazenar credenciais diretamente no código ou em arquivos desprotegidos; permitir acessos de qualquer endereço IP ou rede; não criptografar dados adequadamente; não aplicar atualizações de segurança nos sistemas subjacentes e também, não configurando sistemas de monitoramento.
Para proteger a infraestrutura, é essencial restringir o acesso, gerenciar credenciais com segurança, usar criptografia e monitorar atividades.
tecflow: O que é o conceito de “Jenga” aplicado à segurança em nuvem e como ele se manifesta nas plataformas de IA investigadas?
Pedro Eurico: O conceito Jenga identifica a tendência dos provedores de nuvem de construir um serviço em cima do outro, com blocos de construção, herdando padrões arriscados de uma camada para a outra.
Essas configurações “Jenga” — serviços sobre serviços, com permissões por padrão amplas demais — transformam ambientes de IA na nuvem em alvos de alto valor e de difícil defesa, pois o comprometimento de um único componente pode reverberar por toda a infraestrutura de aprendizado e inferência. Por isso, limitar acessos é essencial para proteger tanto os dados quanto os modelos.
A Tenable Cloud Research identificou que, 77% das organizações têm a conta de serviço padrão do Compute Engine com privilégios excessivos configurada no Google Vertex AI, tornando vulneráveis não só esses notebooks, mas todos os serviços que deles dependem. Utilizando o conceito de Jenga, um bloco mal configurado na torre de aplicações pode causar uma falha catastrófica e/ou abrir portas para invasores.

tecflow: De que forma o acesso root padrão em notebooks do Amazon SageMaker representa uma ameaça, e o que as empresas podem fazer para mitigar esse risco?
Pedro Eurico: O Acesso root entrega liberdade total a modificações da infraestrutura de IA. Na Amazon SageMaker, quase 91% dos ambientes mantêm o acesso root habilitado em pelo menos um notebook, conferindo liberdade total de modificação — uma falha grave em qualquer contexto, mas especialmente crítica quando se trata de modelos de IA, cujo comportamento e integridade podem ser alterados sem rastreamento.
O acesso root é o equivalente digital a dar a uma pessoa as chaves de casa e autonomia total para realizar quaisquer mudanças, da fundação ao telhado. Em um cenário de GenAI, em que as operações dependem de modelos e dados críticos, um comprometimento pode significar a perda irreparável de dados, vazamento de informações sensíveis e interrupção das operações.
Para mitigar esses riscos é crucial que as empresas que utilizam GenAI em plataformas como o Amazon SageMaker implementem medidas rigorosas de segurança.
Algumas ações recomendadas incluem:
1. Gestão de Privilégios: limitar o acesso root apenas a situações absolutamente necessárias e adotar o princípio do menor privilégio.
2. Centralização e Padronização: implementar protocolos claros para configuração e uso do ambiente, garantindo que todos sigam as mesmas diretrizes.
3. Autenticação e Monitoramento: utilizar autenticação multifator e monitorar constantemente as atividades do sistema a fim de detectar comportamentos suspeitos.
4. Treinamento Contínuo: educar os usuários sobre boas práticas de segurança e os riscos associados ao acesso root.

Entrevista: Como evitar apagões com a proteção de redes OT
Um colapso elétrico de grandes proporções atingiu a Península Ibérica na segunda-feira (28), deixando milhões sem energia em Espanha e…
“Ferramentas de IA podem propagar falhas de segurança”, alerta Pedro
O avanço da inteligência artificial (IA) baseada em nuvem tem transformado o ambiente corporativo, impulsionando inovação, automação e ganho de…
Motivo para Suécia encerrar projetos de energia eólica no Mar
O Mar Báltico é conhecido por suas fortes rajadas de vento, tornando-se um local ideal para a instalação de parques…
Dia da Inteligência Artificial: conheça as assistentes virtuais que estão
No dia 1º de maio, além do Trabalhador, também é celebrado o Dia da Inteligência Artificial. Com o mundo avançando…
Entrevista exclusiva: ASUS detalha por que o TUF Gaming F15
Após mais de duas décadas, a icônica franquia Fatal Fury, da SNK, retorna com um novo capítulo repleto de ação,…
Volkswagen abre vaga híbrida com foco em digitalização e TI
Profissionais de Tecnologia da Informação que buscam ingressar em uma empresa de porte global, com cultura inovadora e oportunidades reais…
tecflow: Quais boas práticas e políticas de segurança a Tenable recomenda para organizações que já utilizam ou pretendem adotar IA baseada em nuvem?
Pedro Eurico: As estratégias recomendadas pela Tenable são:
- Gerencie a exposição dos seus sistemas e dados de IA. Adote uma abordagem contextual para descobrir a exposição da sua infraestrutura da nuvem, identidades, dados, cargas de trabalho e ferramentas de IA. Monitore todos os ativos e integre as configurações de telemetria e segurança, no local e na nuvem. Visibilidade unificada e ações priorizadas em toda a superfície de ataque permitem o gerenciamento de riscos à medida que os ambientes mudam e as ameaças de IA evoluem.
- Classifique todos os componentes de IA vinculados a ativos de alto impacto ao negócio como confidenciais (ex.: dados confidenciais, identidades privilegiadas). Inclua ferramentas e dados de IA no seu inventário de ativos, verificando-os constantemente e compreendendo o risco, no caso de uma exploração. Até os dados de teste podem ser confidenciais; se vazados, o risco é o mesmo dos dados de produção.
- Acompanhe o ritmo das normas e diretrizes emergentes de IA. Mantenha a conformidade mapeando os principais armazenamentos de dados de IA baseados em nuvem e implementando os controles de acesso necessários. Garanta que seus engenheiros de IA estejam desenvolvendo, implementando e utilizando os sistemas de IA da sua organização de forma “segura por padrão”, seguindo as diretrizes do NIST.
- Aplique recomendações de provedores de nuvem para seus serviços de IA. Siga todos os manuais para evitar configurações perigosas, tendo em mente que os padrões não costumam ser seguros e que essas orientações ainda estão em evolução. Ao implementar serviços, certifique-se de que todos os recursos provisionados no processo sigam as práticas recomendadas e o princípio de privilégios mínimos.
- Impeça acesso não autorizado ou com excesso de privilégios a modelos de IA/armazenamentos de dados baseados em nuvem. Reduza o excesso de permissões e gerencie rigorosamente as identidades da nuvem usando ferramentas robustas para obter privilégios mínimos e postura de segurança. Isso também deve detectar configurações incorretas do estilo Jenga no seu ambiente de IA na nuvem.
- Priorize a correção de vulnerabilidades por impacto. Entenda quais CVEs têm a maior severidade de risco no seu ambiente. Soluções de segurança da nuvem menos sofisticadas podem bombardear notificações à equipe; ferramentas avançadas melhoram a eficiência e a eficácia da correção e reduzem a fadiga de alertas.
Faça como os mais de 10.000 leitores do tecflow, clique no sino azul e tenha nossas notícias em primeira mão! Confira as melhores ofertas de celulares na loja parceira do tecflow.
Marciel
Formado em jornalismo, o editor atua há mais de 10 anos cobrindo notícias referente ao mercado B2B. Porém, apesar de toda a Transformação Digital, ainda prefere ouvir música em disco de vinil.