
Pesquisa revela que o banco de dados desprotegido de uma plataforma de geração de imagens de IA estava acessível abertamente na internet, expondo fotos de pessoas reais que foram submetidas ao processo de ‘nudificação’ por inteligência artificial
Um grave incidente de segurança expôs a fragilidade ética e técnica do mercado de Inteligência Artificial generativa. Uma startup de criação de imagens por IA deixou um banco de dados contendo mais de 1 milhão de imagens e vídeos abertamente acessível na internet, segundo uma nova pesquisa revisada pela WIRED. A grande maioria dos arquivos continha nudez e conteúdo explícito, incluindo possíveis representações de crianças ou deepfakes envolvendo rostos de crianças.
- Participe dos nossos canais no Twitter, Telegram ou Whatsapp!
- Confira nossos stories no Instagram e veja notícias como essa!
- Siga o tecflow no Spotify Podcast para ouvir nosso conteúdo!
- Anuncie conosco aqui ou apoie o tecflow clicando neste link
- Assine nossa newsletter neste link
- Siga o tecflow no tik tok
O pesquisador de segurança Jeremiah Fowler, que descobriu a falha em outubro, relatou que plataformas como MagicEdit e DreamPal (operadas pela startup DreamX ou entidades relacionadas) pareciam utilizar o mesmo banco de dados sem proteção. Na época da descoberta, cerca de 10 mil novas imagens eram adicionadas diariamente.
O problema da “Nudificação” não consensual
O vazamento expôs não apenas conteúdo gerado por IA, mas também fotos “inalteradas” de pessoas reais que foram, presumivelmente, enviadas para serem “nudificadas” ou terem seus rostos trocados em corpos nus gerados por IA.
Fowler, que já descobriu três bancos de dados mal configurados de geração de imagens de IA neste ano, alerta para o risco central: “A verdadeira questão são apenas pessoas inocentes, e especialmente menores de idade, tendo suas imagens usadas sem o seu consentimento para criar conteúdo sexual,” afirmou Fowler, que publicou suas descobertas no blog da ExpressVPN.
A descoberta ocorre em um momento crítico, onde o ecossistema de serviços de “nudificação” por IA – usados por milhões de pessoas – tem sido amplamente explorado para criar imagens explícitas maliciosas, em grande parte de mulheres, a partir de fotos roubadas de redes sociais. Relatos de criminosos usando IA para criar material de abuso sexual infantil dobraram no último ano.

Resposta da empresa e desaparecimento dos aplicativos
A DreamX, startup que opera MagicEdit e DreamPal, afirmou que leva as preocupações “extremamente a sério” e negou envolvimento direto de uma empresa de marketing ligada aos fundadores, a SocialBook, na operação do banco de dados. No entanto, o relatório de Fowler indicou que o banco de dados continha imagens com a marca d’água da SocialBook, e várias páginas do site da empresa que mencionavam MagicEdit ou DreamPal passaram a retornar erros.
Após o contato de Fowler, a DreamX declarou ter encerrado o acesso ao banco de dados exposto e lançado uma “investigação interna com assessoria jurídica externa”. A empresa também suspendeu o acesso aos seus produtos e removeu os aplicativos (como MagicEdit e DreamPal) da App Store da Apple. O Google, por sua vez, confirmou que havia suspendido anteriormente aplicativos da desenvolvedora ligada à startup devido a violações de políticas relacionadas a “conteúdo explicitamente sexual” ou nudez.

Conta de luz em risco? Entenda a guerra bilionária que
Um “puxadinho” na nova lei do setor elétrico colocou gigantes da energia e o Governo em pé de guerra. Entenda…
Oportunidade de ouro: IFSP libera 4.500 vagas em cursos de
Quer entrar no mercado de TI sem pagar nada? O Instituto Federal de São Paulo (IFSP) acaba de abrir inscrições…
O fim do Windows? Google e Samsung unem forças e
Prepare o monitor: a nova atualização do Android 16 acaba de transformar seu celular em um computador completo. Entenda a…
Apple choca o mercado e lança MacBook Neo por preço
Em estratégia inédita para driblar a crise dos chips, gigante de Cupertino aposta em notebook “popular” com bateria de 16…
Samsung lança no Brasil tela 3D que dispensa óculos e
Nova tecnologia Spatial Signage transforma imagens comuns em experiências 3D realistas para revolucionar lojas e escritórios; conheça o display de…
Conheça a calculadora “mágica” que fazia ligações e outras raridades
Evento gratuito no Shopping Mooca revela invenções bizarras e históricas da Casio, incluindo modelos que jogam e organizam rankings de…
A falha ética e a apatia com a segurança
O pesquisador afirma que o banco de dados continha 1.099.985 registros, sendo “quase todos” de natureza pornográfica. Embora a DreamX afirme que implementava mecanismos de moderação, como a filtragem de prompts através da API de Moderação do OpenAI, a exposição massiva sugere uma falha grave na infraestrutura.
O caso é visto por especialistas como um exemplo de “apatia que as startups sentem em relação à confiança e segurança”, especialmente na proteção de menores.
“Eles fizeram um ótimo trabalho de promoção sutil de conteúdo sexualizado,” disse Fowler, alertando que ferramentas de nudez podem facilmente ser “transformadas em armas” para extorsão e assédio. “Essas empresas realmente têm que fazer mais do que apenas um pop-up genérico: ‘Ao clicar aqui, você concorda que tem consentimento para fazer upload desta foto.’ Você não pode deixar as pessoas se policiaram sozinhas, porque elas não o farão.”
com informações da WIRED.
Faça como os mais de 10.000 leitores do tecflow, clique no sino azul e tenha nossas notícias em primeira mão! Confira as melhores ofertas de celulares naloja parceira do tecflow.
Marciel
Formado em Jornalismo, o editor atua há mais de 10 anos na cobertura de notícias relacionadas ao mercado B2B. Apesar de toda a Transformação Digital, ainda prefere ouvir música de forma analógica, no toca-discos.

