A recente decisão da Autoridade Nacional de Proteção de Dados (ANPD) de rejeitar o recurso da Meta, que buscava utilizar dados brasileiros para treinar Inteligência Artificial (IA), destaca uma preocupação crucial. Em um cenário digital em que as opiniões são moldadas por desinformação e fake news, até que ponto podemos confiar na IA quando ela é alimentada por informações não especializadas e comentários danosos?
- Siga o tecflow no Google News!
- Participe dos nossos canais no Twitter,Telegram ou Whatsapp!
- Confira nossos stories no Instagram e veja notícias como essa!
- Siga o tecflow no Google Podcast e Spotify Podcast para ouvir nosso conteúdo!
- Anuncie conosco aqui ou apoie o tecflow clicando neste link.
Para Marcell Rosa, Gerente Geral e Vice-Presidente de Vendas na América Latina da Clevertap, plataforma de marketing digital especializada em retenção e engajamento de usuários, a utilização de dados coletados de plataformas em que a desinformação e os ataques pessoais proliferam é muito delicada: “Quando a IA aprende a partir de informações enviesadas e, muitas vezes, prejudiciais, o risco é que essas máquinas não apenas reproduzam, mas amplifiquem comportamentos negativos e distorcidos”.
Durante o período eleitoral no Brasil, o volume de notícias falsas nas redes sociais atingiu proporções alarmantes. O Tribunal Superior Eleitoral (TSE) confirmou essa realidade ao relatar que recebeu mais de 500 alertas diários sobre fake news durante o segundo turno das eleições de 2022.
A preocupação principal é que a IA, treinada com dados extraídos de opiniões de pessoas comuns — muitas vezes influenciadas por desinformação e hostilidade — acabe refletindo esses padrões. “A IA tende a replicar o comportamento humano, e quando esse comportamento é caracterizado por polarização e falta de civismo, a tecnologia inevitavelmente reflete essas falhas”, acrescenta Rosa.
Além disso, a questão se agrava pela dificuldade em filtrar e discernir entre informações precisas e conteúdo prejudicial. A criação de sistemas que podem espalhar ou até amplificar fake news e opiniões polarizadas é um desafio ético significativo. “Se a IA é treinada em um ambiente repleto de desinformação e discursos ofensivos, o resultado é uma tecnologia que não só replica, mas pode até exacerbar esses problemas, criando um ciclo de negatividade e falsidade”, completa Rosa.
A decisão da ANPD é um passo importante para assegurar que a utilização de dados para treinar IA seja feita com responsabilidade e consideração ética. “A privacidade dos usuários e a integridade da informação são essenciais para o desenvolvimento de tecnologias que realmente beneficiem a sociedade”, conclui Rosa.
Este episódio sublinha a necessidade urgente de uma abordagem mais crítica e regulada sobre como as plataformas digitais coletam e utilizam dados. Proteger a integridade da informação e garantir que a IA desenvolva-se com base em dados confiáveis e respeitosos é fundamental para o futuro da tecnologia e da sociedade.
Faça como os mais de 10.000 leitores do tecflow, clique no sino azul e tenha nossas notícias em primeira mão! Confira as melhores ofertas de celulares na loja parceira do tecflow.
Leandro Lima
Graduado em tecnologia e design gráfico, sou apaixonado pela fotografia e inovações tecnológicas. Atualmente escrevo para o Tecflow.