Qual é o principal problema das inteligências artificiais?

O quanto você pode confiar em uma inteligência artificial? A resposta parece simples, mas não é. Os modelos generativos, como é chamada a tecnologia por trás do ChatGPT, são treinados para gerar conteúdo que pareça ter sido escrito por uma pessoa, e não para dar respostas 100% corretas. Por isso, são famosos por errarem com autoridade, ou seja, por emitir respostas incorretas de uma forma que elas pareçam, para um leitor desavisado, verdadeiras. E essa falha acontece com mais frequência exatamente nas perguntas que necessitam de mais profundidade e conhecimento, que são exatamente aquelas em que o usuário vai ter mais dificuldade de detectar um erro.

Segundo Thoran Rodrigues, CEO da BigDataCorp e especialista em inteligência artificial, é impossível utilizar de forma benéfica os modelos generativos sem antes entender como eles funcionam e, principalmente, saber suas limitações. “Utilizar essas tecnologias aceitando cegamente em todas as respostas retornadas é o prelúdio de um potencial desastre social na humanidade,” comenta o especialista.

Os modelos generativos não aprendem como as pessoas. Eles são capazes de analisar bilhões de textos, artigos, imagens, códigos de computador, fórmulas matemáticas e outros tipos de conteúdo, e imitar a forma de escrita deles, mas não existe pensamento por parte da máquina. Ela não está preocupada com o conteúdo ser ou não correto, apenas com a força da associação entre os conteúdos. Se a correlação é forte, o tom é de autoridade, independente do conteúdo ser ou não correto, e a forma como a resposta é escrita, por sua vez, passa para o usuário a percepção de que existe um embasamento por trás do que foi retornado.

Para o especialista é importante que essas limitações e problemas sejam deixados muito claros pelas empresas que estão construindo esses modelos. “A tendência natural das pessoas é antropomorfizar a tecnologia, ou seja, tratar a inteligência artificial como uma outra pessoa. E não podemos esperar que todas as pessoas do mundo entendam como esses algoritmos funcionam, e os riscos associados. É importante que os desenvolvedores deixem explícitas as limitações de suas ferramentas.”
 

Ainda para Thoran, uma inteligência artificial que fala com um tom de autoridade, combinada com o leitor médio que é totalmente desavisado é uma mistura extremamente perigosa. “Esses modelos aprendem com o conteúdo que consumiram, e também com as novas interações com os usuários. Se o usuário assume que a resposta está correta e não corrige a IA, ele reforça a associação, aumentando a propagação de informações falsas de maneira não intencional e até mesmo despercebida.”

Faça como os mais de 10.000 leitores do tecflow, clique no sino azul e tenha nossas notícias em primeira mão! Confira as melhores ofertas de celulares na loja parceira do tecflow.

Leandro Lima

Graduado em tecnologia e design gráfico, sou apaixonado pela fotografia e inovações tecnológicas. Atualmente escrevo para o Tecflow.

Deixe comentário

Seu endereço de e-mail não será publicado. Os campos necessários são marcados com *.

Mais acessados

Dicas e Tutoriais

SmartPhones & Tablets

Mercado & Tecnologia

Consoles e Games

Ciência & Espaço

Eventos

Quem Somos

Tecflow é um website focado em notícias sobre tecnologia com resenhas, artigos, tutoriais, podcasts, vídeos sobre tech, eletrônicos de consumo e mercado B2B.

Siga Tecflow em:

Parceiro Autthentic

error: Content is protected !!