O quanto você pode confiar em uma inteligência artificial? A resposta parece simples, mas não é. Os modelos generativos, como é chamada a tecnologia por trás do ChatGPT, são treinados para gerar conteúdo que pareça ter sido escrito por uma pessoa, e não para dar respostas 100% corretas. Por isso, são famosos por errarem com autoridade, ou seja, por emitir respostas incorretas de uma forma que elas pareçam, para um leitor desavisado, verdadeiras. E essa falha acontece com mais frequência exatamente nas perguntas que necessitam de mais profundidade e conhecimento, que são exatamente aquelas em que o usuário vai ter mais dificuldade de detectar um erro.
- Siga o tecflow no Google News!
- Participe do nosso grupo no Telegram ou Whatsapp!
- Confira nossos stories no Instagram e veja notícias como essa!
- Siga o tecflow no Google Podcast e Spotify Podcast para ouvir nosso conteúdo!
- Anuncie conosco aqui.
Segundo Thoran Rodrigues, CEO da BigDataCorp e especialista em inteligência artificial, é impossível utilizar de forma benéfica os modelos generativos sem antes entender como eles funcionam e, principalmente, saber suas limitações. “Utilizar essas tecnologias aceitando cegamente em todas as respostas retornadas é o prelúdio de um potencial desastre social na humanidade,” comenta o especialista.
Os modelos generativos não aprendem como as pessoas. Eles são capazes de analisar bilhões de textos, artigos, imagens, códigos de computador, fórmulas matemáticas e outros tipos de conteúdo, e imitar a forma de escrita deles, mas não existe pensamento por parte da máquina. Ela não está preocupada com o conteúdo ser ou não correto, apenas com a força da associação entre os conteúdos. Se a correlação é forte, o tom é de autoridade, independente do conteúdo ser ou não correto, e a forma como a resposta é escrita, por sua vez, passa para o usuário a percepção de que existe um embasamento por trás do que foi retornado.
Para o especialista é importante que essas limitações e problemas sejam deixados muito claros pelas empresas que estão construindo esses modelos. “A tendência natural das pessoas é antropomorfizar a tecnologia, ou seja, tratar a inteligência artificial como uma outra pessoa. E não podemos esperar que todas as pessoas do mundo entendam como esses algoritmos funcionam, e os riscos associados. É importante que os desenvolvedores deixem explícitas as limitações de suas ferramentas.”
Ainda para Thoran, uma inteligência artificial que fala com um tom de autoridade, combinada com o leitor médio que é totalmente desavisado é uma mistura extremamente perigosa. “Esses modelos aprendem com o conteúdo que consumiram, e também com as novas interações com os usuários. Se o usuário assume que a resposta está correta e não corrige a IA, ele reforça a associação, aumentando a propagação de informações falsas de maneira não intencional e até mesmo despercebida.”
Faça como os mais de 10.000 leitores do tecflow, clique no sino azul e tenha nossas notícias em primeira mão! Confira as melhores ofertas de celulares na loja parceira do tecflow.
Leandro Lima
Graduado em tecnologia e design gráfico, sou apaixonado pela fotografia e inovações tecnológicas. Atualmente escrevo para o Tecflow.