Alucinações de IA representam ‘ameaça direta’ à ciência, alerta estudo de Oxford

Alucinações de inteligência artificial representam uma 'ameaça imediata' à ciência, alerta pesquisa de Oxford

Grandes Modelos de Linguagem (GMLs) – como aqueles usados em chatbots – têm uma alarmante tendência a alucinar. Ou seja, a gerar conteúdo falso que eles apresentam como preciso. Essas alucinações de IA representam, entre outros riscos, uma ameaça direta à ciência e à verdade científica, alertam os pesquisadores do Instituto de Internet de Oxford.

De acordo com o artigo deles, publicado na Nature Human Behaviour, “GMLs são projetados para produzir respostas úteis e convincentes sem garantias explícitas de precisão ou alinhamento com fatos”.

Atualmente, os GMLs são tratados como fontes de conhecimento e geram informações em resposta a perguntas ou sugestões. Mas os dados nos quais eles são treinados nem sempre são factualmente corretos. Uma das razões para isso é que esses modelos muitas vezes utilizam fontes online, que podem conter declarações falsas, opiniões e informações incorretas.

“As pessoas que utilizam os GMLs muitas vezes atribuem características humanas à tecnologia, onde confiam nela como uma fonte de informações semelhante a um ser humano”, explicou o Professor Brent Mittelstadt, co-autor do artigo.

“Isso ocorre em parte devido ao design dos GMLs como agentes úteis e com linguagem semelhante à humana, que conversam com os usuários e respondem a qualquer pergunta com um texto bem escrito e confiante. O resultado disso é que os usuários podem ser facilmente convencidos de que as respostas são precisas, mesmo quando não têm base factual ou apresentam uma versão tendenciosa ou parcial da verdade”.

No que diz respeito à ciência e à educação, a precisão das informações é de vital importância e os pesquisadores instam a comunidade científica a usar os GMLs como “tradutores zero-shot”. Isso significa que os usuários devem fornecer ao modelo os dados apropriados e pedir que o transforme em uma conclusão ou código, por exemplo – em vez de confiar no modelo em si como fonte de conhecimento.

Dessa forma, torna-se mais fácil verificar se a saída está correta do ponto de vista factual e está alinhada com a entrada fornecida.

Os GMLs irão “sem dúvida” auxiliar nos fluxos de trabalho científico, de acordo com os professores de Oxford. Mas é crucial para a comunidade usá-los de forma responsável e manter expectativas claras sobre como eles podem realmente contribuir.