Alucinações de IA representam ‘ameaça direta’ à ciência, alerta estudo de Oxford
Alucinações de inteligência artificial representam uma 'ameaça imediata' à ciência, alerta pesquisa de Oxford
Grandes Modelos de Linguagem (GMLs) – como aqueles usados em chatbots – têm uma alarmante tendência a alucinar. Ou seja, a gerar conteúdo falso que eles apresentam como preciso. Essas alucinações de IA representam, entre outros riscos, uma ameaça direta à ciência e à verdade científica, alertam os pesquisadores do Instituto de Internet de Oxford.
De acordo com o artigo deles, publicado na Nature Human Behaviour, “GMLs são projetados para produzir respostas úteis e convincentes sem garantias explícitas de precisão ou alinhamento com fatos”.
Atualmente, os GMLs são tratados como fontes de conhecimento e geram informações em resposta a perguntas ou sugestões. Mas os dados nos quais eles são treinados nem sempre são factualmente corretos. Uma das razões para isso é que esses modelos muitas vezes utilizam fontes online, que podem conter declarações falsas, opiniões e informações incorretas.
“As pessoas que utilizam os GMLs muitas vezes atribuem características humanas à tecnologia, onde confiam nela como uma fonte de informações semelhante a um ser humano”, explicou o Professor Brent Mittelstadt, co-autor do artigo.
“Isso ocorre em parte devido ao design dos GMLs como agentes úteis e com linguagem semelhante à humana, que conversam com os usuários e respondem a qualquer pergunta com um texto bem escrito e confiante. O resultado disso é que os usuários podem ser facilmente convencidos de que as respostas são precisas, mesmo quando não têm base factual ou apresentam uma versão tendenciosa ou parcial da verdade”.
- Os funcionários da OpenAI estão irritados com a saída de Sam Altman...
- O FBI expõe a aliança da Aranha Espalhada com a notória gangue de r...
- A Microsoft surge como vencedora do caos da OpenAI
No que diz respeito à ciência e à educação, a precisão das informações é de vital importância e os pesquisadores instam a comunidade científica a usar os GMLs como “tradutores zero-shot”. Isso significa que os usuários devem fornecer ao modelo os dados apropriados e pedir que o transforme em uma conclusão ou código, por exemplo – em vez de confiar no modelo em si como fonte de conhecimento.
Dessa forma, torna-se mais fácil verificar se a saída está correta do ponto de vista factual e está alinhada com a entrada fornecida.
Os GMLs irão “sem dúvida” auxiliar nos fluxos de trabalho científico, de acordo com os professores de Oxford. Mas é crucial para a comunidade usá-los de forma responsável e manter expectativas claras sobre como eles podem realmente contribuir.