Os erros da IA – e quanto às alucinações dos chatbots?

AI errors - what about chatbot hallucinations?

Algumas das primeiras ocorrências de “alucinação” dos chatbots foram relatadas em abril de 2023. Esse fenômeno ocorre quando os chatbots e/ou pessoas veem o que não está lá, e o problema está piorando. Escolas, universidades (e empresas) estão tentando descobrir como resolver esse problema antes que ele fique grande demais. Bem, ele já está grande demais.

Para aqueles que brincam com o ChatGPT da OpenAI, o Bard do Google (e similares), o problema foi reconhecido quando Ben Zimmer do The Wall Street Journal escreveu sobre isso. Com as palavras de Zimmer:

Por exemplo, perguntei ao Bard sobre “diftongização argumentativa”, uma frase que acabei de inventar. Não apenas produziu cinco parágrafos elucidando esse fenômeno falso, o chatbot me disse que o termo foi “criado pela primeira vez pelo linguista Hans Jakobsen em 1922”. Desnecessário dizer que nunca houve um linguista proeminente chamado Hans Jakobsen (embora um ginasta dinamarquês com esse nome tenha competido nas Olimpíadas de 1920).

Os pesquisadores de IA estão chamando esse problema de “alucinação”. As máquinas realmente podem se desvencilhar e se desviar da realidade? Aparentemente sim. Aqui está uma entrevista no “60 Minutes” da CBS com o CEO do Google, Sundar Pichai, que conhece muito bem o problema da alucinação da IA. Pichai afirma que “ninguém conseguiu resolver a alucinação ainda e que todos os modelos de IA têm esse problema”.

O interessante assunto da alucinação na tradução neural de máquina

Aqui está a entrevista – ouça atentamente.

Aqui está uma revisão aberta que vale a pena investigar o problema imediato que aflige a indústria atualmente, escrita por vários estudiosos que trabalham com o Google AI em 2018. Por que só estamos ouvindo falar disso nos últimos meses – e por que está piorando?

A CNN disse assim: “Antes que a inteligência artificial possa dominar o mundo, ela precisa resolver um problema. Os bots estão alucinando. Ferramentas alimentadas por IA, como o ChatGPT, nos fascinaram com sua capacidade de produzir respostas autoritárias que soam humanas para praticamente qualquer pergunta.”

Ontem, a ENBLE afirmou: “As alucinações dos chatbots estão envenenando as buscas na web.” É realmente difícil distinguir a diferença, a menos que você saiba a verdade real. A inteligência artificial lhe dá as informações com o tom mais confiante, e a resposta parece verdadeira – até que você pesquise mais e descubra que não é verdade.

Essas alucinações da IA são evitáveis? Mas aqui estão os piores mentirosos entre os chatbots – aqueles que afirmam ter conhecimento médico. Imagine o pai que não tem treinamento médico – como a maioria de nós. Imagine isso: tarde da noite, você tem uma criança doente e quer perguntar se deve dar um pouco de Tylenol para a criança ou levá-la ao pronto-socorro. O bot lhe dá instruções incorretas e seu filho se machuca. Dá para imaginar alguns problemas decorrentes desse cenário.

PubMed – o site oficial do governo dos Estados Unidos – respondeu à escrita científica dos chatbots. Veja aqui. Até mesmo o governo está um pouco preocupado.

Esperemos que os chatbots recebam uma reformulação em breve.

Crédito da imagem em destaque: