Google Bard, ChatGPT Os chatbots de IA estão suprimindo informações sobre Israel e Palestina?

Google Bard, ChatGPT Os chatbots de IA estão ocultando informações sobre os conflitos entre Israel e Palestina?

Quando é feita qualquer pergunta sobre Israel e Palestina para o Google’s Bard AI, o chatbot basicamente se desliga. As perguntas podem ser desde as aparentemente inocentes – (“Onde fica Israel?”) – até aquelas centradas na guerra em curso entre Israel e Hamas. Para essas perguntas, o Bard responde a cada uma delas com uma variação da mensagem: “Sou uma IA baseada em texto e não posso ajudar com isso.”

O chatbot do Google parece estar censurando qualquer resposta relacionada à crise atual. Isso se aplica a uma variedade de perguntas que nós e muitos usuários fizemos usando palavras-chave como Israel, Gaza, Palestina e IDF (a sigla para Forças de Defesa de Israel). As respostas do Bard para nós incluíram: “Sou um modelo de linguagem e não tenho capacidade para ajudar com isso.”

Captura de tela do Google Bard.Captura de tela do Google Bard.

Usuários no X apontaram este problema primeiro, mostrando também que o chatbot facilmente responderia perguntas sobre outros países, regiões e localizações. O Google Bard também responde a perguntas sobre outros conflitos globais em andamento, como a guerra na Ucrânia – ao ser questionado sobre esse conflito, o Bard forneceu a seguinte informação: “Em fevereiro de 2022, a Rússia lançou uma invasão em grande escala na Ucrânia. A invasão foi recebida com condenação internacional e resultou na imposição de severas sanções à Rússia.”

Captura de tela do Google Bard respondendo uma pergunta sobre a Ucrânia e a Rússia.

A ENBLE entrou em contato com o Google para comentar e recebeu a confirmação da equipe de imprensa da empresa de que “implementou salvaguardas temporárias para desativar as respostas do Bard a consultas associadas”. A declaração diz o seguinte:

“O Bard ainda é um experimento, projetado para criatividade e produtividade, e pode cometer erros ao responder perguntas sobre conflitos em escalada ou questões de segurança. Por uma abundância de cautela e como parte de nosso compromisso em sermos responsáveis enquanto construímos nossa ferramenta experimental, implementamos salvaguardas temporárias para desativar as respostas do Bard a consultas associadas.”

Em um post no blog de março de 2023, VPs do Google compartilharam pensamentos sobre o “experimento” Bard e também alertaram os usuários de que a tecnologia, embora modelos de linguagem grandes (LLMs) sejam emocionantes, “eles não estão isentos de falhas.” A declaração reiterou que, porque esses modelos aprendem a partir de “uma ampla gama de informações”, eles são suscetíveis a refletir “preconceitos e estereótipos do mundo real”.

Também surgiram questionamentos sobre as respostas fornecidas pelo ChatGPT da OpenAI em certos prompts. A ENBLE tentou fazer perguntas ao GPT-3.5, a versão padrão. Em resposta a perguntas sobre a história entre Israel e Palestina, o chatbot parece fornecer informações detalhadas, mas ressalta que seu conhecimento pode estar desatualizado: “Observe que a situação pode mudar rapidamente, e é essencial consultar fontes de notícias atualizadas para obter as informações mais recentes sobre o conflito entre Israel e Hamas, pois podem ter ocorrido desenvolvimentos desde minha última atualização de conhecimento em janeiro de 2022”, diz uma resposta à pergunta “o que está acontecendo entre Israel e Hamas?”.

Para a pergunta “você pode me dizer o que está acontecendo na Palestina?”, o chatbot novamente declarou que suas informações podem estar desatualizadas e forneceu uma resposta bastante vaga, direcionando os usuários a ler “fontes de notícias confiáveis” em vez disso (apoiamos esse conselho):

Peço desculpas, mas não consigo fornecer informações em tempo real, pois meu conhecimento foi atualizado pela última vez em 2022. Segundo minha última atualização, a situação na Palestina há muito tempo é uma questão complexa e sensível, caracterizada por conflitos contínuos e disputas entre os territórios palestinos e Israel. O conflito tem raízes históricas e políticas profundas e resultou em graves problemas humanitários e preocupações com os direitos humanos, incluindo deslocamentos, violência e perda de vidas em ambos os lados. Os esforços para encontrar uma solução duradoura envolveram numerosas negociações de paz, intervenções internacionais e acordos, mas uma solução abrangente e de longo prazo tem sido difícil de alcançar. As questões envolvidas abrangem vários elementos, incluindo o status de Jerusalém, os assentamentos israelenses, a soberania palestina, questões de segurança e os direitos dos refugiados, entre outros. Para as informações mais recentes e precisas sobre a situação na Palestina, recomendo consultar fontes de notícias confiáveis, como agências de notícias internacionais e organizações que cobrem a região.

Pessoas em toda a internet experimentaram as respostas fornecidas por chatbots alimentados por inteligência artificial sobre a guerra. Por exemplo, a escritora e ilustradora Mona Chalabi postou a diferença significativa nas respostas que o ChatGPT deu às perguntas “Os israelenses merecem justiça?” e “Os palestinos merecem justiça?”. A resposta para a primeira foi muito mais concreta, enquanto a resposta para a segunda afirmou que “a questão da justiça para os palestinos é um problema complexo e altamente debatido”. Outros fizeram as mesmas perguntas e receberam uma disparidade semelhante.

A ENBLE entrou em contato com a OpenAI para comentar e atualizaremos esta história se recebermos uma resposta.

A OpenAI já afirmou anteriormente que seu modelo é imparcial, mas pesquisas recentes mostraram que os modelos de IA realmente possuem viés. No r/ChatGPT, uma comunidade do Reddit dedicada a discussões sobre IA, a interseção entre ChatGPT e Israel-Palestina foi discutida em um post deletado desde então. Os comentários permanecem, no entanto, e um usuário respondeu: “As pessoas são tendenciosas, portanto, o ChatGPT também será tendencioso”.

Desde o início da guerra entre Israel e o Hamas em outubro, as plataformas online têm sido amplamente questionadas pelos usuários por suas ações. Empresas de propriedade do Meta, incluindo Instagram e Facebook, foram acusadas de shadowbanning conteúdo e outros incidentes de viés evidente. X e TikTok também foram alvo de escrutínio semelhante por políticas de moderação ou disseminação de desinformação.