IA Generativa está desempenhando um papel surpreendente na desinformação entre Israel e o Hamas

Inteligência Artificial Generativa desempenha um papel impressionante na propagação de desinformação entre Israel e o Hamas

Nas semanas desde que o Hamas lançou seu ataque surpresa em Israel em 7 de outubro, o conflito resultante gerou uma onda sem precedentes de desinformação, uma “névoa de guerra conduzida algoritmicamente” que tem atrapalhado grandes organizações de notícias e deixado as empresas de mídia social em dificuldades.

A Falha de Israel em Parar o Ataque do Hamas Mostra o Perigo de Muita Vigilância

Matt Burgess e Lily Hay Newman

O Sistema de Saúde de Gaza Está à Beira do Colapso

Grace Browne

Repórteres em Gaza Recorrem a Rádios e Geradores para Manter as Notícias em Movimento

Tom Bennett

No entanto, em meio a todas as imagens e vídeos enganosos circulando nas redes sociais, o conteúdo gerado por ferramentas de inteligência artificial permaneceu relativamente periférico. Mesmo que algumas pessoas se questionassem se a guerra Israel-Hamas seria o primeiro conflito dominado por imagens geradas de IA falsas, a tecnologia teve um impacto mais complexo e sutil.

“Definitivamente, existem imagens de IA circulando, mas não ao ponto de eu acreditar que elas desempenhem um papel central na propagação de informações”, diz Layla Mashkoor, editora associada do Digital Forensic Research Lab do Atlantic Council, que estuda a desinformação online.

Principalmente, diz Mashkoor, a desinformação gerada por IA está sendo usada por ativistas para solicitar apoio – ou dar a impressão de um apoio mais amplo – para um determinado lado. Exemplos incluem um outdoor gerado por IA em Tel Aviv defendendo as Forças de Defesa de Israel, uma conta israelense compartilhando imagens falsas de pessoas aplaudindo as IDF, um influenciador israelense usando IA para gerar condenações do Hamas e imagens de IA retratando vítimas do bombardeio de Gaza por Israel.

“Em termos de uso geral que tenho visto online, a maioria tem sido para angariar apoio, o que não está entre as formas mais maliciosas de utilizar a IA no momento”, diz ela.

Um fator chave aqui é a quantidade de desinformação circulando, o que dificulta para as imagens de IA moldarem a conversa. “O espaço de informações já está sendo inundado com imagens e vídeos reais e autênticos”, diz Mashkoor, “e isso por si só está inundando as plataformas de mídia social”.

Esse ponto é refletido em um artigo recente da Harvard Kennedy School Misinformation Review sobre o papel que a IA gerativa pode desempenhar na disseminação de informações falsas em todo o mundo. Nele, os autores escrevem que as preocupações com os efeitos da tecnologia estão “exageradas”. Embora, sim, a IA genética teoricamente permita que as pessoas proliferem desinformação em uma taxa futurista, aqueles que procuram essa desinformação – muitas vezes aqueles que têm “pouca confiança nas instituições… [ou são] fortes partidários” – já têm um excesso de absurdos familiares para perseguir, desde sites de teorias conspiratórias até fóruns do 4chan. Não há demanda por mais.

“Dada a criatividade que os seres humanos têm demonstrado ao longo da história para inventar histórias (falsas) e a liberdade que os humanos já têm para criar e espalhar desinformação em todo o mundo, é improvável que uma grande parte da população esteja procurando desinformação que não possam encontrar online ou offline”, conclui o artigo. Além disso, a desinformação só ganha poder quando as pessoas a veem e considerando que o tempo das pessoas para conteúdo viral é limitado, o impacto é insignificante.

Quanto às imagens que podem encontrar seu caminho nos feeds principais, os autores observam que, embora a IA gerativa possa teoricamente criar conteúdo altamente personalizado e realista, o Photoshop ou softwares de edição de vídeo também podem. Mudar a data em um vídeo granulado de celular pode ser tão eficaz. Jornalistas e verificadores de fatos têm menos problemas com deepfakes do que com imagens fora de contexto ou aquelas manipuladas grosseiramente para se tornarem algo que não são, como imagens de jogos de vídeo apresentadas como um ataque do Hamas.

Nesse sentido, focar excessivamente em uma nova tecnologia chamativa é muitas vezes uma distração. “Ser realista nem sempre é o que as pessoas procuram ou o que é necessário para se tornar viral na internet”, acrescenta Sacha Altay, coautor do artigo e pesquisador pós-doutor em um laboratório de democracia digital da Universidade de Zurique.

Isto também é verdade no lado da oferta, explica Mashkoor; a invenção não leva necessariamente à implementação. “Há muitas maneiras de manipular a conversa ou manipular o espaço de informações online”, diz ela. “E há coisas que às vezes são mais fáceis de manipular e que não requerem acesso a uma tecnologia específica, mesmo que o software de IA geradora seja fácil de acessar no momento, existem definitivamente maneiras mais fáceis de manipular algo, se você estiver procurando por isso”.

Felix Simon, outro autor do artigo da Kennedy School e estudante de doutorado no Oxford Internet Institute, ressalta que o comentário de sua equipe não busca encerrar o debate sobre possíveis danos, mas sim tenta contestar as afirmações de que a IA geradora irá desencadear um “apocalipse da verdade”. Esse tipo de pânico muitas vezes acompanha novas tecnologias.

Deixando de lado a visão apocalíptica, é mais fácil estudar como a IA geradora realmente se encaixou no ecossistema existente de desinformação. É, por exemplo, muito mais prevalente do que era no início da invasão russa da Ucrânia, argumenta Hany Farid, professor da Escola de Informação da UC Berkeley.

Farid caracteriza a tecnologia como um “fantasma” pairando sobre áudio e vídeo que se pretende ser proveniente do conflito, e ele recebe meia dúzia a uma dúzia de chamadas diárias de repórteres perguntando sobre a veracidade. “Para muitas pessoas, a capacidade de rejeitar fatos inconvenientes desempenha um papel fundamental nesse conflito”, diz ele.

Farid cita vários exemplos que imediatamente receberam esse tipo de rejeição, incluindo pessoas apontando várias peças de evidências digitais sobre quem estava por trás do ataque com míssil no Hospital Árabe Al-Ahli em Gaza, bem como imagens de crianças enterradas sob os escombros, algumas reais, algumas falsas.

Alguns dos exemplos mais proeminentes disso são as fotos de crianças queimadas postadas pelo primeiro-ministro de Israel Benjamin Netanyahu em sua conta X. Após a publicação, alguém alimentou as imagens em uma ferramenta de detecção chamada IA ou Não, que os usuários disseram ter determinado que eram IA. Farid diz que sua equipe analisou as fotos e concluiu que a IA não foi usada, mas a semente da suspeita já havia sido plantada. As coisas ficaram ainda mais confusas quando alguém usou IA para substituir a criança em uma das imagens por um filhote.

“E então, isso foi divulgado online, e as pessoas começaram a dizer: ‘Bem, espere um minuto, se ele pudesse ter feito aquele, então aquele poderia ser falso, e agora essas duas versões estão circulando, e todo mundo começou a dizer: ‘Ah, o filhote era o original, este é falso’, e você apenas aquela água turva”, diz Farid.

Em outras palavras, essa distribuição segue um padrão histórico: a desinformação é compartilhada nas redes sociais e depois amplificada por meio de algoritmos e seres humanos. “No quadro mais amplo, em nossa capacidade de raciocinar sobre um mundo em constante movimento e de alto impacto, acredito que esse conflito é pior do que o que vimos no passado”, diz Farid. “E acredito que a IA geradora faça parte disso, mas não exclusivamente da IA geradora. Isso é muito simplista”.