Leva apenas $400 para construir uma máquina de desinformação de IA

Construir máquina de desinformação de IA custa apenas $400

Em maio, a Sputnik International, um veículo de mídia russo estatal, publicou uma série de tweets criticando a política externa dos EUA e atacando o governo Biden. Cada um deles foi prontamente rebatido de forma sucinta, mas bem elaborada, por uma conta chamada CounterCloud, às vezes incluindo um link para uma notícia relevante ou artigo de opinião. Isso gerou respostas semelhantes aos tweets da embaixada russa e de veículos de notícias chineses que criticavam os EUA.

A crítica russa aos EUA está longe de ser incomum, mas o material do CounterCloud que contra-atacou era: os tweets, os artigos e até mesmo os jornalistas e sites de notícias foram criados inteiramente por algoritmos de inteligência artificial, de acordo com a pessoa por trás do projeto, que se identifica como Nea Paw e diz que é projetado para destacar o perigo da desinformação em massa produzida por IA. Paw não publicou os tweets e artigos do CounterCloud publicamente, mas os forneceu para ENBLE e também produziu um vídeo explicando o projeto.

Paw afirma ser um profissional de cibersegurança que prefere o anonimato porque algumas pessoas podem considerar o projeto irresponsável. A campanha do CounterCloud contra a mensagem russa foi criada usando a tecnologia de geração de texto da OpenAI, assim como o ChatGPT, e outras ferramentas de IA facilmente acessíveis para gerar fotografias e ilustrações, diz Paw, a um custo total de cerca de US$ 400.

Paw diz que o projeto mostra que ferramentas de IA generativas amplamente disponíveis tornam muito mais fácil criar campanhas sofisticadas de informações promovendo propaganda apoiada pelo Estado.

“Eu não acho que existe uma solução simples para isso, da mesma forma que não há uma solução simples para ataques de phishing, spam ou engenharia social”, diz Paw em um e-mail. Mitigações são possíveis, como educar os usuários para estarem atentos ao conteúdo manipulador gerado por IA, fazer com que os sistemas de IA generativos tentem bloquear o mau uso ou fornecer ferramentas de detecção de IA aos navegadores. “Mas acho que nada disso é realmente elegante, barato ou especialmente eficaz”, diz Paw.

Nos últimos anos, pesquisadores de desinformação têm alertado que modelos de linguagem com IA podem ser usados para criar campanhas de propaganda altamente personalizadas e alimentar contas de mídia social que interagem com os usuários de maneiras sofisticadas.

Renee DiResta, gerente de pesquisa técnica do Stanford Internet Observatory, que acompanha campanhas de informação, diz que os artigos e perfis de jornalistas gerados como parte do projeto CounterCloud são bastante convincentes.

“Além de atores governamentais, agências de gerenciamento de mídia social e mercenários que oferecem serviços de operações de influência, sem dúvida, adotarão essas ferramentas e as incorporarão em seus fluxos de trabalho”, diz DiResta. Distribuir e compartilhar conteúdo falso amplamente é desafiador, mas isso pode ser feito pagando a usuários influentes para compartilhá-lo, acrescenta ela.

Algumas evidências de campanhas de desinformação online alimentadas por IA já surgiram. Pesquisadores acadêmicos recentemente descobriram uma botnet grosseira que promove criptomoedas, aparentemente alimentada pelo ChatGPT. A equipe disse que a descoberta sugere que a IA por trás do chatbot provavelmente já está sendo usada em campanhas de informações mais sofisticadas.

Campanhas políticas legítimas também começaram a usar IA antes das eleições presidenciais dos EUA em 2024. Em abril, o Comitê Nacional Republicano produziu um vídeo atacando Joe Biden que incluía imagens falsas geradas por IA. E em junho, uma conta de mídia social associada a Ron Desantis incluiu imagens geradas por IA em um vídeo destinado a desacreditar Donald Trump. A Comissão Eleitoral Federal disse que pode limitar o uso de deepfakes em propagandas políticas.

Micah Musser, um pesquisador que estudou o potencial de desinformação de modelos de linguagem com IA, espera que campanhas políticas mainstream tentem usar os modelos de linguagem para gerar conteúdo promocional, e-mails de arrecadação de fundos ou anúncios de ataque. “É um período totalmente instável agora, onde não está claro quais são as normas”, diz ele.

Musser diz que grande parte do texto gerado por IA ainda é genérico e fácil de identificar. No entanto, ter humanos refinando o conteúdo gerado por IA que promove desinformação pode ser altamente eficaz e quase impossível de parar usando filtros automatizados, diz ele.

O CEO da OpenAI, Sam Altman, disse em um tweet no mês passado que está preocupado que a inteligência artificial de sua empresa possa ser usada para criar desinformação automatizada e personalizada em grande escala.

Quando a OpenAI disponibilizou sua tecnologia de geração de texto via API pela primeira vez, ela proibiu qualquer uso político. No entanto, neste mês de março, a empresa atualizou sua política para proibir o uso com o objetivo de produzir em massa mensagens para determinados grupos demográficos. Um artigo recente do Washington Post sugere que o GPT em si não bloqueia a geração desse tipo de material.

Kim Malfacini, chefe de política de produto da OpenAI, diz que a empresa está explorando como sua tecnologia de geração de texto está sendo usada para fins políticos. As pessoas ainda não estão acostumadas a assumir que o conteúdo que veem pode ser gerado por IA, diz ela. “É provável que o uso de ferramentas de IA em várias indústrias continue a crescer, e a sociedade se atualizará em relação a isso”, diz Malfacini. “Mas no momento, acho que as pessoas ainda estão no processo de atualização.”

Já que uma série de ferramentas de IA semelhantes estão amplamente disponíveis agora, incluindo modelos de código aberto que podem ser desenvolvidos com poucas restrições, os eleitores devem se familiarizar com o uso de IA na política mais cedo do que tarde.