Bots assistidos pelo ChatGPT estão se espalhando nas redes sociais

Bots do ChatGPT estão se espalhando nas redes sociais.

Para muitos usuários, rolar pelos feeds de mídia social e notificações é como atravessar um lamaçal de conteúdo de spam. Um novo estudo identificou 1.140 bots assistidos por IA que estavam espalhando desinformação sobre criptomoedas e blockchain no X (anteriormente conhecido como Twitter).

Porém, as contas de bots que postam esse tipo de conteúdo podem ser difíceis de identificar, como descobriram os pesquisadores da Universidade de Indiana. As contas de bots usavam o ChatGPT para gerar seu conteúdo e eram difíceis de diferenciar das contas reais, tornando a prática mais perigosa para as vítimas.

Também: Você pode experimentar o tradutor de fala e texto multilíngue com IA da Meta. Veja como

As contas de bots com IA tinham perfis que se assemelhavam aos de humanos reais, com fotos de perfil e biografias ou descrições sobre criptomoedas e blockchain. Eles faziam postagens regulares geradas com IA, postavam imagens roubadas como se fossem suas e respondiam e retweetavam.

Os pesquisadores descobriram que as 1.140 contas de bots do Twitter pertenciam à mesma botnet social maliciosa, que eles chamaram de “fox8”. Uma botnet é uma rede de dispositivos conectados – ou, neste caso, contas – controlada centralmente por cibercriminosos.

Também: 4 coisas que o Claude AI pode fazer que o ChatGPT não pode

Os bots de IA generativos estão cada vez melhores em imitar comportamentos humanos. Isso significa que ferramentas tradicionais e avançadas de detecção de bots, como o Botometer, agora são insuficientes. Essas ferramentas tiveram dificuldade em identificar e diferenciar o conteúdo gerado por bots do conteúdo gerado por humanos no estudo, mas uma se destacou: o classificador de IA da OpenAI, que conseguiu identificar alguns tweets de bots.

Como você pode identificar contas de bots?

As contas de bots no Twitter exibiam padrões comportamentais semelhantes, como seguir umas às outras, usar os mesmos links e hashtags, postar conteúdo semelhante e até mesmo interagir umas com as outras.

Também: Novo aplicativo de mídia social ‘BeFake’ incentiva usuários a transformar suas fotos com IA

Os pesquisadores analisaram os tweets das contas de bots de IA e encontraram 1.205 tweets auto-reveladores.

Deste total, 81% continham a mesma frase de desculpas:

“Desculpe, mas não posso atender a esta solicitação, pois viola a Política de Conteúdo da OpenAI sobre geração de conteúdo prejudicial ou inadequado. Como um modelo de linguagem de IA, minhas respostas devem sempre ser respeitosas e adequadas para todas as audiências.”

O uso dessa frase sugere que os bots são instruídos a gerar conteúdo prejudicial que vai contra as políticas da OpenAI para o ChatGPT.

Os 19% restantes usaram alguma variação da linguagem “Como um modelo de linguagem de IA”, sendo que 12% especificamente diziam: “Como um modelo de linguagem de IA, não consigo navegar no Twitter nem acessar tweets específicos para fornecer respostas.”

Também: ChatGPT vs. Bing Chat vs. Google Bard: Qual é o melhor chatbot de IA?

O fato de 3% dos tweets postados por esses bots terem links para um dos três sites (cryptnomics.org, fox8.news e globaleconomics.news) foi mais uma pista.

Esses sites parecem ser fontes de notícias normais, mas apresentam sinais vermelhos significativos, como o fato de terem sido registrados todos por volta da mesma época em fevereiro de 2023, terem pop-ups que incentivam os usuários a instalar software suspeito, todos parecem usar o mesmo tema do WordPress e têm domínios que resolvem para o mesmo endereço IP.

Contas de bots maliciosos podem usar técnicas de autopropagação nas redes sociais, postando links com malware ou conteúdo infectável, explorando e infectando os contatos de um usuário, roubando cookies de sessão dos navegadores dos usuários e automatizando solicitações de seguimento.