A grande IA não impedirá deepfakes eleitorais com marcas d’água

AI não evitará deepfakes eleitorais com marcas d'água

Em maio, uma imagem falsa de uma explosão perto do Pentágono se tornou viral no Twitter. Logo em seguida, surgiram imagens que pareciam mostrar explosões perto da Casa Branca também. Especialistas em desinformação e desinformação rapidamente apontaram que as imagens pareciam ter sido geradas por inteligência artificial, mas não antes de a bolsa de valores começar a cair.

Foi apenas o exemplo mais recente de como o conteúdo falso pode ter efeitos preocupantes no mundo real. O boom na inteligência artificial generativa significa que ferramentas para criar imagens e vídeos falsos e produzir grandes quantidades de texto convincente estão agora disponíveis gratuitamente. Especialistas em desinformação dizem que estamos entrando em uma nova era em que será cada vez mais difícil distinguir o que é real do que não é.

Na semana passada, as principais empresas de IA, incluindo OpenAI, Google, Microsoft e Amazon, prometeram ao governo dos EUA que tentariam mitigar os danos que suas tecnologias poderiam causar. Mas é improvável que detenham a onda iminente de conteúdo gerado por IA e a confusão que isso pode trazer.

A Casa Branca diz que o “compromisso voluntário” das empresas inclui “desenvolver mecanismos técnicos robustos para garantir que os usuários saibam quando o conteúdo é gerado por IA, como um sistema de marca d’água”, como parte do esforço para evitar que a IA seja usada para “fraude e decepção”.

Mas especialistas ouvidos pela WIRED dizem que os compromissos são medidas insuficientes. “Não haverá um ‘sim’ ou ‘não’ realmente simples sobre se algo é gerado por IA ou não, mesmo com marcas d’água”, diz Sam Gregory, diretor de programa da organização sem fins lucrativos Witness, que ajuda as pessoas a usar a tecnologia para promover os direitos humanos.

A marca d’água é comumente usada por agências de imagens e agências de notícias para evitar que as imagens sejam usadas sem permissão e pagamento.

Mas quando se trata da variedade de conteúdo que a IA pode gerar e dos muitos modelos que já existem, as coisas se tornam mais complicadas. Até agora, não há um padrão para marca d’água, o que significa que cada empresa está usando um método diferente. O Dall-E, por exemplo, usa uma marca d’água visível (e uma rápida pesquisa no Google encontrará muitos tutoriais sobre como removê-la), enquanto outros serviços podem usar metadados ou marcas d’água de pixel que não são visíveis para os usuários. Embora alguns desses métodos possam ser difíceis de desfazer, outros, como marcas d’água visuais, às vezes podem se tornar ineficazes quando uma imagem é redimensionada.

“Haverá maneiras de corromper as marcas d’água”, diz Gregory.

A declaração da Casa Branca menciona especificamente o uso de marcas d’água para conteúdo de áudio e visual gerado por IA, mas não para texto.

Existem maneiras de marcar textos gerados por ferramentas como o ChatGPT da OpenAI, manipulando a maneira como as palavras são distribuídas, fazendo com que uma determinada palavra ou conjunto de palavras apareça com mais frequência. Essas seriam detectáveis por uma máquina, mas não necessariamente por um usuário humano.

Isso significa que as marcas d’água precisariam ser interpretadas por uma máquina e depois sinalizadas para um espectador ou leitor. Isso é complicado pelo conteúdo de mídia mista, como elementos de áudio, imagem, vídeo e texto que podem aparecer em um único vídeo do TikTok. Por exemplo, alguém pode colocar áudio real sobre uma imagem ou vídeo que foi manipulado. Nesse caso, as plataformas precisariam descobrir como rotular que um componente – mas nem todos – do clipe foi gerado por IA.

E simplesmente rotular o conteúdo como gerado por IA não ajuda muito os usuários a descobrir se algo é malicioso, enganoso ou destinado ao entretenimento.

“Obviamente, a mídia manipulada não é fundamentalmente ruim se você estiver fazendo vídeos do TikTok e eles forem divertidos e entretenimento”, diz Hany Farid, professor da Escola de Informação da UC Berkeley, que trabalhou com a empresa de software Adobe em sua iniciativa de autenticidade de conteúdo. “O contexto será realmente importante aqui. Isso continuará sendo extremamente difícil, mas as plataformas têm lutado com essas questões nos últimos 20 anos.”

E o crescente lugar da inteligência artificial na consciência pública permitiu outra forma de manipulação midiática. Assim como os usuários podem supor que o conteúdo gerado por IA é real, a própria existência do conteúdo sintético pode semear dúvidas sobre a autenticidade de qualquer vídeo, imagem ou texto, permitindo que atores mal-intencionados afirmem que até mesmo o conteúdo genuíno é falso – o que é conhecido como “dividendo do mentiroso”. Gregory diz que a maioria dos casos recentes que a Witness viu não são deepfakes sendo usados para espalhar falsidades; são pessoas tentando passar conteúdo real como se fosse gerado por IA.

Em abril, um legislador no estado indiano do Tamil Nadu alegou que uma gravação de áudio vazada na qual ele acusou seu partido de roubar mais de US$ 3 bilhões era “gerada por máquina”. (Não era.) Em 2021, nas semanas seguintes ao golpe militar em Mianmar, um vídeo de uma mulher fazendo exercícios de dança enquanto um comboio militar passa atrás dela se tornou viral. Muitos na internet afirmaram que o vídeo era falso. (Não era.)

Neste momento, há pouco para impedir que um ator malicioso coloque marcas d’água em conteúdo real para fazê-lo parecer falso. Farid diz que uma das melhores maneiras de proteger contra a falsificação ou corrupção de marcas d’água é através de assinaturas criptográficas. “Se você é a OpenAI, você deve ter uma chave criptográfica. E a marca d’água terá informações que só poderiam ser conhecidas pela pessoa que possui a chave”, diz ele. Outras marcas d’água podem estar no nível do pixel ou até mesmo nos dados de treinamento que a IA aprende. Farid aponta para a Coalizão para Conteúdo, Procedência e Educação, a qual ele aconselha, como um padrão que as empresas de IA poderiam adotar e seguir.

“Estamos rapidamente entrando nessa época em que está se tornando cada vez mais difícil acreditar em qualquer coisa que lemos, vemos ou ouvimos online”, diz Farid. “E isso significa que não só seremos enganados por coisas falsas, mas também não vamos acreditar em coisas reais. Se a gravação do Access Hollywood do Trump fosse lançada hoje, ele teria uma negação plausível”, diz Farid.