Um vídeo manipulado de Biden é um caso de teste para as políticas de deepfake do Facebook

Um vídeo forjado de Biden é um teste para as políticas de deepfake do Facebook

Em maio, um vídeo manipulado do presidente Joe Biden apareceu no Facebook. As imagens originais mostravam Biden durante as eleições intermediárias de 2022, colocando um adesivo “Eu votei” no peito de sua neta e a beijando na bochecha. A versão editada repetia as imagens para parecer que ele estava tocando a garota repetidamente, com uma legenda que o rotulava de “pedófilo”.

A Meta manteve o vídeo no ar. Hoje, o Conselho de Supervisão da empresa, um órgão independente responsável pela moderação de conteúdo da plataforma, anunciou que revisará essa decisão, na tentativa de pressionar a Meta a lidar com a maneira como ela lidará com mídia manipulada e desinformação eleitoral antes das eleições presidenciais dos EUA em 2024 e mais de 50 outras eleições que ocorrerão em todo o mundo no próximo ano.

“As eleições são a base da democracia e é vital que as plataformas estejam equipadas para proteger a integridade desse processo”, diz o porta-voz do Conselho de Supervisão, Dan Chaison. “Explorar como a Meta pode lidar melhor com conteúdo alterado, incluindo vídeos destinados a enganar o público antes das eleições, é ainda mais importante dada a evolução da inteligência artificial”.

A Meta afirmou em um post de blog que determinou que o vídeo não violava as políticas de discurso de ódio, assédio ou de mídia manipulada do Facebook. De acordo com sua política de mídia manipulada, a Meta remove um vídeo se ele “tiver sido editado ou sintetizado … de maneiras que não são aparentes para uma pessoa comum e que provavelmente enganariam uma pessoa comum a acreditar que o assunto do vídeo falou palavras que ele não disse”. A Meta destacou que o vídeo de Biden não usava IA ou aprendizado de máquina para manipular as imagens.

Especialistas estão alertando há meses que as eleições de 2024 serão mais complicadas e perigosas graças à IA generativa, que permite áudios, vídeos e imagens falsificados mais realistas. Embora a Meta tenha se juntado a outras empresas de tecnologia ao se comprometer em tentar mitigar os danos da IA generativa, a maioria das estratégias comuns, como a marca d’água nos conteúdos, provaram ser apenas parcialmente eficazes. Na semana passada, na Eslováquia, uma falsa gravação de áudio circulou no Facebook, na qual um dos principais políticos do país parecia discutir a manipulação das eleições. Os criadores conseguiram explorar uma brecha nas políticas de mídia manipulada da Meta, que não abrangem áudios falsos.

Embora o vídeo de Biden em si não seja gerado por IA ou manipulado, o Conselho de Supervisão solicitou comentários públicos sobre esse caso com foco na IA e está usando o caso para examinar mais profundamente as políticas da Meta em relação a vídeos manipulados.

“Ainda acho que, se olharmos de forma ampla para o que está sendo compartilhado, são mídias descontextualizadas e mal editadas, e as políticas precisam refletir como elas vão lidar com isso”, diz Sam Gregory, diretor de programa da Organização sem fins lucrativos Witness, que ajuda as pessoas a usar a tecnologia em prol dos direitos humanos.

O Conselho de Supervisão pode emitir decisões vinculativas, bem como recomendações, das quais a Meta pode optar por seguir ou não. Ele tem buscado casos que espera ajudar a moldar a abordagem da empresa para o ano eleitoral de 2024, revisando a decisão da Meta de não remover um apelo à violência no período que antecede as eleições do Camboja pelo então primeiro-ministro Hun Sen e um discurso de um general brasileiro no contexto da rebelião pós-eleitoral no país.

No entanto, Gregory também se preocupa que, mesmo que o conselho emita decisões vinculativas sobre como a Meta deve abordar a mídia manipulada, tenha pouco poder para ditar quanto dinheiro ou recursos a empresa realmente escolhe investir no problema, especialmente em eleições fora dos EUA. Assim como muitas outras grandes empresas de tecnologia, a Meta demitiu membros da equipe de confiança e segurança responsáveis por questões como desinformação e discurso de ódio. A Meta também tem historicamente enfrentado dificuldades em moderar o conteúdo que não está em inglês e em contextos fora dos EUA.

Ao contrário do Google, que introduziu recursos para ajudar os usuários a descobrir se uma imagem é gerada por IA ou manipulada, o Meta não criou ferramentas voltadas para o consumidor para permitir que os usuários ou verificadores de fatos compreendam melhor o contexto do conteúdo que possam estar vendo.

Embora o Conselho de Supervisão possa esperar usar o vídeo de Biden como base para definir como o Meta deve lidar com conteúdo gerado por IA ou manipulado por IA, Gregory diz que ele antecipa que muitas perguntas sobre mídia manipulada provavelmente permanecerão sem resposta.

“Acredito que é realmente útil ter o Conselho de Supervisão fornecendo uma avaliação objetiva de como essas políticas estão funcionando e como estão funcionando globalmente”, diz Gregory. “Não sei se isso viria deste único caso.”