Apps de geração de deepfake de nudez desencadeados por IA se tornam cada vez mais populares

Aplicativos de criação de deepfakes de nudez acionados por inteligência artificial estão se tornando cada vez mais populares

Apps e websites que utilizam inteligência artificial para remover digitalmente a roupa de fotos de mulheres sem consentimento estão ganhando popularidade, de acordo com um relatório da Time report.

Pesquisadores da empresa de análise de redes sociais Graphika descobriram que apenas em setembro, 24 milhões de pessoas visitaram os chamados serviços de “nudify” ou “undressing” que aplicam algoritmos de IA a fotos reais de mulheres vestidas para gerar imagens falsas de nudez.

O crescimento impressionante corresponde à liberação de vários novos modelos de difusão de IA capazes de criar imagens falsas de nudez surpreendentemente realistas. Enquanto imagens alteradas por IA anteriores costumavam ser borradas ou irreais, esses novos modelos permitem que amadores gerem fotos de nudez convincentemente reais sem um treinamento sofisticado.

A divulgação desses serviços muitas vezes ocorre abertamente em plataformas como Reddit e Telegram, com alguns anúncios sugerindo até que os usuários enviem as imagens falsas de volta para a vítima. Um aplicativo chamado Nudify paga pelo conteúdo patrocinado do YouTube e aparece em primeiro lugar nas pesquisas do Google, apesar de violar as políticas da maioria dos sites. Ainda assim, esses serviços operam em grande parte sem restrições.

Deepfakes são perigosos, especialmente para pornografia não consensual

Especialistas alertam que a proliferação de deepfakes caseiros de nudez representa uma nova fase perigosa na pornografia não consensual. “Estamos vendo cada vez mais disso sendo feito por pessoas comuns, com alvos comuns”, disse Eva Galperin, da Electronic Frontier Foundation, observando um aumento nos casos entre alunos do ensino médio.

No entanto, muitas vítimas nem mesmo descobrem que essas imagens existem – aquelas que descobrem geralmente têm dificuldade em convencer as autoridades a investigarem ou não têm recursos financeiros para tomar medidas legais.

Atualmente, a lei federal não proíbe explicitamente a pornografia deepfake, apenas a geração de materiais falsificados de abuso sexual infantil. Em novembro, um psiquiatra da Carolina do Norte recebeu uma sentença de 40 anos de prisão – a primeira condenação desse tipo – por usar aplicativos de despir com IA em fotos de pacientes menores de idade.

Em resposta a essa tendência, o TikTok bloqueou termos de pesquisa relacionados a aplicativos de nudify e a Meta começou a bloquear palavras-chave relacionadas em suas plataformas também. Ainda assim, os analistas afirmam que é necessário muito mais conscientização e ação em relação à pornografia de IA não consensual.

Esses aplicativos tratam o corpo das mulheres como matéria-prima sem consentimento, passando por cima dos direitos de privacidade em busca de lucro. “Você pode criar algo que realmente parece real”, disse Santiago Lakatos. De fato, para as vítimas, esse é exatamente o perigo.

Crédito da imagem em destaque: Foto de Markus Winkler; Pexels