O Pesadelo Gerado por IA de Abuso Infantil Está Aqui

O Pesadelo da IA que Gera o Abuso Infantil Está entre Nós

Os especialistas alertam que uma nova era horrível de imagens ultrarrealistas de abuso sexual infantil, geradas por IA, está em curso. Os agressores estão usando modelos de IA gerativos de código aberto que podem produzir imagens com efeitos devastadores. A tecnologia está sendo usada para criar centenas de novas imagens de crianças que foram abusadas anteriormente. Os agressores estão compartilhando conjuntos de dados de imagens de abuso que podem ser usados para personalizar modelos de IA e estão começando a vender assinaturas mensais de materiais de abuso sexual infantil gerados por IA.

Os detalhes de como a tecnologia está sendo abusada estão incluídos em um novo relatório abrangente lançado pela Internet Watch Foundation (IWF), uma organização sem fins lucrativos do Reino Unido que busca e remove conteúdo de abuso da web. Em junho, a IWF informou ter encontrado sete URLs na web aberta que continham material suspeito produzido por IA. Agora, sua investigação sobre um fórum ilegal na dark web de material de abuso sexual infantil fornece uma visão de como a IA está sendo usada e encontrou quase 3.000 imagens geradas por IA que a IWF considera ilegais de acordo com a lei do Reino Unido.

As imagens geradas por IA incluem estupro de bebês e crianças pequenas, crianças pré-adolescentes famosas sendo abusadas, bem como conteúdo BDSM com adolescentes, de acordo com a pesquisa da IWF. “Vimos demandas, discussões e exemplos reais de material de abuso sexual infantil com celebridades”, diz Dan Sexton, diretor de tecnologia da IWF. Às vezes, Sexton diz, as celebridades são rejuvenescidas para parecerem crianças. Em outras situações, celebridades adultas são retratadas como aquelas que abusam de crianças.

Embora relatos de material de abuso sexual infantil gerado por IA ainda sejam insignificantes em comparação com o número de imagens e vídeos reais de abuso encontrados online, Sexton diz que está alarmado com a velocidade de desenvolvimento e o potencial que isso cria para novos tipos de imagens abusivas. Essas descobertas são consistentes com outros grupos que investigam a disseminação de material de abuso sexual infantil online. Em um banco de dados compartilhado, pesquisadores ao redor do mundo identificaram 13.500 imagens geradas por IA de abuso sexual infantil e exploração, de acordo com Lloyd Richardson, diretor de tecnologia da Canadian Centre for Child Protection. “Isso é apenas a ponta do iceberg”, diz Richardson.

As atuais gerações de geradores de imagens de IA, capazes de produzir arte convincente, fotografias realistas e designs extravagantes, proporcionam um novo tipo de criatividade e prometem mudar a arte para sempre. Eles também têm sido usados para criar falsificações convincentes, como Balenciaga Pope e uma versão inicial da prisão de Donald Trump. Os sistemas são treinados com uma enorme quantidade de imagens existentes, geralmente obtidas na web sem permissão, e permitem a criação de imagens a partir de simples comandos de texto. Se você pedir por um “elefante usando um chapéu”, ele será criado.

Não é surpresa que os agressores que criam material de abuso sexual infantil tenham adotado ferramentas de geração de imagens. “A maneira como essas imagens estão sendo geradas é utilizando software de código aberto disponível”, diz Sexton. Os agressores frequentemente mencionam o Stable Diffusion, um modelo de IA disponibilizado pela empresa britânica Stability AI. A empresa não respondeu ao pedido de comentário feito pelo ENBLE. Na segunda versão de seu software, lançada no final do ano passado, a empresa alterou seu modelo para tornar mais difícil a criação de material de abuso sexual infantil e outras imagens nuas.

Sexton afirma que os criminosos estão usando versões antigas de modelos de IA e ajustando-os para criar conteúdo ilegal de crianças. Isso envolve alimentar o modelo com imagens de abuso existentes ou fotos de rostos de pessoas, permitindo à IA criar imagens de indivíduos específicos. “Estamos vendo modelos ajustados que criam novas imagens de vítimas existentes”, diz Sexton. Os perpetradores estão “trocando centenas de novas imagens de vítimas existentes” e solicitando informações sobre pessoas específicas, diz ele. Alguns tópicos nos fóruns na dark web compartilham conjuntos de rostos de vítimas, diz a pesquisa, e um deles era chamado “Recursos Fotográficos para IA e Deepfaking de Garotas Específicas”.

Entender a escala do problema é um desafio. Ao longo de setembro, analistas da IWF focaram em um fórum ilegal na dark web de material de abuso sexual infantil, que não é especificado, e que geralmente se concentra em “imagens softcore” e imagens de meninas. Dentro de uma nova seção de IA do fórum, foram postadas um total de 20.254 fotos geradas por IA no mês passado, de acordo com os pesquisadores. Uma equipe de 12 analistas da organização dedicou 87,5 horas para avaliar 11.108 dessas imagens.

No total, a IWF considerou 2.978 imagens como criminosas. A maioria dessas – 2.562 – eram realísticas o suficiente para serem tratadas da mesma forma que o conteúdo abusivo sexual infantil não gerado por IA. Metade das imagens foram classificadas como Categoria C, o que significa que elas são indecentes, com 564 mostrando os tipos mais graves de abuso. A IWF afirma que as imagens provavelmente retratavam crianças com idades entre 7 e 13 anos, sendo 99,6% delas do sexo feminino. (Das milhares de imagens geradas por IA não criminosas analisadas pelos pesquisadores, a maioria apresentava crianças, mas não incluía atividade sexual, segundo a IWF).

“A escala na qual essas imagens podem ser criadas é preocupante”, diz Nishant Vishwamitra, professor assistente na Universidade do Texas em San Antonio, que trabalha na detecção de deepfakes e imagens abusivas geradas por IA online. O relatório da IWF observa que a organização está começando a ver alguns criadores de conteúdo abusivo anunciando serviços de criação de imagens, incluindo a produção de imagens “feitas sob medida” e oferecendo assinaturas mensais.

Isso pode aumentar à medida que as imagens continuam a se tornar mais realistas. “Algumas estão ficando tão boas que é difícil para um analista discernir se são realmente geradas por IA”, diz Lloyd Richardson, do Canadian Centre for Child Protection. O realismo também apresenta problemas potenciais para investigadores que passam horas vasculhando imagens de abuso para classificá-las e ajudar a identificar vítimas. Analistas da IWF, de acordo com o novo relatório da organização, afirmam que a qualidade melhorou rapidamente – embora ainda existam alguns sinais simples de que as imagens podem não ser reais, como dedos extras ou iluminação incorreta. “Também estou preocupado que imagens futuras possam ter uma qualidade tão boa que nem vamos perceber”, diz um analista não identificado citado no relatório.

“Duvido que alguém suspeitaria que essas não são fotografias reais de uma garota de verdade”, diz um comentário publicado em um fórum por um criminoso e incluído no relatório da IWF. Outro diz: “Já faz alguns meses desde que verifiquei a IA de garotos. Meu Deus, ela está muito boa!”

Em muitos países, a criação e o compartilhamento de conteúdo abusivo sexual infantil gerado por IA podem ser enquadrados nas leis existentes de proteção à criança. “A posse desse material, assim como sua disseminação, visualização e criação, também é ilegal”, diz Arda Gerkens, presidente da Authority for Online Terrorist and Child Pornographic Material, reguladora holandesa. Procuradores nos EUA solicitaram ao Congresso que fortaleça as leis relacionadas ao conteúdo abusivo sexual infantil gerado por IA. Mais amplamente, pesquisadores pedem uma abordagem multipronged para lidar com o conteúdo abusivo sexual infantil compartilhado online.

Também existem diversas técnicas e medidas que empresas de tecnologia e pesquisadores estão explorando para impedir que o conteúdo abusivo sexual infantil gerado por IA seja criado e também para impedir que ele vaze de fóruns na dark web para a internet aberta. Gerkens diz que é possível para as empresas de tecnologia que criam modelos de IA construir salvaguardas e que “todos os desenvolvedores de tecnologia precisam estar cientes da possibilidade de seus instrumentos serem usados de maneira abusiva”.

Isso inclui a marcação de imagem, a criação de melhores ferramentas de detecção e a detecção de prompts que possam levar à criação de conteúdo abusivo sexual infantil gerado por IA. David Thiel, tecnólogo-chefe do Stanford Internet Observatory, diz que as grandes empresas de tecnologia estão buscando usar modelos de aprendizado de máquina para ajudar a detectar novas imagens de conteúdo abusivo sexual infantil gerado por IA que possam ser compartilhadas em suas plataformas, além de usar ferramentas existentes.

Thiel, juntamente com Melissa Stroebel e Rebecca Portnoff, do grupo de proteção infantil Thorn, recentemente publicou uma pesquisa sobre como reduzir o conteúdo abusivo sexual infantil gerado por IA. A pesquisa afirma que os desenvolvedores devem remover conteúdo prejudicial de seus dados de treinamento, testar seus modelos para descobrir maneiras pelas quais eles podem ser abusados, incluir vieses nos modelos que possam impedir a produção de nudez infantil ou conteúdo sexual envolvendo crianças e ser transparente sobre os dados de treinamento. Os criadores de modelos de código aberto devem avaliar as plataformas de onde seus modelos podem ser baixados e remover o acesso a modelos históricos, diz o relatório.

Mas muitos dizem que as medidas de segurança estão chegando tarde demais. A tecnologia já está sendo usada para criar conteúdo prejudicial. “Qualquer coisa que você coloque depois do fato vai ser apenas um curativo”, diz Lloyd Richardson. “Ainda estamos lidando com a limpeza das pessoas que tentam ser as primeiras no mercado com modelos específicos”, acrescenta Thiel.

Enquanto isso, a tecnologia continua a melhorar e é provável que vídeos gerados por IA venham no futuro. “Nós nunca realmente reconhecemos – e se alguém pudesse simplesmente instalar algo em seu computador em casa e criar quantas [fotos] coubessem em seu disco rígido? Imagens completamente novas de vítimas existentes, novas vítimas”, diz Sexton, do IWF. “Já existe tanto conteúdo de crianças na internet. Isso não vai facilitar.”