Pesquisadores encontram maneira de envenenar imagens para treinamento de IA

Pesquisadores descobrem forma de adulterar imagens para treinamento de Inteligência Artificial

O surgimento de ferramentas de arte generativa de IA, como o DALL-E, Midjourney e Stable Diffusion, tem gerado intenso debate e controvérsia. Esses sistemas conseguem criar imagens e arte fotorrealistas apenas a partir de sugestões de texto, treinando-se em grandes conjuntos de dados coletados da internet. No entanto, isso levanta grandes preocupações sobre infração de direitos autorais, consentimento e mau uso do trabalho dos artistas.

Em resposta, os pesquisadores desenvolveram uma nova tecnologia radical chamada Nightshade, que permite aos criativos “envenenar” sua arte digital. O objetivo é sabotar os sistemas de IA que tentam usar seu conteúdo sem permissão.

Ferramentas como DALL-E 2 e Stable Diffusion usam uma forma de IA chamada redes neurais. Elas são treinadas em grandes conjuntos de dados de imagens associadas a legendas ou descrições de texto. Isso lhes permite aprender a relação entre conceitos de texto e características visuais.

Por exemplo, se o modelo vê milhões de imagens rotuladas como “cachorro” mostrando pelos, quatro patas, caudas etc., ele aprende a associar esses padrões visuais à palavra “cachorro”. Ele pode então gerar novas imagens fotorrealistas de cachorros a partir do zero quando recebe um texto como “um filhote fofo sentado na grama”.

As preocupações em torno da coleta de conteúdo de artistas

Os modelos se tornam mais capazes à medida que são treinados com mais dados. Isso levou as gigantes da tecnologia por trás deles a coletar milhões de imagens da internet sem o consentimento dos artistas. No entanto, muitos criadores estão insatisfeitos com o uso de seu trabalho para treinar IA sem permissão ou compensação.

Isso coloca um dilema para os artistas: compartilhar seu trabalho publicamente e correr o risco de mau uso do treinamento de IA ou manter em privado e perder exposição? Plataformas como Instagram, DeviantArt e ArtStation se tornaram verdadeiros tesouros de dados de treinamento para sistemas de IA.

Como o Nightshade injeta veneno nos modelos de IA

De acordo com um recente artigo de pesquisa, o Nightshade oferece uma solução inteligente atacando e corrompendo os próprios modelos de IA. Ele adiciona sutis alterações aos pixels da arte digital que são invisíveis aos olhos humanos. Mas esses ajustes embaralham os conceitos da imagem e as legendas de texto em que a IA se baseia.

Por exemplo, o Nightshade poderia modificar uma imagem de um cachorro para que o modelo de IA a confunda com uma bicicleta ou um chapéu. Se imagens “envenenadas” suficientes se espalharem pelo conjunto de dados de uma IA, ela passa a criar conexões bizarras entre texto e imagens.

Testes mostram que o Nightshade pode fazer com que modelos de IA como o Stable Diffusion gerem arte totalmente surreal e sem sentido. Por exemplo, as imagens de cachorro se transformam em criaturas com muitos membros e rostos de desenhos distorcidos após 50 amostras envenenadas. Depois de recebe348das 300 fotos de cachorros envenenadas, o Stable Diffusion até mesmo gera gatos quando solicitado a criar um cachorro.

O ataque do Nightshade explora a natureza de caixa-preta das redes neurais. As causas da corrupção são difíceis de rastrear nos grandes conjuntos de dados. Isso significa que remover os dados envenenados é como encontrar uma agulha no palheiro.

O ataque também se espalha entre conceitos relacionados. Então, envenenar imagens de “arte fantástica” confunde a IA em termos relacionados como “dragões” ou “castelos”. Isso torna praticamente impossível limpar manualmente o impacto do Nightshade em grande escala.

Dando aos artistas uma forma crucial de reagir

Dadas as áreas cinzentas legais em torno da geração de conteúdo de IA, o Nightshade representa uma opção tática importante para criativos. Ele permite que sabotem diretamente sistemas que lucram com seu trabalho de forma automatizada. Os pesquisadores planejam integrá-lo a um aplicativo chamado Glaze, que já mascara obras de arte contra coleta de dados por IA.

Com o Nightshade prestes a ser disponibilizado como software de código aberto, podemos ver várias versões que podem envenenar modelos de IA em massa. Isso poderia forçar as plataformas gerativas a revisar suas abordagens de coleta de dados e creditar corretamente os artistas. Mas os desenvolvedores de IA também estão correndo para encontrar maneiras de detectar e remover tais ataques. Por enquanto, o Nightshade oferece aos criadores uma ferramenta vital para ajudar a recuperar o controle na corrida armamentista da arte de IA, possivelmente por um curto período, até que sistemas automatizados capazes de detectar imagens envenenadas sejam desenvolvidos.

Crédito da imagem destacada: Imagem por Willo M.; Pexels; Obrigado!