A ferramenta de envenenamento de dados permite aos artistas contra-atacar a raspagem de IA. Aqui está como

A ferramenta de envenenamento de dados permite aos artistas se defenderem da coleta de dados por IA. Veja como.

nightshade-gettyimages-1671640109

Um grande problema que assola os modelos de IA generativos é o scraping de IA, o processo usado pelas empresas de IA para treinar seus modelos de IA capturando dados de fontes da internet sem a permissão dos proprietários. O scraping de IA pode ter um impacto especialmente negativo sobre artistas visuais, cujo trabalho é usado para gerar novas obras em modelos de texto-imagem. Agora, porém, pode haver uma solução.

Pesquisadores da Universidade de Chicago criaram o Nightshade, uma nova ferramenta que dá aos artistas a capacidade de “envenenar” sua arte digital para evitar que desenvolvedores treinem ferramentas de IA em seu trabalho.

Também: Mais diversão com o DALL-E 3 no ChatGPT: ele consegue criar uma camiseta?

Usando o Nightshade, os artistas podem fazer alterações nos pixels de sua arte que são invisíveis ao olho humano, mas causam falhas no modelo de IA generativo de maneiras “caóticas” e “imprevisíveis”, de acordo com a MIT Technology Review, que teve uma prévia exclusiva da pesquisa.

O ataque específico ao prompt faz com que modelos de IA generativos produzam saídas inúteis devido à manipulação do aprendizado do modelo, o que leva o modelo a confundir assuntos entre si.

Por exemplo, ele pode aprender que um cachorro é na verdade um gato, o que, por sua vez, faz com que o modelo produza imagens incorretas que não correspondem ao prompt de texto.

De acordo com o artigo de pesquisa, as amostras envenenadas do Nightshade podem corromper um prompt de Difusão Estável em menos de 100 amostras, como mostrado na imagem abaixo.

Além de envenenar o termo específico, o envenenamento também se estende a termos associados.

Por exemplo, no exemplo acima, o termo “cachorro” não seria apenas afetado, mas também sinônimos como “filhote”, “cão de caça” e “husky”, de acordo com o artigo de pesquisa.

A correlação entre os termos não precisa ser tão direta quanto o exemplo acima. Por exemplo, o artigo descreve como, quando o termo “arte de fantasia” foi envenenado, também foi envenenada a frase relacionada “uma pintura de Michael Whelan”, um conhecido criador de arte fantástica.

Há diferentes defesas potenciais que os treinadores de modelos poderiam empregar, incluindo filtragem de dados de alto índice de perda, métodos de detecção de posição e métodos de remoção de envenenamento, mas nenhum deles é totalmente eficaz.

Também: A Apple em breve trará IA para seus dispositivos, segundo relatos. Veja onde

Além disso, os dados envenenados são complicados de serem removidos do modelo, já que a empresa de IA teria que ir em cada amostra corrompida e excluí-la individualmente.

O Nightshade não só tem o potencial de dissuadir empresas de IA de usarem dados sem permissão, mas também incentiva os usuários a tomarem precauções ao usar esses modelos de IA generativos.

Outras tentativas foram feitas para mitigar o problema do uso não autorizado do trabalho dos artistas. Alguns modelos de geração de imagens de IA, como o gerador de imagens da Getty Images e o Adobe Firefly, usam apenas imagens aprovadas pelo artista ou de código aberto para treinar seus modelos e possuem um programa de compensação em vigor como retorno.