Uma nova ferramenta poderia proteger os artistas sabotando geradores de imagens de IA

Nova ferramenta pode proteger artistas ao sabotar geradores de imagens de IA

Os artistas em breve poderão ter uma nova arma para ajudar a proteger seu trabalho de se tornar alimento para aprendizado de máquina. Chamada Nightshade, a ferramenta faz pequenas alterações nos pixels de uma obra de arte digital para “envenená-la” de forma eficaz, tornando a imagem inútil para treinar a IA.

O MIT Technology Review relata que uma equipe liderada pelo professor Ben Zhao, da Universidade de Chicago, submeteu o Nightshade para revisão por pares na conferência de segurança computacional USENIX. O software funciona fazendo pequenas edições em uma imagem que, embora invisíveis aos olhos humanos, fazem com que os algoritmos de IA as identifiquem completamente de forma errada.

Por exemplo, um artista pode pintar uma imagem de um gato que claramente pode ser identificado como felino por qualquer humano ou IA que a examine. No entanto, ao aplicar o Nightshade, os humanos ainda verão a mesma imagem, enquanto a IA acreditará incorretamente que é um cachorro.

Inunde a IA com material de treinamento ruim como esse, e em breve um pedido por uma imagem de um gato fará com que ela gere um cachorro em seu lugar.

É claro que apenas uma imagem envenenada não terá um efeito significativo no algoritmo de um gerador de imagens de IA. Seus dados de treinamento precisariam ser contaminados por milhares de imagens alteradas antes que um impacto real seja percebido.

No entanto, é sabido que os geradores de imagens de IA coletam indiscriminadamente milhares de novas amostras da internet para aprimorar seus algoritmos. Se artistas suficientes enviarem suas imagens com o Nightshade aplicado, isso poderá eventualmente tornar essas ferramentas de IA inutilizáveis.

Também seria incrivelmente difícil para as empresas de IA corrigirem o problema, pois cada imagem envenenada teria que ser identificada individualmente e removida de seu conjunto de treinamento. Isso poderia criar um incentivo poderoso para que essas empresas pensem duas vezes antes de vasculhar a internet e usar o trabalho dos artistas sem seu consentimento explícito.

Esta não é a primeira ferramenta de interrupção da IA criada pela equipe de Zhao. O grupo lançou anteriormente Glaze, uma ferramenta que disfarça o estilo pessoal de um artista de maneira semelhante. O Nightshade eventualmente será integrado ao Glaze e disponibilizado como código aberto para permitir que outros construam sobre seu trabalho de proteção aos artistas.