Nova ferramenta de corrupção traz problemas para a tecnologia de texto para imagem por IA | ENBLE

A nova ferramenta de corrupção traz desafios para a tecnologia de OCR por IA | ENBLE

Artistas profissionais e fotógrafos irritados com empresas de IA generativa que utilizam seu trabalho para treinar sua tecnologia podem em breve ter uma maneira eficaz de responder que não envolva recorrer aos tribunais.

A IA generativa surgiu com o lançamento do chatbot ChatGPT da OpenAI há quase um ano. A ferramenta tem uma habilidade extremamente apta para conversar de forma muito natural e semelhante ao ser humano, mas para adquirir essa capacidade, ela teve que ser treinada com uma enorme quantidade de dados coletados da web.

Ferramentas geradoras de IA semelhantes também são capazes de produzir imagens a partir de estímulos de texto, mas assim como o ChatGPT, elas são treinadas coletando imagens publicadas na web.

Isso significa que artistas e fotógrafos têm seu trabalho utilizado — sem consentimento ou compensação — por empresas de tecnologia para aprimorar suas ferramentas de IA generativa.

Para combater isso, uma equipe de pesquisadores desenvolveu uma ferramenta chamada Nightshade, capaz de confundir o modelo de treinamento, fazendo-o gerar imagens erradas como resposta aos estímulos.

Delineado recentemente em um artigo do MIT Technology Review, o Nightshade “envenena” os dados de treinamento adicionando pixels invisíveis a uma obra de arte antes de ela ser enviada para a web.

“Usar isso para ‘envenenar’ esses dados de treinamento pode prejudicar futuras iterações de modelos de IA geradora de imagens, como o DALL-E, Midjourney e Stable Diffusion, tornando algumas de suas saídas inúteis — cães se tornam gatos, carros se tornam vacas e assim por diante”, dizia o relatório do MIT, acrescentando que a pesquisa por trás do Nightshade foi submetida a revisão por pares.

Embora as ferramentas geradoras de imagens sejam impressionantes e continuem a melhorar, o modo como são treinadas tem sido controverso, e muitos dos criadores dessas ferramentas estão enfrentando processos judiciais de artistas que alegam que seu trabalho foi utilizado sem permissão ou pagamento.

Ben Zhao, professor da Universidade de Chicago e líder da equipe de pesquisa por trás do Nightshade, disse que uma ferramenta como essa pode ajudar a equilibrar o poder a favor dos artistas, enviando um aviso às empresas de tecnologia que ignoram direitos autorais e propriedade intelectual.

“Os conjuntos de dados para modelos de IA grandes podem consistir em bilhões de imagens, então quanto mais imagens ‘envenenadas’ puderem ser incorporadas ao modelo, mais danos a técnica causará”, disse o MIT Technology Review em seu relatório.

Quando lançarem o Nightshade, a equipe planeja torná-lo de código aberto para que outros possam aprimorá-lo e torná-lo mais eficaz.

Consciente de seu potencial de desordem, a equipe por trás do Nightshade disse que ele deve ser usado como “última defesa para criadores de conteúdo contra coletadores de dados da web” que desrespeitam seus direitos.

Em uma tentativa de lidar com o problema, a OpenAI, criadora do DALL-E, começou recentemente a permitir que artistas removam seu trabalho dos dados de treinamento, mas o processo tem sido descrito como extremamente oneroso, pois requer que o artista envie uma cópia de cada imagem que deseja remover, juntamente com uma descrição da imagem, sendo necessário um pedido para cada remoção.

Tornar o processo de remoção consideravelmente mais fácil pode ser uma maneira de desencorajar artistas a optarem por usar uma ferramenta como o Nightshade, que pode causar muitos mais problemas para a OpenAI e outros a longo prazo.