🎨 Protegendo os Direitos dos Artistas na Era da IA Generativa

Kin.art, uma plataforma para gerenciar encomendas de arte, tem como objetivo capacitar artistas a combater o treinamento não autorizado de modelos GenAI.

Kin.art lançou uma nova ferramenta gratuita chamada ENBLE que ajuda a impedir que modelos de GenAI sejam treinados em obras de arte.

É realmente surpreendente o que a IA generativa, especialmente os modelos de IA de texto para imagem como Midjourney e o DALL-E 3 da OpenAI, podem realizar. Esses modelos geradores de imagem têm a capacidade de transformar qualquer descrição, seja breve ou detalhada, em uma obra de arte que facilmente poderia ser confundida com a obra de um artista habilidoso.

No entanto, há uma preocupação significativa com esses modelos: muitos deles foram treinados em obras de arte sem o conhecimento ou permissão dos próprios artistas. Enquanto alguns fornecedores começaram a compensar os artistas ou fornecer opções para “optar por não participar” do treinamento do modelo, muitos outros não tomaram tais medidas.

Nesta ausência de orientações claras dos tribunais e do Congresso, empreendedores e ativistas desenvolveram ferramentas que permitem que os artistas modifiquem suas obras de arte. Essas modificações garantem que suas criações não possam ser usadas para treinar modelos de IA generativa. Duas ferramentas recentemente chamaram a atenção: Nightshade e Kin.art.

O Nightshade, que foi lançado nesta semana, altera sutilezas dos pixels de uma imagem para enganar os modelos e fazer com que percebam algo diferente do conteúdo real. Por outro lado, o Kin.art utiliza segmentação de imagem para ocultar partes da obra de arte e aleatorização de tags para interromper o processo de treinamento do modelo.

A ferramenta oferecida pela Kin.art foi co-desenvolvida por Flor Ronsmans De Vry, uma das co-fundadoras da Kin.art, uma plataforma de gerenciamento de comissões artísticas. Em entrevista, Ronsmans De Vry explicou que os modelos de arte generativa aprendem as associações entre conceitos escritos e imagens através de conjuntos de dados rotulados. Por exemplo, a palavra “pássaro” pode significar pássaros azuis, periquitos, águias carecas e até mesmo noções mais abstratas. Ao interromper a própria imagem ou as etiquetas associadas, torna-se consideravelmente mais desafiador para os fornecedores incorporarem a obra de arte no treinamento do modelo.

imagem: Kin.art

“Acreditamos em criar um cenário onde a arte tradicional e a arte generativa possam coexistir, a partir de uma abordagem ética para o treinamento de IA que respeite os direitos dos artistas”, afirmou Ronsmans De Vry por e-mail.

A ferramenta da Kin.art é única de algumas maneiras, pois não requer modificações criptográficas caras nas imagens. No entanto, pode ser usada em combinação com outros métodos para proteção adicional.

imagem: Kin.art

Diferentemente de outras ferramentas existentes que visam proteger contra o treinamento de IA envenenando conjuntos de dados existentes com obras de arte, a Kin.art impede que a obra de arte seja incluída no conjunto de dados desde o início.

Atualmente, a Kin.art oferece a ferramenta gratuitamente, mas os artistas precisam fazer o upload de suas obras de arte na plataforma de portfólio da Kin.art para usá-la. A intenção por trás dessa abordagem provavelmente é direcionar os artistas para os serviços de busca e facilitação de comissões de arte baseados em taxas, que são o núcleo de seus negócios.

No entanto, Ronsmans De Vry enfatiza que esse esforço é principalmente filantrópico. A Kin.art planeja disponibilizar a ferramenta para terceiros no futuro.

“Depois de testar nossa solução em nossa própria plataforma, planejamos oferecê-la como serviço para permitir que qualquer pequeno site e grande plataforma protejam facilmente seus dados contra uso não licenciado”, disse Ronsmans De Vry. “Possuir e ser capaz de defender os dados de sua plataforma na era da IA é mais importante do que nunca. Algumas plataformas têm a sorte de poder bloquear seus dados e impedir que não usuários acessem, mas outras precisam fornecer serviços públicos e não têm esse luxo. É aí que soluções como a nossa entram.”

🤔 Perguntas frequentes

P: Como essas ferramentas protegem os direitos dos artistas? R: Nightshade e Kin.art oferecem aos artistas a possibilidade de modificar suas obras de arte de maneiras que dificultam o uso delas pelos modelos de IA generativa para treinamento. O Nightshade altera os pixels de uma imagem para enganar os modelos, enquanto o Kin.art emprega técnicas de segmentação de imagem e aleatorização de tags.

P: Essas ferramentas são à prova de falhas? Os modelos ainda podem usar as obras de arte modificadas? R: Embora essas ferramentas forneçam uma camada adicional de proteção para os artistas, elas não são infalíveis. Alguns modelos de IA generativa ainda podem ser capazes de usar as obras de arte modificadas ou encontrar maneiras de contornar as proteções. No entanto, essas ferramentas elevam significativamente o nível de dificuldade para o uso das obras dos artistas sem permissão.

P: Como a ferramenta da Kin.art difere de outras medidas protetivas? R: A ferramenta da Kin.art se destaca ao impedir que a obra de arte seja incluída em conjuntos de dados de treinamento de IA generativa desde o início. Outros métodos frequentemente se concentram em mitigar os danos depois do fato, envenenando conjuntos de dados existentes. A abordagem da Kin.art é mais proativa, oferecendo aos artistas maior controle sobre o uso de seu trabalho.

P: Quais medidas adicionais os artistas podem tomar para proteger sua obra de uso não autorizado? R: Os artistas podem considerar combinar a ferramenta da Kin.art com outras medidas protetivas, como modificações criptográficas de imagens. Eles também podem explorar meios legais para proteger seus direitos e garantir que seu trabalho não seja usado sem sua permissão.

P: Existem ferramentas ou iniciativas semelhantes disponíveis para outros campos artísticos, como música ou escrita? R: Embora o foco deste artigo seja principalmente na arte visual e sua interação com IA generativa, esforços estão sendo feitos para proteger artistas em outros domínios criativos também. Por exemplo, músicos e escritores estão explorando técnicas de marca d’água e estruturas legais para proteger seu trabalho.

🔮 O Impacto e o Futuro da Proteção dos Direitos dos Artistas

A ferramenta da Kin.art, juntamente com outras iniciativas que visam proteger os direitos dos artistas na era da IA generativa, destaca a importância crescente das práticas éticas de treinamento de IA. À medida que a IA continua a avançar e se tornar mais amplamente utilizada em várias indústrias, respeitar os direitos dos criadores e detentores de direitos autorais torna-se crucial.

Com o surgimento da IA generativa, a possibilidade de criação de arte digital sem o conhecimento ou permissão dos artistas tornou-se uma preocupação significativa. Ferramentas como a da Kin.art podem atuar como um dissuasor, tornando mais difícil para os vendedores incorporarem obras de arte em conjuntos de dados de treinamento de IA sem consentimento.

À medida que esse campo evolui, é provável que soluções mais abrangentes surjam para abordar os desafios éticos e legais em torno da IA generativa e da propriedade intelectual. Artistas, empreendedores e legisladores precisarão colaborar para estabelecer diretrizes e regulamentações que protejam os direitos dos artistas, ao mesmo tempo que estimulem a inovação e a criatividade.

📚 Referências: – Orientação sobre a Proteção dos Direitos dos Artistas no Treinamento de IAKin.art – Protegendo Obras de Arte do Uso Não Autorizado de IAKin.art – Meta Rolls: Um Site Dedicado a Geração de Imagens com IA