Imagens de IA ‘inseguras’ proliferam online. Estudo sugere 3 maneiras de conter essa praga

Propagação online de 'imagens inseguras' de IA é alvo de estudo. Confira 3 medidas para combater esse problema

Ao longo do último ano, os geradores de imagens de IA têm causado sensação no mundo todo. Até mesmo nossos ilustres escritores do TNW os utilizam de vez em quando.

A verdade é que as ferramentas como Stable Diffusion, Latent Diffusion ou DALL·E podem ser incrivelmente úteis para produzir imagens únicas a partir de prompts simples – como esta imagem do Elon Musk montando um unicórnio.

Mas nem tudo é diversão. Os usuários desses modelos de IA também podem gerar imagens odiosas, desumanizadoras e pornográficas com o simples clique de um botão – sem nenhuma ou poucas repercussões. “As pessoas usam essas ferramentas de IA para desenhar todo tipo de imagem, o que, inherentemente, apresenta um risco”, disse a pesquisadora Yiting Qu do CISPA Helmholtz Center for Information Security na Alemanha. As coisas se tornam especialmente problemáticas quando imagens perturbadoras ou explícitas são compartilhadas em plataformas de mídia mainstream, ela enfatizou.

Embora esses riscos pareçam bastante óbvios, até agora houve pouca pesquisa para quantificar os perigos e criar salvaguardas para seu uso. “Atualmente, nem mesmo há uma definição universal na comunidade científica sobre o que é e o que não é uma imagem insegura”, disse Qu.

Para iluminar o problema, Qu e sua equipe investigaram os geradores de imagem de IA mais populares, a prevalência de imagens inseguras nessas plataformas e três maneiras de prevenir sua criação e circulação online.

Os pesquisadores alimentaram quatro proeminentes geradores de imagens de IA com prompts de texto de fontes conhecidas por seu conteúdo inseguro, como a plataforma de extrema direita 4chan. Chocantemente, 14,56% das imagens geradas foram classificadas como “inseguras”, sendo que a Stable Diffusion produziu a maior porcentagem com 18,92%. Essas imagens incluíam conteúdo sexualmente explícito, violento, perturbador, odioso ou político.

Criando salvaguardas

O fato de tantas imagens incertas terem sido geradas no estudo de Qu mostra que os filtros existentes não estão fazendo seu trabalho adequadamente. A pesquisadora desenvolveu seu próprio filtro, que obteve uma taxa de acerto muito maior em comparação, mas sugere várias outras maneiras de conter a ameaça.

Uma forma de evitar a disseminação de imagens desumanas é programar os geradores de imagens de IA para não gerarem essas imagens em primeiro lugar, afirmou ela. Essencialmente, se os modelos de IA não forem treinados com imagens inseguras, eles não poderão replicá-las.

Além disso, Qu recomenda bloquear palavras inseguras na função de pesquisa, para que os usuários não possam criar prompts que produzam imagens prejudiciais. Para aquelas imagens que já estão circulando, “deve haver uma forma de classificá-las e deletá-las online”, disse ela.

Com todas essas medidas, o desafio está em encontrar o equilíbrio certo. “É necessário haver um equilíbrio entre a liberdade e a segurança do conteúdo”, disse Qu. “Mas quando se trata de impedir que essas imagens se espalhem amplamente em plataformas mainstream, acredito que a regulamentação rigorosa faz sentido.”

Além de gerar conteúdo prejudicial, os criadores de software de texto para imagem de IA têm sido criticados por uma série de questões, como roubo de trabalho de artistas e amplificação de estereótipos perigosos de gênero e raça.

Embora iniciativas como a AI Safety Summit, que ocorreu no Reino Unido neste mês, visem criar salvaguardas para a tecnologia, os críticos afirmam que as grandes empresas de tecnologia têm muita influência sobre as negociações. Se isso é verdade ou não, a realidade é que, no presente momento, a gestão adequada e segura da IA é irregular, no mínimo, e extremamente alarmante no pior caso.