O Lado Sombrio da Geração de Imagens de IA de Código Aberto

Ferramentas de código aberto permitem que qualquer pessoa crie arte gerada por IA. Elas também têm sido utilizadas para a produção de pornografia deepfake não consensual.

\

Preocupações com Geradores de Imagens de IA de Código Aberto\\

Crédito da imagem: Reuven Cohen\

\

Seja o rosto de alta definição franzindo o cenho de um chimpanzé ou um doppelganger psicodélico em tons de rosa e vermelho de si mesmo, Reuven Cohen sabe como chamar a atenção das pessoas usando imagens geradas por IA. Mas por trás das cativantes visuais, existe um lado mais sombrio da tecnologia que muitos desconhecem.\

\

A tecnologia de geração de imagens de código aberto desencadeou uma onda de experimentação e criatividade sem limites. No entanto, também proporcionou uma via para a criação e distribuição de imagens explícitas e não consensuais, especialmente visando mulheres. Essa tecnologia, que pode ser treinada para ser tanto grotesca quanto ruim, tornou-se a base da pornografia deepfake e facilita o desenvolvimento de aplicativos sensacionalistas e assediadores.\

\

A comunidade de código aberto tem feito esforços para desencorajar usos exploratórios da IA, mas controlar a natureza de “tudo permitido” do software de código aberto é quase impossível. O abuso de imagens falsas e pornografia não consensual floresceu como resultado, e é um problema que não pode ser maquiado ou qualificado.\

\

Henry Ajder, um pesquisador especializado no uso prejudicial da IA generativa, afirma que o software de geração de imagens de código aberto capacitou a criação e disseminação de imagens explícitas e não consensuais. A ampla disponibilidade e a falta de limites nos modelos de código aberto tornaram desafiador impedir seu uso indevido.\

\

Enquanto alguns modelos de IA são criados com propósito para usos sensacionalistas e assediadores, muitas ferramentas podem servir tanto para propósitos legítimos quanto maliciosos. Por exemplo, um programa popular de troca de rostos de código aberto é usado por profissionais da indústria do entretenimento, mas também é a “ferramenta de escolha para atores mal-intencionados” criando deepfakes não consensuais.\

\

Startups como a Stability AI desenvolveram geradores de imagens de alta resolução com limites para evitar a criação de imagens explícitas e o uso malicioso. No entanto, mesmo quando os limites estão em vigor, tornar o software de código aberto pode contornar essas limitações. Modelos de IA menores, conhecidos como LoRAs, possibilitam ainda mais personalização e estilização das saídas de imagem, incluindo atos sexuais e semelhanças de celebridades.\

\

O problema se intensifica em fóruns como o 4chan, conhecido por seu conteúdo não regulamentado. Páginas dedicadas à pornografia deepfake não consensual existem, apresentando programas e modelos de IA disponíveis ao público e especificamente projetados para imagens sexuais. Os fóruns de imagens de adultos são inundados com nus não consensuais de mulheres reais gerados por IA, de atrizes pornográficas a atrizes conhecidas como Cate Blanchett.\

\

Algumas comunidades dentro do âmbito da criação de imagens de IA começaram a resistir à proliferação de conteúdo pornográfico e malicioso. Os próprios criadores se preocupam com seus softwares adquirindo reputação por imagens inadequadas para o ambiente de trabalho e instam outros a denunciar imagens explícitas e imagens de menores.\

\

Para complicar as coisas, novos métodos como o InstantID tornam ainda mais fácil criar deepfakes. Uma técnica desenvolvida por pesquisadores da Universidade de Pequim e Xiaohongshu, o InstantID permite a troca de rostos em imagens com apenas um exemplo, reduzindo os requisitos de processamento e preparação. Embora os pesquisadores tenham expressado preocupações sobre o potencial do modelo para imagens ofensivas ou culturalmente inadequadas, outros o promovem como uma tecnologia habilitadora para “Clonagem de Rosto de Código Aberto sem Censura.”\

\

A facilidade de criação de deepfakes usando esses métodos levanta preocupações significativas. Cohen destaca que qualquer pessoa poderia criar uma falsificação de alguém em uma posição comprometedora, tornando isso simples e acessível para todos. O potencial para uso indevido é alarmante.\

\

Enquanto alguns criadores de ferramentas e softwares desencorajam o uso malicioso, muitas vezes se sentem impotentes para impedi-lo. Outros estão criando ativamente obstáculos para casos de uso indesejados, promovendo ferramentas éticas para IA, como “guardar” imagens para protegê-las contra edição por IA gerativa e controlar o acesso a modelos enviados.\

\

Soluções tecnológicas como a liberação gradativa, licenciamento de software de código aberto e obrigações contratuais para plataformas comerciais podem não eliminar completamente o uso indevido, mas podem servir como medidas dissuasórias. Esforços de base e o estabelecimento de normas e padrões comunitários também podem influenciar o comportamento e moldar o que é considerado aceitável.\

\

Para combater o problema da pornografia AI não consensual, a colaboração entre startups de IA, desenvolvedores de código aberto, empreendedores, governos, organizações de mulheres, acadêmicos e sociedade civil é crucial. Uma abordagem mais coordenada pode ajudar a dissuadir abusos e tornar os indivíduos mais responsáveis. Trata-se de criar uma comunidade online que trabalhe ativamente contra a disseminação de conteúdo explícito e não consensual.\

\

As consequências do abuso baseado em imagens são frequentemente devastadoras e afetam desproporcionalmente as mulheres. Estudos têm mostrado que os deepfakes são predominantemente pornografia não consensual, direcionada principalmente às mulheres. A capacidade de indivíduos aleatórios visar e explorar os outros é aterrorizante, e é uma preocupação que exige atenção e ação.\

\

À medida que navegamos no cenário sempre em evolução da IA e da tecnologia, devemos permanecer vigilantes ao abordar as implicações éticas e o potencial de uso indevido. É essencial encontrar um equilíbrio entre inovação e uso responsável para criar um mundo seguro para todos.\

“`html


Q&A

Q: É possível controlar software de geração de imagens de código aberto?

A: Controlar software de geração de imagens de código aberto é um desafio devido à sua natureza descentralizada. Embora esforços sejam feitos para evitar o uso indevido, o ambiente de código aberto torna quase impossível manter controle total sobre como a tecnologia é utilizada. No entanto, incorporar correções tecnológicas e estabelecer normas comunitárias podem ajudar a mitigar alguns dos problemas.

Q: Existem medidas em vigor para prevenir a criação e distribuição de imagens explícitas e não consensuais?

A: Algumas startups e comunidades online estão desencorajando ativamente o uso malicioso e criando ferramentas para combater aplicações indesejadas da geração de imagens por IA. Ferramentas éticas, como “guardar” imagens, estão sendo desenvolvidas para proteger imagens da edição generativa por IA. No entanto, a eficácia dessas medidas depende da disposição dos usuários em seguir diretrizes e da capacidade de fazer cumprir a conformidade.

Q: Como podemos lidar com o problema do pornô por IA não consensual?

A: Lidar com o problema do pornô por IA não consensual requer colaboração entre vários interessados, incluindo startups de IA, desenvolvedores de código aberto, governos, organizações femininas, acadêmicos e sociedade civil. Ao fomentar diálogos e criar parcerias, possíveis dissuasores podem ser explorados sem prejudicar o acesso a modelos de código aberto. A colaboração é fundamental para criar uma comunidade online segura.

Q: Quais são as consequências potenciais do pornô por IA não consensual?

A: As consequências do pornô por IA não consensual podem ser devastadoras, especialmente para os indivíduos atingidos. O impacto psicológico e emocional pode ser grave, levando a traumas e danos de longo prazo. É essencial reconhecer os efeitos prejudiciais e implementar medidas para evitar danos adicionais.


🔗Referências: 1. Por favor, pare de atribuir características humanas à IA, tratando-a como uma forma de vida autônoma 2. Acesse rapidamente arquivos e pastas recentemente visualizados no macOS 3. As políticas da OpenAI tiveram uma atualização silenciosa, removendo a proibição de aplicações militares de guerra 4. O Gerador de Imagens por IA do Google finalmente é lançado para o público. Veja como experimentá-lo 5. Substack se compromete a remover proativamente conteúdo nazista, garantindo repercussões para o TechCrunch 6. Baidu nega vínculos com relatos de treinamento militar chinês com chatbot GenAI 7. A rede social descentralizada Farcaster está tentando alcançar a adoção em massa com técnicas da web 2.0 8. Presidente da Samsung, Lee, absolvido de crimes financeiros na fusão de empresas 9. Decodificando o plano do Reddit de ‘treinar’ modelos de IA 10. Legisladores revisam a Lei de Segurança Online para Crianças para abordar as preocupações dos defensores LGBTQ

“`