O Lado Negro da Tecnologia de IA Generativa Preconceitos, Imagens Falsas e Desinformação

Fique por dentro do cenário em constante mudança da inteligência artificial com nosso resumo semanal das últimas novidades.

“`html

Prepare for more fake AI images as battles between OpenAI-Musk and OpenAI-NYT persist.

Introdução

A tecnologia de IA generativa revolucionou várias indústrias, permitindo a criação de textos, imagens, vídeos e até códigos de programação com capacidades de linguagem natural. Isso significa que qualquer pessoa pode interagir com chatbots de IA sem precisar ter habilidades de programação ou engenharia. No entanto, há um lado sombrio nessa tecnologia que inclui viés, alucinações e a criação de imagens e vídeos falsos. Neste artigo, exploraremos alguns exemplos recentes das consequências negativas da IA generativa e discutiremos as preocupações que levantam.

A Ofensa das Imagens Ofensivas

Apenas uma semana depois que o gerador de texto para imagem Gemini do Google recebeu críticas por fornecer imagens ofensivas e tendenciosas, o gerador de IA Copilot Designer da Microsoft enfrentou críticas semelhantes. Um engenheiro da Microsoft, Shane Jones, expressou preocupação com as imagens perturbadoras e violentas criadas pela ferramenta de IA, incluindo demônios, monstros, imagens sexualizadas de mulheres e uso de álcool e drogas por menores. Essas imagens claramente violaram os princípios de IA responsável da Microsoft. Apesar dos esforços de Jones para abordar os problemas, a Microsoft ignorou suas descobertas. Isso levanta questões sobre as práticas éticas seguidas pelas empresas de IA e o dano potencial causado pelo uso indevido da tecnologia generativa de IA.

Imagens Falsas e Desinformação

Em outro caso, apoiadores do ex-presidente Donald Trump criaram fotos falsas representando o então candidato presidencial cercado por eleitores negros fictícios. A intenção por trás dessas imagens fabricadas era enganar os afro-americanos para votar no Partido Republicano. Essa manipulação de imagens destaca a questão mais ampla da desinformação e do potencial das imagens geradas pela IA para desempenhar um papel significativo na propagação de falsidades durante as eleições. De acordo com um relatório do Centro de Combate ao Ódio Digital, ferramentas de imagem de IA contribuem para a desinformação eleitoral em 41% dos casos, incluindo a criação de imagens que apoiam alegações falsas sobre candidatos ou fraude eleitoral. Isso levanta preocupações quanto à confiabilidade do conteúdo criado usando a tecnologia generativa de IA.

Biden Pede uma Proibição das Impersonações de Voz de IA

Em seu discurso do Estado da União, o presidente Biden pediu uma proibição das impersonações de voz de IA e legislação para explorar a promessa da IA enquanto protege a sociedade de seus perigos potenciais. Golpistas haviam usado anteriormente chamadas robôs geradas por IA com a voz de Biden para enganar eleitores democratas durante a primária presidencial de New Hampshire. Embora haja preocupações sobre os perigos da impersonação de voz, também existem casos de uso potencial que demonstram os aspectos positivos das vozes geradas por IA, como o aplicativo Calm apresentando uma narração gerada por IA pelo ator Jimmy Stewart para uma história de ninar. Encontrar o equilíbrio certo entre regular as aplicações prejudiciais de IA e permitir as benéficas é crucial.

O Chatbot “Humano” da Anthropic e a Competição

A Anthropic, uma empresa de IA sediada em São Francisco, lançou o Claude 3, um rival do ChatGPT da OpenAI e do Gemini do Google. A Anthropic afirma que seus modelos de IA agora exibem uma “compreensão humana” e têm precisão e compreensão contextual aprimoradas. Embora esses chatbots não sejam verdadeira inteligência artificial geral e não tenham um entendimento completo como os humanos, as atualizações do Claude demonstram o rápido ritmo de inovação no campo da IA generativa. A OpenAI anunciou recentemente sua colaboração com várias empresas de tecnologia para construir, implantar e usar a IA de forma responsável, apesar de enfrentar uma ação judicial de Elon Musk, um dos primeiros investidores da OpenAI. A competição e a controvérsia em torno da IA generativa mostram que ainda há muito a ser explorado e resolvido neste campo em rápida evolução.

A Necessidade de Transparência na Avaliação de IA

Um grupo de mais de 100 pesquisadores de IA assinou uma carta aberta destacando a importância da avaliação independente de sistemas de IA gen. Eles argumentam que as empresas de IA devem permitir que investigadores acessem seus sistemas para verificações de segurança antes de lançá-los ao público. Atualmente, restrições à pesquisa independente criam um efeito inibidor, pois os auditores temem ser banidos ou enfrentar ações judiciais por testar modelos de IA sem permissão das empresas. Os pesquisadores enfatizam a necessidade de transparência, responsabilidade e a evitação de impedir a pesquisa, citando exemplos em que empresas de IA impediram auditores externos de acessar seus sistemas. Encontrar um equilíbrio entre segurança e promoção da pesquisa independente no campo da IA generativa continua sendo um desafio.

Ações judiciais por violação de direitos autorais têm assolado o espaço de IA gen, com criadores de conteúdo acusando empresas como a OpenAI e a Microsoft de utilizar suas obras sem permissão ou compensação. O New York Times entrou com uma ação contra a OpenAI e a Microsoft, alegando que essas empresas utilizaram ilegalmente milhões de suas histórias para treinar seus modelos de linguagem, competindo com empresas de mídia como fonte confiável de informações. Tanto a Microsoft quanto a OpenAI apresentaram argumentos contra a ação judicial, afirmando que a doutrina de uso justo protege o uso de material protegido por direitos autorais. Essa batalha legal em curso destaca a importância de determinar os limites do uso de dados no treinamento de sistemas de IA generativa.

“`

Conclusão

A tecnologia de IA generativa tem um potencial imenso para transformar diversos campos, mas também traz consigo riscos e preocupações éticas. Eventos recentes destacaram viés, a criação de imagens/vídeos falsos, a propagação de desinformação e disputas legais sobre direitos de propriedade intelectual. Encontrar um equilíbrio entre aproveitar o poder da IA generativa e mitigar seus riscos potenciais é crucial. Garantir transparência, responsabilidade e uso responsável da IA será vital à medida que navegamos por novos avanços neste campo em rápida evolução.


Seção de P&R

P: Quais são as consequências potenciais de viés na IA generativa? Viés na IA generativa pode perpetuar estereótipos injustos, reforçar discriminação e aprofundar divisões sociais. Quando sistemas de IA são treinados com dados enviesados ou não representativos, podem gerar conteúdo que reflete esses preconceitos. Além disso, viés em sistemas de IA pode resultar em processos de tomada de decisão discriminatórios em diversos domínios, como contratações ou aprovações de empréstimos. Abordar e mitigar viés na IA generativa é essencial para criar uma tecnologia justa e equitativa.

P: Como a tecnologia de IA generativa pode ser usada de forma positiva? A tecnologia de IA generativa tem aplicações positivas em áreas como criação de conteúdo, narrativa, assistentes virtuais e personalização. Por exemplo, conteúdo gerado por IA pode ajudar autores, cineastas e artistas a gerar novas ideias e inspirações. Assistentes virtuais alimentados por IA generativa podem fornecer experiências personalizadas, tornando as interações mais eficientes e adaptadas às necessidades individuais. É importante explorar o potencial positivo da IA generativa enquanto se considera as questões éticas e o uso responsável.

P: Que medidas podem ser tomadas para combater a propagação de desinformação através de conteúdo gerado por IA generativa? Combater a desinformação requer uma abordagem multifacetada envolvendo medidas tecnológicas, regulatórias e educacionais. Avanços tecnológicos podem se concentrar em criar sistemas de IA que possam detectar e sinalizar conteúdo potencialmente falso ou enganoso gerado por IA generativa. Estruturas regulatórias podem ser implementadas para garantir transparência, responsabilidade e uso responsável da tecnologia de IA generativa. Educar os usuários sobre os riscos e limitações do conteúdo gerado por IA pode capacita-los a avaliar criticamente e verificar as informações.


Referências

  1. AI Chatbot Goes Rogue, Generating Offensive Content
  2. Gemini Flubs by Google and Musk Sues OpenAI
  3. NSA Buying Americans’ Internet Browsing Records
  4. AI Principles and Responsibility
  5. Fake Image Factories: Countering Disinformation with AI