Banindo o Dean.Bot A Repressão da OpenAI aos Chatbots Políticos

A OpenAI abandona a criação de chatbot que gerava repercussão para um candidato improvável à presidência.

As regras eleitorais da OpenAI estão sendo testadas.

Meses antes das eleições de 2024 e menos de uma semana após o 🔥🔥maior nome da IA se comprometer a ajudar a manter um processo democrático justo, os desenvolvedores estão testando essas promessas. Em 20 de janeiro, segundo o Washington Post, a OpenAI proibiu a equipe por trás do Dean.Bot, um chatbot alimentado pelo ChatGPT, destinado a promover o interesse pelo candidato democrata de Minnesota, Dean Phillips. A empresa citou uma falta de conformidade com as diretrizes de uso da empresa, escrevendo ao Washington Post: “Qualquer pessoa que construa com nossas ferramentas deve seguir nossas políticas de uso. Recentemente, removemos uma conta de desenvolvedor que estava violando conscientemente nossas políticas de uso da API, as quais proíbem a campanha política ou a impersonação de uma pessoa sem consentimento.”

O bot, que foi removido logo após a publicação de uma matéria sobre seu lançamento, mas não antes dos desenvolvedores terem tentado mantê-lo com outras APIs, foi criado pela Delphi, uma startup de IA contratada por um Super PAC relativamente novo conhecido como We Deserve Better, fundado pelos empreendedores do Vale do Silício Matt Krisiloff e Jed Somer. ⭐

O que Dean.Bot fazia?

O bot permitia que potenciais eleitores “conversassem” com Phillips e ouvissem suas mensagens de campanha. A troca inicial era iniciada com um aviso na tela de que o bot não era real e fazia parte do We Deserve Better. O site agora alerta os visitantes com um “Desculpem, o DeanBot está em campanha agora!”

Compromissos da OpenAI para a temporada eleitoral

A remoção do bot é uma das primeiras desativações públicas desde que a OpenAI lançou novos compromissos para a temporada eleitoral, sugerindo um esforço imediato para conter informações de campanha usando a tecnologia da OpenAI assim que for público. Em 16 de janeiro, a empresa compartilhou seu plano completo para lidar com o papel da IA nas eleições presidenciais deste ano – o que alguns chamam de ponto de conflito político e tecnológico em uma batalha contra a desinformação causada pela IA. A OpenAI anunciou novas políticas de uso e compromissos com a integridade eleitoral, incluindo:

  1. Maior transparência sobre a origem das imagens e as ferramentas usadas para criá-las, incluindo o uso de DALL-E.
  2. Atualizações nas fontes de notícias do ChatGPT e a inclusão de atribuições e links nas respostas.
  3. Uma parceria com a National Association of Secretaries of State (NASS) para incluir informações precisas sobre votação em determinadas perguntas processuais.

A OpenAI já possui uma política que proíbe que os desenvolvedores criem aplicativos para campanhas políticas e lobby ou criem chatbots que se façam passar por pessoas reais, incluindo candidatos ou entidades governamentais. A empresa também proíbe aplicativos que “desencorajem as pessoas a participarem dos processos democráticos”, como fornecer informações de votação incorretas ou de elegibilidade.

Implicações da repressão da OpenAI

As próximas eleições têm gerado ainda mais preocupação em relação ao papel da tecnologia na divulgação de informações e na mobilização de grupos de eleitores, e a IA se destaca como uma área cinzenta iminente nas diretrizes de muitas empresas de mídia social. Muitos observadores e defensores (assim como a FCC) se preocupam com o potencial da clonagem de voz pela IA, enquanto outros alertam para os cada vez mais eficazes deepfakes.

Em dezembro, duas organizações sem fins lucrativos publicaram um relatório documentando que o chatbot de IA da Microsoft, o Copilot, falhou em fornecer informações eleitorais precisas e espalhou desinformação. Em resposta, algumas empresas estão optando por criar políticas mais robustas para campanhas políticas, especificamente, como as anunciadas pelo Google e Meta no ano passado. Mas a remoção completa de conteúdo e as repercussões do conteúdo gerado por IA em consumidores já suscetíveis em meio à piora da alfabetização midiática ainda são motivo de controvérsia.

P&R

P: Por que a OpenAI proibiu a equipe por trás do Dean.Bot? R: A OpenAI citou violação de suas políticas de uso da API, especificamente proibindo campanhas políticas ou impersonação sem consentimento.

P: Quem criou o Dean.Bot? R: O bot foi criado pela Delphi, uma startup de IA contratada pelo Super PAC We Deserve Better, fundado por Matt Krisiloff e Jed Somer.

P: Quais são os compromissos da OpenAI para a temporada eleitoral? R: Os compromissos da OpenAI incluem maior transparência na origem das imagens, atualizações nas fontes de notícias do ChatGPT com atribuições e links, e uma parceria com a National Association of Secretaries of State (NASS) para fornecer informações precisas sobre votação.

Perspectivas

A repressão da OpenAI contra chatbots políticos marca um passo significativo no combate à desinformação gerada pela IA durante as eleições. À medida que a tecnologia de IA evolui, torna-se cada vez mais crucial garantir a precisão e confiabilidade das informações apresentadas aos eleitores. A luta contra os deepfakes e a clonagem de voz pela IA continuará a se intensificar, com empresas e reguladores implementando políticas mais rigorosas para proteger a integridade dos processos democráticos.

🔗 Links Relevantes: – O retorno dos anúncios de campanha política para X/Twitter levanta questões importantes para os usuáriosA rolagem infinita do TikTok destaca uma crise crescente de alfabetização midiática – Aqui está como o OpenAI planeja lidar com a desinformação eleitoral no ChatGPT e Dall-E – O chatbot de IA Bing Copilot da Microsoft fornece informações eleitorais incorretasMeta revela planos para as eleições globais de 2024

À medida que nos aproximamos das eleições de 2024, o impacto da IA no processo democrático continua sendo um tópico de preocupação. Mantenha-se informado, esteja atento e vamos garantir que a tecnologia funcione a favor da democracia. Compartilhe seus pensamentos e preocupações nos comentários abaixo! 🔽🔽🔽


Lembre-se de compartilhar este artigo com seus colegas entusiastas da tecnologia nas mídias sociais! Vamos iniciar conversas e promover o uso responsável da IA. 🚀🌐🤖