Protegendo as Eleições O Compromisso da OpenAI em Combater a Desinformação em IA

A empresa delineou seus esforços em uma publicação recente no blog.

O compromisso da OpenAI em combater a desinformação por IA nas eleições

É um momento emocionante e angustiante conforme as eleições presidenciais de 2024 se aproximam. Com o avanço da inteligência artificial (IA), há uma crescente preocupação com seu impacto no processo eleitoral. A OpenAI, uma das principais organizações de pesquisa em IA, entende o peso da responsabilidade que carrega. Conforme relatado pelo The Washington Post, as eleições deste ano foram denominadas “Eleições de IA”, e a desinformação derivada de IA tem sido listada como um risco significativo no “Relatório de Riscos Globais de 2024” do Fórum Econômico Mundial.

Em resposta a essas preocupações, a OpenAI recentemente compartilhou uma postagem em seu blog delineando suas estratégias para proteger a integridade das eleições e combater a interferência eleitoral. A postagem aborda especificamente desafios como deepfakes enganosos, operações de influência em larga escala e chatbots se passando por candidatos. Vamos dar uma olhada mais de perto nas iniciativas da OpenAI e como eles planejam enfrentar essas questões.

Imagens DALL-E: O Poder de Recusar e Melhorar a Transparência

A OpenAI reconhece que ferramentas existentes podem ajudar a melhorar a precisão factual, reduzir o viés e recusar certos pedidos. Por exemplo, o modelo de geração de imagens da OpenAI chamado DALL-E agora pode recusar pedidos que solicitam a geração de imagens de pessoas reais, incluindo candidatos. No entanto, os detalhes específicos do processo de tomada de decisão do DALL-E permanecem não divulgados. Ainda assim, a OpenAI pretende fornecer uma melhor transparência em relação à origem das imagens e às ferramentas usadas para criá-las. Através de uma abordagem de codificação de imagens, os detalhes da procedência do conteúdo serão armazenados, permitindo maior responsabilidade.

A OpenAI também está testando uma ferramenta para identificar se uma imagem foi gerada pelo DALL·E, mesmo que tenha passado por modificações comuns. Esses avanços no reconhecimento de imagens e responsabilidade demonstram o compromisso da OpenAI em garantir a autenticidade das imagens no cenário político.

Conteúdo do Chat GPT: Transparência e Incentivo à Participação Democrática

No que diz respeito ao ChatGPT, a OpenAI segue suas políticas de uso existentes. A plataforma não permite a criação de aplicativos para campanhas políticas, lobby ou chatbots que se passem por pessoas reais, incluindo candidatos ou governos. Além disso, ela proíbe estritamente o desenvolvimento de aplicativos que desencorajem as pessoas a participarem dos processos democráticos ou desencorajem a votação. A OpenAI está determinada a manter a integridade dos sistemas democráticos e criar um ambiente que promova um engajamento justo.

Para fornecer aos usuários uma maior transparência, o ChatGPT em breve oferecerá notícias globais em tempo real com as devidas atribuições e links. Além disso, a OpenAI está se associando à Associação Nacional de Secretários de Estado (NASS) para aprimorar o acesso a informações de votação autoritativas. Ao colaborar com organizações como a NASS e direcionar os usuários para o site CanIVote.org, a OpenAI garante que os usuários tenham as informações necessárias para participar do processo eleitoral de maneira sensata.

Os usuários também podem relatar possíveis violações ao usar a plataforma, uma função disponível nos “novos GPTs” da OpenAI. Essa abordagem proativa incentiva os usuários a desempenharem um papel ativo na manutenção da integridade do ecossistema de IA.

Perguntas e Respostas: Abordando suas preocupações

P: Existe o risco dos modelos da OpenAI serem manipulados para disseminar desinformação durante as eleições?

R: A OpenAI está plenamente ciente do potencial uso inadequado de modelos de IA durante as eleições. Para combater isso, eles integraram várias medidas em suas plataformas. Desde recusar solicitações de geração de imagens de pessoas reais até detectar adulteração de imagens, a OpenAI busca minimizar o risco de disseminação de desinformação por meio de seus modelos.

P: Como a OpenAI garante a imparcialidade de seus chatbots, especialmente durante campanhas políticas?

R: A OpenAI possui políticas estritas de uso que proíbem a criação de chatbots que fingem ser pessoas reais, incluindo candidatos ou governos. Ao não permitir aplicativos que desencorajem a participação democrática ou desencorajem a votação, a OpenAI defende o princípio de justiça e igualdade na esfera política.

P: Os modelos de linguagem da OpenAI podem fornecer informações confiáveis sobre procedimentos de votação e locais?

R: A OpenAI reconhece a importância de informações confiáveis durante as eleições. Ao se associar a organizações como a Associação Nacional de Secretários de Estado e direcionar os usuários para fontes confiáveis como CanIVote.org, a OpenAI facilita o acesso a informações de votação autoritativas, garantindo que os usuários tenham orientações necessárias para se envolverem de maneira responsável.

Olhando para o Futuro: O Futuro da IA nas Eleições

A incorporação da IA nas eleições traz oportunidades e desafios. Enquanto a OpenAI trabalha diligentemente para proteger a integridade do processo eleitoral, outras organizações e formuladores de políticas também devem contribuir para a construção de um ecossistema de IA seguro e transparente.

No futuro, podemos esperar ainda mais avanços nas tecnologias de IA dedicadas a garantir a precisão e autenticidade das informações eleitorais. Pesquisadores e desenvolvedores continuarão refinando ferramentas existentes e explorando abordagens inovadoras para combater a desinformação. Com esforços colaborativos, podemos abrir caminho para eleições justas e confiáveis na era digital.

Referências: 1. OpenAI Moves to Shrink Regulatory Risk in EU Data Privacy 2. AI Election: The Washington Post 3. Global Risks Report 2024: World Economic Forum 4. OpenAI’s Policies for ChatGPT: Existing Usage Policies 5. Microsoft’s Bing AI Chatbot Copilot Gives Wrong Election Information 6. Artificial Intelligence and Elections: Enabling Safer Democratic Processes 7. OpenAI’s Plans to Help Protect Elections from AI-Generated Mischief 8. AI Aids Nation-State Hackers but Also Helps US Spies Find Them

Lembre-se, é crucial permanecer vigilante e criterioso diante de informações relacionadas a eleições. Se você deseja aprender mais sobre como identificar desinformação eleitoral, confira o guia da ProPublica.

📢 Compartilhe este artigo para espalhar a conscientização sobre o compromisso da OpenAI em combater a desinformação de IA nas eleições. Juntos, podemos garantir um processo democrático justo e confiável.