China e EUA fazem parte de um pacto multilateral para colaborar nos riscos da IA

China e EUA juntos em um pacto multilateral para cooperação em questões de riscos da IA

Globo contra cenário urbano

Um grupo de 28 nações, incluindo China e EUA, concordou em trabalhar juntas para identificar e gerenciar riscos potenciais da inteligência artificial (IA) “fronteiriça”, marcando o primeiro acordo multilateral desse tipo.

Publicada pelo Reino Unido, a Declaração Bletchley sobre Segurança na IA descreve o reconhecimento dos países da “urgente necessidade” de garantir que a IA seja desenvolvida e implantada de forma “segura e responsável” para o benefício de uma comunidade global. Este esforço requer uma cooperação internacional mais ampla, de acordo com a Declaração, que foi endossada por países da Ásia, União Europeia e Oriente Médio, incluindo Singapura, Japão, Índia, França, Austrália, Alemanha, Coreia do Sul, Emirados Árabes Unidos e Nigéria.

Também: A IA generativa poderia ajudar no desenvolvimento do “low code” para “no code”, mas com um toque especial.

Os países reconhecem que riscos significativos podem surgir do uso intencional indevido ou problemas não intencionais de controle da IA fronteiriça, em particular riscos de cibersegurança, biotecnologia e desinformação. A Declaração aponta para danos potencialmente graves e catastróficos causados por modelos de IA, bem como riscos associados a preconceitos e privacidade.

Junto com o reconhecimento de que os riscos e capacidades ainda não são totalmente compreendidos, as nações concordaram em colaborar e construir uma compreensão compartilhada “científica e baseada em evidências” dos riscos da IA fronteiriça.

Também: À medida que os desenvolvedores aprendem os detalhes da IA generativa, os não desenvolvedores seguirão o exemplo.

A Declaração descreve a IA fronteiriça como sistemas que englobam “modelos de IA gerais altamente capacitados”, incluindo modelos de base, que podem realizar uma ampla gama de tarefas, além de IA específica e estreita.

“Resolvemos trabalhar juntos de maneira inclusiva para garantir IA centrada no ser humano, confiável e responsável, segura e que beneficie a todos por meio de órgãos internacionais existentes e outras iniciativas relevantes”, afirma a Declaração.

“Ao fazer isso, reconhecemos que os países devem considerar a importância de uma abordagem regulatória e de governança proporcional e pró-inovação que maximize os benefícios e leve em consideração os riscos associados à IA.”

Essa abordagem pode incluir o estabelecimento de classificações e categorizações de riscos com base nas circunstâncias locais e nos quadros legais aplicáveis de cada país. Também pode haver a necessidade de cooperação em abordagens inovadoras, como princípios comuns e códigos de conduta.

Também: A IA pode programar? Apenas em pequenos passos.

Os esforços do grupo se concentrarão na construção de políticas baseadas em risco entre os países, colaborando quando apropriado e reconhecendo que as abordagens em nível nacional podem ser diferentes. Ao lado da necessidade de maior transparência por parte de atores privados que estão desenvolvendo capacidades de IA fronteiriça, esses novos esforços incluem o desenvolvimento de métricas e ferramentas de avaliação relevantes para testes de segurança, bem como capacidades do setor público e pesquisa científica.

O Primeiro Ministro do Reino Unido, Rishi Sunak, disse: “Esta é uma conquista histórica que faz com que os maiores poderes de IA do mundo concordem com a urgência de compreender os riscos da IA.”

A Secretária de Tecnologia do Reino Unido, Michelle Donelan, acrescentou: “Sempre dissemos que nenhum país poderia enfrentar os desafios e riscos enfrentados pela IA sozinho, e a Declaração histórica de hoje marca o início de um novo esforço global para construir confiança pública garantindo o desenvolvimento seguro da tecnologia.”

Também foi anunciado nesta semana um projeto liderado por Singapura, conhecido como Sandbox, com o objetivo de fornecer um conjunto padrão de benchmarks para avaliar produtos de IA generativos. A iniciativa reúne recursos de importantes players globais, como Anthropic e Google, e é orientada por um catálogo preliminar que categoriza benchmarks atuais e métodos usados para avaliar grandes modelos de linguagem.

Também: A ética da IA generativa: Como podemos aproveitar essa poderosa tecnologia

O catálogo compila ferramentas de teste técnico comumente usadas, organizando-as de acordo com o que testam e seus métodos, e recomenda um conjunto de testes básicos para avaliar produtos de IA generativos. O objetivo é estabelecer uma linguagem comum e apoiar a “adoção mais ampla, segura e confiável da IA generativa”.

O mês passado, as Nações Unidas (ONU) criaram uma equipe consultiva para estudar como a IA deve ser governada para mitigar riscos potenciais, com um compromisso de adotar uma abordagem “globalmente inclusiva”. O grupo atualmente conta com 39 membros e inclui representantes de agências governamentais, organizações privadas e acadêmicas, como o Oficial de IA do governo de Singapura, o Secretário de Estado de Digitalização e IA da Espanha e o CTO da OpenAI.