Os Estados Unidos e outras 30 nações concordam em estabelecer limites para a IA militar

Estados Unidos e outras 30 nações se unem para estabelecer regulamentos para a utilização da inteligência artificial em operações militares

Quando políticos, executivos de tecnologia e pesquisadores se reuniram no Reino Unido na semana passada para discutir os riscos da inteligência artificial, uma preocupação proeminente era que os algoritmos pudessem, um dia, se voltar contra seus mestres humanos. Mais discretamente, o grupo avançou no controle do uso da IA para fins militares.

No dia 1º de novembro, na embaixada dos EUA em Londres, a vice-presidente dos EUA, Kamala Harris, anunciou uma série de iniciativas de IA, e seus avisos sobre a ameaça que a IA representa para os direitos humanos e valores democráticos captaram a atenção das pessoas. Mas ela também revelou uma declaração assinada por 31 nações para estabelecer salvaguardas em torno do uso militar da IA. Ela compromete os signatários a realizar revisões legais e treinamentos para garantir que a IA militar esteja dentro das leis internacionais, desenvolver a tecnologia de forma cautelosa e transparente, evitar viéses não intencionais em sistemas que usam IA e continuar discutindo como a tecnologia pode ser desenvolvida e implantada de forma responsável.

“Uma abordagem fundamentada para o uso militar da IA deve incluir uma consideração cuidadosa dos riscos e benefícios, além de minimizar viéses e acidentes não intencionais”, diz a declaração. Ela também afirma que os estados devem implementar salvaguardas nos sistemas de IA militar, como a capacidade de interromper ou desativar quando um sistema demonstra “comportamento não intencional”.

A declaração não é juridicamente vinculativa, mas é o primeiro grande acordo entre nações para impor salvaguardas voluntárias sobre a IA militar. No mesmo dia, as Nações Unidas anunciaram uma nova resolução da Assembleia Geral que pede um estudo aprofundado sobre armas autônomas letais e poderia estabelecer os termos para restrições a tais armas.

Lauren Kahn, analista de pesquisa sênior do Centro de Segurança e Tecnologia Emergente (CSET) da Universidade de Georgetown, chama a declaração liderada pelos EUA de “incrivelmente significativa”. Ela diz que poderia oferecer um caminho prático para um acordo internacional vinculativo sobre as normas de como as nações desenvolvem, testam e implantam a IA em sistemas militares, fornecendo maiores salvaguardas e transparência em aplicações envolvendo sistemas de armas. “Eu realmente acredito que esses são acordos de bom senso que todos concordariam”, diz Kahn.

A declaração não vinculativa foi redigida inicialmente pelos EUA após uma conferência com representantes de diferentes nações que se concentrou no uso militar da IA e ocorreu em Haia em fevereiro. Os EUA também pediram a outras nações que concordassem que os humanos permaneçam no controle das armas nucleares. A nova declaração afirma que as nações por trás dela se reunirão no início de 2024 para continuar as discussões.

A vice-presidente Harris anunciou durante seu discurso em Londres que a declaração agora foi assinada por nações alinhadas aos EUA, como o Reino Unido, Canadá, Austrália, Alemanha e França. Os 31 signatários não incluem China nem Rússia, que, junto com os EUA, são considerados líderes no desenvolvimento de sistemas de armas autônomas. A China se juntou aos EUA ao assinar uma declaração sobre os riscos representados pela IA como parte da Cúpula de Segurança da IA coordenada pelo governo britânico.

A discussão sobre a IA militar muitas vezes evoca a ideia de armas alimentadas por IA capazes de decidir por si mesmas quando e como usar força letal. Os EUA e várias outras nações resistiram a pedidos de uma proibição total a tais armas, mas a política do Pentágono é que sistemas autônomos devem permitir que “comandantes e operadores exerçam níveis apropriados de julgamento humano sobre o uso da força.” As discussões sobre o assunto como parte da Convenção das Nações Unidas sobre Certas Armas Convencionais — estabelecida em 1980 para criar regras internacionais sobre o uso de armas consideradas excessivas ou indiscriminadas por natureza — têm se estagnado em grande parte.

A declaração liderada pelos EUA anunciada na semana passada não vai tão longe a ponto de buscar uma proibição de qualquer uso específico de IA no campo de batalha. Em vez disso, ela se concentra em garantir que a IA seja usada de maneiras que garantam transparência e confiabilidade. Isso é importante, diz Kahn, porque os militares estão buscando aproveitar a IA de várias maneiras. Mesmo que restrita e devidamente supervisionada, a tecnologia ainda pode ter efeitos desestabilizadores ou perigosos.

Uma preocupação é que um sistema de IA com mau funcionamento possa fazer algo que desencadeie uma escalada nas hostilidades. “O foco em armas autônomas letais é importante”, diz Kahn. “Ao mesmo tempo, o processo tem sido dificultado por esses debates, que estão focados exclusivamente em um tipo de sistema que ainda não existe.”

Algumas pessoas ainda estão trabalhando para proibir armas autônomas letais. No mesmo dia em que Harris anunciou a nova declaração sobre IA militar, o Primeiro Comitê da Assembleia Geral da ONU, um grupo de nações que trabalha em desarmamento e proliferação de armas, aprovou uma nova resolução sobre armas autônomas letais.

A resolução pede um relatório sobre os desafios “humanitários, legais, de segurança, tecnológicos e éticos” levantados por armas autônomas letais e a contribuição de organizações internacionais e regionais, o Comitê Internacional da Cruz Vermelha, a sociedade civil, a comunidade científica e a indústria. Uma declaração emitida pela ONU citou o representante do Egito dizendo que “um algoritmo não deve ter controle total sobre decisões que envolvam matar ou prejudicar seres humanos”, após a votação.

“É um momento emocionante e monumental”, diz Anna Hehir, gerente de programa de sistemas autônomos de armas no Future of Life Institute, uma organização sem fins lucrativos que faz campanha por uma proibição total de sistemas autônomos letais que visam humanos. “É um grande passo em direção a um instrumento legalmente vinculativo, que o Secretário-Geral da ONU pediu para que aconteça até 2026.”

Militares ao redor do mundo há muito tempo estão interessados ​​em IA, mas a implantação rápida de novas tecnologias no campo de batalha na Ucrânia levou a um interesse renovado dos EUA e de outros países. O Pentágono está experimentando a incorporação de IA em sistemas menores e mais baratos como uma forma de aumentar sua capacidade de detectar ameaças e reagir rapidamente.

“Os sistemas que estamos começando a ver na Ucrânia são sem precedentes – é uma tecnologia que ainda não vimos antes”, diz Hehir sobre o uso generalizado de drones no conflito, incluindo alguns com IA para identificar alvos. “Definitivamente, é um playground para testar diferentes tecnologias.”

O ChatGPT ainda não parece ter sido convocado para o serviço militar, mas o recente florescimento da tecnologia de chatbots parece ter provocado um debate renovado e mais sério em torno dos riscos da IA militar. “A declaração política e a votação da ONU significam uma mudança bastante significativa no debate sobre armas autônomas nos últimos anos”, diz Paul Scharre, especialista em armas autônomas e diretor de estudos do Center for New American Security (CNAS), um centro de estudos em Washington, DC.

Algumas armas autônomas já existem, incluindo sistemas defensivos a bordo de navios de guerra que podem abater automaticamente mísseis entrantes. Mas houve apenas alguns relatos de uso potencial de sistemas letais que incorporam IA moderna em guerra. Um drone implantado durante a guerra civil na Líbia em 2020 por forças apoiadas pelo governo em Trípoli pode ter usado força letal contra soldados sem controle humano, de acordo com um relatório da ONU de 2021. Também há alguns relatos de drones autônomos letais sendo desenvolvidos para as forças ucranianas que tentam repelir a nova invasão russa. A Rússia está entre as nações que discordaram da nova resolução da ONU, dizendo que o acordo minaria o trabalho existente sobre autonomia sob a Convenção de Certas Armas Convencionais.