Gigantes da IA se comprometem a permitir investigações externas de seus algoritmos, sob um novo pacto da Casa Branca

AI giants commit to allowing external investigations of their algorithms, under a new White House pact

A Casa Branca fechou um acordo com grandes desenvolvedores de IA, incluindo Amazon, Google, Meta, Microsoft e OpenAI, que os comprometem a tomar medidas para evitar que modelos de IA prejudiciais sejam lançados no mundo.

No âmbito do acordo, que a Casa Branca chama de “compromisso voluntário”, as empresas se comprometem a realizar testes internos e permitir testes externos de novos modelos de IA antes que sejam lançados publicamente. O teste buscará problemas, incluindo saídas tendenciosas ou discriminatórias, falhas de segurança cibernética e riscos de danos sociais mais amplos. As startups Anthropic e Inflection, ambas desenvolvedoras de rivais notáveis ​​do ChatGPT da OpenAI, também participaram do acordo.

“As empresas têm o dever de garantir que seus produtos sejam seguros antes de apresentá-los ao público, testando a segurança e a capacidade de seus sistemas de IA”, disse Ben Buchanan, assessor especial da Casa Branca para IA, em entrevista coletiva ontem. Os riscos que as empresas foram solicitadas a observar incluem violações de privacidade e até mesmo contribuições potenciais para ameaças biológicas. As empresas também se comprometeram a relatar publicamente as limitações de seus sistemas e os riscos de segurança e sociedade que eles podem representar.

O acordo também diz que as empresas irão desenvolver sistemas de marca d’água que facilitem a identificação de áudio e imagens geradas por IA. A OpenAI já adiciona marcas d’água às imagens produzidas por seu gerador de imagens Dall-E, e o Google disse que está desenvolvendo tecnologia semelhante para imagens geradas por IA. Ajudar as pessoas a discernir o que é real e o que é falso é uma questão crescente, já que as campanhas políticas parecem estar recorrendo à IA generativa antes das eleições nos EUA em 2024.

Os avanços recentes em sistemas de IA generativa que podem criar texto ou imagens desencadearam uma nova corrida armamentista de IA entre empresas que estão adaptando a tecnologia para tarefas como busca na web e redação de cartas de recomendação. Mas os novos algoritmos também geraram preocupações renovadas sobre a IA reforçar sistemas sociais opressivos, como sexismo ou racismo, impulsionar desinformação eleitoral ou se tornar ferramentas para crimes cibernéticos. Como resultado, reguladores e legisladores em muitas partes do mundo, incluindo Washington, DC, aumentaram os pedidos de nova regulamentação, incluindo requisitos para avaliar a IA antes da implantação.

Não está claro o quanto o acordo mudará a forma como as principais empresas de IA operam. Já é comum as empresas de tecnologia contrataram pessoas para trabalhar em políticas e testes de IA, devido à crescente conscientização sobre os potenciais efeitos negativos da tecnologia. O Google possui equipes que testam seus sistemas e divulga algumas informações, como os casos de uso pretendidos e as considerações éticas para determinados modelos de IA. A Meta e a OpenAI às vezes convidam especialistas externos para tentar quebrar seus modelos em uma abordagem chamada de red-teaming.

“Guiadas pelos princípios duradouros de segurança, segurança e confiança, os compromissos voluntários abordam os riscos apresentados por modelos avançados de IA e promovem a adoção de práticas específicas, como testes de red teaming e a publicação de relatórios de transparência, que impulsionarão todo o ecossistema”, disse Brad Smith, presidente da Microsoft, em uma postagem no blog.

Os riscos sociais potenciais pelos quais o acordo compromete as empresas a observar não incluem a pegada de carbono do treinamento de modelos de IA, uma preocupação que agora é comumente citada em pesquisas sobre o impacto de sistemas de IA. A criação de um sistema como o ChatGPT pode exigir milhares de processadores de computador de alta potência, funcionando por longos períodos de tempo.

Andrew Burt, sócio-gerente do escritório de advocacia BNH, especializado em IA, diz que os riscos potenciais de sistemas de IA generativa estão se tornando claros para todos os envolvidos com a tecnologia. A Comissão Federal de Comércio iniciou uma investigação sobre as práticas comerciais da OpenAI na semana passada, alegando que a empresa participou de “práticas de privacidade ou segurança de dados injustas ou enganosas”.

A estipulação do acordo da Casa Branca de que as empresas devem encomendar avaliações externas de sua tecnologia acrescenta evidências de que as auditorias externas estão se tornando “a principal forma de supervisão governamental para sistemas de IA”, diz Burt.

A Casa Branca também promoveu o uso de auditorias na Carta de Direitos de IA voluntária emitida no ano passado e está apoiando um concurso de hackers centrado em modelos de IA generativa na conferência de segurança Defcon do próximo mês. As auditorias também são um requisito do amplo Ato de IA da UE, que está sendo finalizado atualmente.

Jacob Appel, estrategista-chefe da ORCAA, uma empresa que audita algoritmos para negócios e governos, diz que o acordo é bem-vindo, mas avaliações gerais de grandes modelos de linguagem, como os que estão por trás do ChatGPT, são insuficientes. Casos de uso específicos de alto risco de IA, como um chatbot ajustado para gerar conselhos médicos ou jurídicos, devem receber suas próprias avaliações personalizadas, diz ele. E os sistemas de empresas menores também precisam ser examinados.

O presidente Joe Biden se reunirá hoje na Casa Branca com executivos das empresas que aderiram ao novo acordo de IA, incluindo o CEO da Anthropic, Dario Amodei, o presidente da Microsoft, Brad Smith, e o CEO da Inflection AI, Mustafa Suleyman. Sua administração também está desenvolvendo uma ordem executiva para governar o uso de IA por meio de ações de agências federais, mas a Casa Branca não deu um prazo específico para o seu lançamento.

Atualizado em 21/07/2023, às 14h20 EDT: Este artigo foi atualizado com comentários de Jacob Appel na ORCAA.