Pesquisadores de IA pedem avaliação independente da segurança de IA.

Mais de 200 Pesquisadores de Inteligência Artificial Renomados Reivindicam que Grandes Empresas de Tecnologia Permitam uma Auditoria de Segurança em Seus Produtos de IA

“`html

200 investigadores de IA pedem à OpenAI, Google e Meta que permitam avaliações de segurança.

Investigadores de IA reúnem-se em torno de um ecrã gigante, de costas para o espectador sem rostos visíveis, com símbolos de aviso de 'IA' no ecrã, cinematográfico

Numa jogada audaciosa, mais de 200 dos principais investigadores mundiais de inteligência artificial (IA) assinaram uma carta aberta exigindo que os principais intervenientes na indústria de IA, como a OpenAI, a Meta e o Google, permitam que especialistas externos avaliem e testem independentemente a segurança dos seus modelos e sistemas de IA. Enquanto estas empresas implementaram regras estritas para evitar o uso indevido e abuso das tecnologias de IA, os investigadores argumentam que estas medidas estão a sufocar inadvertidamente a investigação independente crítica destinada a identificar potenciais riscos e vulnerabilidades.

Os signatários proeminentes da carta incluem Percy Liang da Universidade de Stanford, a jornalista vencedora do Prémio Pulitzer Julia Angwin, Renée DiResta do Observatório de Internet de Stanford, a investigadora de ética em IA Deb Raji e o ex-conselheiro governamental Suresh Venkatasubramanian.

Com que preocupações se encontram os investigadores de IA?

Os investigadores de IA estão preocupados que as políticas das empresas implementadas por empresas de IA estejam a ser aplicadas de forma demasiado ampla, levando a um “efeito inibidor” nos auditores. Estas políticas proíbem certos tipos de testes e proíbem violações de direitos de autor ou a geração de conteúdo enganador. Como resultado, os auditores receiam ter as suas contas suspensas ou enfrentar repercussões legais se ultrapassarem os limites ao testar exaustivamente os modelos de IA sem aprovação explícita.

A carta procura advertir as empresas de IA generativa para não seguirem os passos das plataformas de redes sociais, que efetivamente proibiram certos tipos de investigação destinados a responsabilizá-las. Os investigadores argumentam que, em vez de uma abordagem restritiva, as empresas devem fornecer um “porto seguro” que permita uma auditoria responsável. Além disso, propõem o estabelecimento de canais diretos para reportar potenciais vulnerabilidades encontradas durante os testes, em vez de depender de momentos “apanhados” nas redes sociais.

As tensões entre empresas de IA e investigadores externos

Esta carta aberta surge num ambiente de crescentes tensões entre empresas de IA e investigadores externos. A OpenAI, por exemplo, afirmou que as tentativas do The New York Times de investigar questões de direitos de autor no ChatGPT constituíam “hacking”. Já a Meta atualizou os seus termos para ameaçar a revogação do seu mais recente modelo de linguagem se este for usado para infringir propriedade intelectual.

Os investigadores argumentam que o atual ecossistema de supervisão está quebrado, uma vez que os momentos impactantes parecem ser apenas aqueles em que os auditores apanharam as empresas em situações comprometedoras. A carta e a proposta de política que a acompanha visam promover um ambiente mais colaborativo para que os investigadores externos avaliem a segurança e os potenciais riscos dos sistemas de IA que têm um impacto profundo em milhões de consumidores.

Ideograma

P&R

P: Como permitir a avaliação independente beneficiará as empresas de IA?

R: A avaliação independente irá melhorar a transparência e credibilidade das empresas de IA. Ao convidar especialistas externos para avaliar a segurança dos seus modelos e sistemas de IA, estas empresas podem demonstrar o seu compromisso em garantir o uso responsável e ético das tecnologias de IA. Isto constrói confiança entre os consumidores e o público em geral.

P: Quais são alguns potenciais riscos que a avaliação independente pode descobrir?

R: A avaliação independente poderia descobrir vulnerabilidades e potenciais preconceitos nos sistemas de IA, destacar lacunas nas medidas de segurança e identificar consequências não intencionais que possam surgir do uso destas tecnologias. Proporciona uma oportunidade para resolver proativamente esses problemas antes que se tornem problemas significativos.

P: Como podem as empresas encontrar um equilíbrio entre proteger as suas tecnologias de IA e permitir a avaliação independente?

A: As empresas podem encontrar um equilíbrio implementando orientações e protocolos claros para a avaliação independente. Podem fornecer uma estrutura que permita aos auditores conduzir testes rigorosos, ao mesmo tempo que protegem informações sensíveis e propriedade intelectual. Isto garante que os potenciais riscos sejam identificados sem comprometer a vantagem competitiva da empresa.

Analisando o Impacto e os Desenvolvimentos Futuros

A exigência de avaliação independente da segurança da IA levanta questões importantes sobre a responsabilidade e responsabilidade das empresas de IA. Reflete um reconhecimento crescente de que os sistemas de IA não são infalíveis e exigem monitorização e avaliação contínuas para garantir que estejam alinhados com os valores e padrões éticos da sociedade.

“`

Seguindo em frente, é possível que empresas de IA enfrentem uma pressão crescente para tornar suas tecnologias mais transparentes e passar por avaliações externas. Isso poderia levar ao estabelecimento de padrões e regulamentos da indústria que governam a avaliação e teste de sistemas de IA. Além disso, colaborações entre empresas de IA e pesquisadores externos podem se tornar mais comuns para promover transparência, responsabilidade e o desenvolvimento responsável de tecnologias de IA.

Lista de Referências

Obrigado por ler! 🤖✨ Compartilhe suas opiniões sobre este tema importante nos comentários abaixo e não se esqueça de compartilhar este artigo em suas plataformas de mídia social favoritas para iniciar uma discussão entre seus amigos e colegas. Vamos trabalhar juntos para construir um futuro onde a IA seja segura e responsável.