A OpenAI está construindo uma rede de equipes de segurança para lidar com a segurança da IA – e você pode se inscrever.

A OpenAI está construindo uma rede de equipes de segurança para lidar com a segurança da IA - inscreva-se agora.

ChatGPT da OpenAI acumulou mais de 100 milhões de usuários globalmente, destacando tanto os casos de uso positivos para a IA quanto a necessidade de mais regulamentação. A OpenAI está agora montando uma equipe para ajudar a construir modelos mais seguros e robustos.

Na terça-feira, a OpenAI anunciou o lançamento da sua Rede de Testes Vermelhos da OpenAI, composta por especialistas que podem ajudar a fornecer insights para informar as estratégias de avaliação de riscos e mitigação da empresa para implantar modelos mais seguros.

Também: Todas as novidades de IA da Amazon que você precisa saber hoje

Esta rede transformará a forma como a OpenAI conduz suas avaliações de riscos em um processo mais formal, envolvendo várias etapas do ciclo de desenvolvimento do modelo e do produto, em vez de “engajamentos pontuais e processos de seleção antes de implantações importantes do modelo”, de acordo com a OpenAI.

A OpenAI está buscando especialistas de diferentes áreas para compor a equipe, incluindo expertise em educação, economia, direito, idiomas, ciência política e psicologia, para citar apenas algumas.

Também: Como usar o ChatGPT para pesquisas acadêmicas, apresentações, estudos e muito mais

No entanto, a OpenAI afirma que experiência prévia com sistemas de IA ou modelos de linguagem não é necessária.

Os membros serão compensados pelo seu tempo e estarão sujeitos a acordos de não divulgação (NDAs). Como eles não estarão envolvidos em cada novo modelo ou projeto, fazer parte da equipe de testes vermelhos pode exigir um compromisso de tempo de apenas cinco horas por ano. Você pode se candidatar para fazer parte da rede através do site da OpenAI.

Além das campanhas de testes vermelhos da OpenAI, os especialistas podem interagir entre si sobre “práticas e descobertas de testes vermelhos em geral”, de acordo com o post do blog.

Também: A Amazon está transformando a Alexa em um ChatGPT sem as mãos

“Esta rede oferece uma oportunidade única de moldar o desenvolvimento de tecnologias e políticas de IA mais seguras, e o impacto que a IA pode ter na forma como vivemos, trabalhamos e interagimos”, diz a OpenAI.

Os testes vermelhos são um processo essencial para testar a eficácia e garantir a segurança de tecnologias mais recentes. Outros gigantes da tecnologia, incluindo Google e Microsoft, têm equipes de testes vermelhos dedicadas para seus modelos de IA.