O Google expande programa de recompensa por descoberta de falhas para incluir recompensas por cenários de ataque de inteligência artificial

O Google amplia o programa de recompensas por descoberta de vulnerabilidades para incluir recompensas por cenários de ataques de inteligência artificial

Renderização abstrata em 3D de fios finos e ondulados e partículas formando uma mão

Na segurança cibernética, as ameaças mudam rapidamente. Adicione a isso a tecnologia de IA generativa em rápida evolução e as preocupações com a segurança evoluem a cada minuto. O Google é um dos principais protagonistas na tecnologia de inteligência artificial e reconhece a necessidade de se adaptar a essa ameaça.

O Google está expandindo seu Programa de Recompensas por Vulnerabilidades (VRP), incluindo vulnerabilidades específicas da IA generativa e considerando os desafios únicos que a IA generativa apresenta, como viés, manipulação de modelos, interpretações errôneas de dados e outros ataques adversariais.

Também: Cibersegurança 101: Tudo sobre como proteger sua privacidade e permanecer seguro online

O VRP é um programa de recompensa por bugs que recompensa pesquisadores externos por testar e relatar vulnerabilidades de software nos produtos e serviços do Google. Agora, isso incluirá produtos de IA generativa. Alguns dos produtos de IA generativa mais populares do Google incluem Bard, Lens e outras integrações de IA no Search, Gmail, Docs e outros.

À medida que a IA generativa se integra cada vez mais a diferentes ferramentas e programas do Google, os riscos potenciais aumentam e o Google já possui equipes internas de Confiança e Segurança trabalhando para prever esses riscos. Com a expansão do programa de recompensas por bugs para incluir a IA generativa, o Google está tentando incentivar a pesquisa em segurança da IA para garantir que a IA responsável se torne a norma.

Também: Além das senhas: 4 etapas de segurança importantes que você provavelmente está esquecendo

O Google também forneceu mais informações sobre seus critérios de recompensa por relatar bugs em produtos de IA, para que os usuários possam determinar facilmente o que está dentro e o que não está dentro do escopo.

Pesquisadores externos de segurança têm a tarefa de encontrar essas vulnerabilidades em troca de ganho financeiro, o que por sua vez dá ao Google, a empresa por trás do programa de recompensas por bugs, a oportunidade de corrigir essas ameaças antes que atores mal-intencionados as explorem. Isso garante um produto mais seguro para os usuários.

Além de incluir a IA generativa em seu VRP, o Google introduziu o Framework de IA Segura para apoiar a criação de aplicativos de IA responsáveis ​​e seguros. Ele também anunciou que está colaborando com a Open Source Security Foundation para garantir a integridade das cadeias de suprimentos de IA.

Também: WormGPT: O que saber sobre o primo malicioso do ChatGPT

Usuários que desejam participar do programa de caça a bugs do Google podem enviar um bug ou vulnerabilidade de segurança diretamente para a empresa. Em 2022, o Google emitiu mais de $12 milhões em recompensas para pesquisadores de segurança como parte de seu programa de caça a bugs.