As maiores tendências de IA em segurança cibernética

Principais tendências de IA em segurança cibernética

A inteligência artificial não é algo novo para a indústria de cibersegurança. A IA, mais precisamente descrita na maioria dos casos como aprendizado de máquina, tem sido usada há anos para detectar ameaças potenciais aos sistemas de computador, para que pessoas reais possam agir, se necessário.

Remontando muito antes da pandemia, empresas de cibersegurança, tanto grandes quanto pequenas, anunciavam seus mais recentes avanços em IA nos pisos das feiras de negócios de conferências como o encontro anual da Black Hat em Las Vegas, Nevada. As empresas prometiam que suas soluções mais recentes parariam hackers maliciosos em seus passos antes que pudessem causar qualquer dano.

Como alguém que já foi à Black Hat mais vezes do que gostaria de admitir, eu quase automaticamente revirava os olhos com a menção disso. Isso porque grande parte disso era apenas marketing, projetado para atrair executivos e fazer com que eles gastassem os orçamentos de TI de suas empresas. As alegações de IA ainda eram tão comuns quanto camisetas grátis nos estandes deste ano, mas mais empresas pareciam ter a tecnologia para comprová-las.

A IA assume o centro do palco

O surgimento da IA generativa e de grandes modelos linguísticos como o ChatGPT colocou a IA em destaque público e colocou suas ferramentas poderosas, ou armas, dependendo de como você olha para isso, nas mãos de pessoas, grupos criminosos e estados-nação que não as tinham antes.

Nem começamos a ver as incríveis inovações que podem surgir da IA, mas a extensão de seu lado sombrio ainda é desconhecida, diz Dan Schiappa, diretor de produto da empresa de cibersegurança Arctic Wolf.

O que está claro, segundo ele, é que, assim como ocorreu com ransomware e kits de malware alguns anos atrás, as ferramentas de hacking de IA estão começando a ficar disponíveis online, o que inevitavelmente as coloca nas mãos de um número desconhecido de cibercriminosos menos sofisticados que, de outra forma, não seriam capazes de realizar ataques cibernéticos com IA.

“Então, eu não preciso construir a IA, não preciso ser a pessoa inteligente que pode criá-la, só preciso ser uma pessoa mal-intencionada que pode pagar alguém para usá-la”, disse Schiappa, em uma entrevista na conferência Black Hat deste ano.

Essa acessibilidade repentina marca um grande ponto de virada para a indústria de cibersegurança e será um foco importante para o futuro, à medida que treina e utiliza seus próprios sistemas de IA para fins de defesa, diz ele, acrescentando que ele prevê um dia em que até mesmo os cibercriminosos menos sofisticados serão capazes de lançar “ataques totalmente autônomos” em seus alvos.

Os funcionários do governo também veem a necessidade de se preparar para esse dia. Na Black Hat deste ano, funcionários da Defense Advanced Research Projects Agency anunciaram o lançamento do AI Cyber Challenge, uma competição de dois anos com o objetivo de criar sistemas de cibersegurança de IA de última geração projetados para proteger a infraestrutura crítica do país. Gigantes da IA, incluindo a OpenAI, criadora do ChatGPT, Google e Microsoft, aderiram à competição.

As cinco melhores equipes, que receberão US$ 2 milhões cada, participarão das semifinais na Defcon do próximo ano, e os vencedores serão anunciados no evento de 2025. O primeiro lugar ganha um prêmio de US$ 4 milhões.

Enquanto isso, líderes globais também estão falando sobre a necessidade de entender ambos os lados do potencial da IA, além de eventualmente regulamentar seu uso antes que a tecnologia se desenvolva e evolua para além do ponto em que isso seja possível.

Eles estão consultando especialistas em IA sobre como isso deve ser feito, diz Jeff Moss, o hacker que fundou as conferências Black Hat e Defcon.

“Acho que o que vai acontecer é que, daqui para frente, não apenas teremos um lugar na primeira fila, mas também poderemos brincar com a tecnologia”, disse Moss ao se dirigir a uma multidão de participantes no início da Black Hat.

Por isso, apesar das ameaças que a IA representa para a cibersegurança, ela também deve ser vista como uma oportunidade única, diz ele.

“Existem oportunidades para nós, como indústria, nos envolvermos e ajudarmos a direcionar o futuro, e isso é algo bem novo.”

IA como arma

Qualquer pessoa que tenha usado um sistema de IA disponível publicamente pode dizer que não é difícil fazê-los se comportarem mal. Por exemplo, enquanto o ChatGPT educadamente se recusará se você pedir para ele escrever um e-mail de phishing, ele irá gerar alegremente e-mails se passando por um departamento de folha de pagamento solicitando o envio de dinheiro, ou por um departamento de TI exigindo a instalação de uma atualização de software.

Tudo se resume a fazer as perguntas certas para a IA ultrapassar essas barreiras de proteção, mas imagine um grande modelo linguístico sem essas restrições. Especialistas se preocupam que a IA possibilite operações de phishing em grande escala altamente personalizadas e altamente convincentes.

Esses golpes alimentados por IA podem facilmente ir além do phishing comum por e-mail e se estender a ataques mais avançados envolvendo deepfakes de áudio e vídeo, que fazem parecer que uma pessoa está fazendo ou dizendo algo que não está, segundo Nicole Eagan, uma das co-fundadoras da DarkTrace. A empresa começou há uma década em Cambridge, Inglaterra, como uma organização de pesquisa em IA. Agora, ela utiliza a tecnologia em suas operações de cibersegurança.

Eagan, que agora atua como diretora de estratégia e inteligência artificial da empresa, diz que as ferramentas de inteligência artificial de código aberto necessárias para esses tipos de ataques estão prontamente disponíveis, é apenas uma questão de os golpistas obterem áudio ou vídeo suficiente com a pessoa que estão tentando imitar.

Isso pode representar um risco para todos, desde CEOs que aparecem frequentemente na TV até adolescentes que postam vídeos no TikTok, diz ela.

Schiappa, da Arctic Wolf, concorda, dizendo que, embora a maioria dos deepfakes atualmente existentes sejam relativamente fáceis de identificar, será cada vez mais difícil distinguir a diferença entre algo gerado por inteligência artificial e algo real.

“Pense nos gráficos de computador em um jogo de vídeo há 10 anos”, ele disse. “Daqui a 10 anos, quem sabe o quão boa será a IA?”

Mais do que algumas apresentações da Black Hat e Defcon deram uma visão do que está por vir, demonstrando em tempo real como a voz de uma pessoa ou até mesmo sua imagem de vídeo poderiam ser falsificadas de forma convincente usando principalmente ferramentas de código aberto e amostras mínimas de áudio e vídeo.

A DarkTrace, que se tornou uma empresa multinacional de bilhões de dólares, ainda opera laboratórios de pesquisa em Cambridge, onde abriga sua própria IA ofensiva que usa para treinar e fortalecer sua IA defensiva. Quanto mais as duas versões são confrontadas uma com a outra, mais elas aprendem e melhoram no que fazem, diz Eagan.

A empresa também pode liberar a IA ofensiva em seus clientes em simulações. Ela fará coisas como se inserir em conversas de e-mail e reuniões do Microsoft Teams de maneiras plausíveis, diz Eagan. A ideia não é enganar as empresas, apenas mostrar onde elas precisam melhorar.

Leia mais:

  • É assustadoramente fácil usar o ChatGPT para escrever e-mails de phishing
  • A Norton diz que seu aplicativo Genie detectará e interromperá golpes online
  • Uma IA me ajudou a encontrar tênis de corrida para a Maratona de Nova York. Veja como funcionou
  • A OpenAI quer que seu novo ChatGPT seja seu ‘assistente de IA para o trabalho’

Quebrando os sistemas

Fazer parte da construção do futuro significa garantir que os sistemas de IA legítimos estejam devidamente seguros. E, assim como outros tipos de tecnologia, uma das melhores maneiras de garantir isso é procurar maneiras de quebrá-lo e corrigir essas vulnerabilidades antes que possam ser exploradas por criminosos.

Essa foi a missão dos hackers que passaram seu tempo na AI Village do Defcon, um evento de fim de semana. Eles fizeram o possível para encontrar falhas na segurança de sistemas de IA conhecidos, com a aprovação das empresas e da administração Biden.

Os hackers fizeram o possível para fazer com que versões não rotuladas de LLMs como ChatGPT e Bard do Google fizessem coisas como espalhar desinformação ou tingir o conteúdo que criaram com um viés específico.

Embora a AI Village exista há vários anos, este ano ela estava cheia até a borda, como era de se esperar, graças à enorme quantidade de buzz em torno da tecnologia de IA.

Enquanto isso, na Black Hat, pesquisadores da startup de cibersegurança HiddenLayer demonstraram para a mídia e potenciais clientes como a IA poderia ser usada para hackear sistemas bancários online. Em um caso, eles usaram software de IA para fazer com que seu banco fictício aprovasse um pedido de empréstimo fraudulento. Toda vez que o pedido de IA era rejeitado, ele aprendia com a tentativa e ajustava o que enviava até ser aceito.

Os pesquisadores também mostraram como o bot alimentado pelo ChatGPT do banco poderia ser enganado para fornecer informações confidenciais da empresa, apenas pedindo para mudar para o modo interno e solicitar uma lista de contas financeiras.

Embora, admitidamente, essa seja uma simplificação excessiva de como sistemas como esses funcionam, Tom Bonner, vice-presidente de pesquisa da empresa, diz que isso mostra a importância de manter os chatbots de IA separados de informações sensíveis, acrescentando que ataques como esse, onde os chatbots são efetivamente dominados, já estão acontecendo.

“De repente, essas coisas desmoronam rapidamente”, ele disse. “Ou elas vazam informações confidenciais, ou são constrangedoras, ou podem dizer que malware é seguro. Há muitas consequências potenciais.”

As implicações de segurança e privacidade de possíveis vazamentos de dados relacionados à IA também são uma grande preocupação para Nick Adams, sócio-fundador da Differential Ventures, que investe em empresas de IA. Assim como no exemplo do chatbot da HiddenLayer, uma vez que os dados são inseridos em grandes modelos de linguagem como o ChatGPT, não há como prever onde eles podem sair.

Isso, Adams diz, poderia colocar em risco desde segredos comerciais corporativos até a privacidade do consumidor, tornando imperativo que governos ao redor do mundo comecem a regular o que as empresas podem ou não fazer com a IA.

No entanto, não está claro como isso poderia ser realmente aplicado. Os algoritmos internos dos sistemas de IA, como o ChatGPT, são efetivamente caixas-pretas, diz ele.

“Acredito que seja muito difícil aplicar qualquer tipo de regulamentação de privacidade de dados quando não se tem visibilidade alguma”, disse Adams em uma entrevista antes do Black Hat.

Um olhar para o futuro

Outros profissionais de cibersegurança dizem que a maior ajuda da IA para a indústria pode vir na forma de solucionar a escassez de mão de obra que há muito tempo os assola. Não há profissionais qualificados o suficiente para preencher todas as vagas de emprego em cibersegurança disponíveis.

Além disso, muitas organizações que podem ser alvos de ciberataques, como municípios, pequenas empresas, organizações sem fins lucrativos e escolas, não têm recursos financeiros suficientes para contratá-los, mesmo se conseguirem encontrar alguém qualificado.

Se a IA puder identificar ameaças potenciais, isso libera os analistas para avaliá-las e agir se necessário, diz Juan Andrés Guerrero-Saade, diretor sênior da SentinelLabs na empresa de cibersegurança SentinelOne.

Além disso, embora os sistemas de IA possam se mostrar uma ferramenta importante para treinar mais profissionais de cibersegurança, ajudando-os a aprender a fazer coisas como engenharia reversa e desmontagem de código, ele observa que, fora de algumas universidades, não existem muitos programas de nível básico sólidos para ingressar na área de cibersegurança.

Em sua própria vida profissional, Guerrero-Saade ministra aulas de cibersegurança para estudantes de outras áreas na Universidade Johns Hopkins e diz que os sistemas de IA têm sido uma ferramenta fundamental para seus alunos aprenderem a entender e escrever código.

Embora os sistemas de IA estejam longe de ser perfeitos, ignorar o que a IA poderia contribuir para a cibersegurança seria “jogar o bebê fora com a água do banho”, ele disse.

“Existem usos genuínos para a IA na cibersegurança que são incríveis”, ele disse. “Eles apenas têm sido negligenciados porque estamos tão focados em bobagens.”