Novo ataque de IA pode roubar dados ouvindo as teclas digitadas

New AI attack can steal data by listening to keystrokes

Uma equipe de pesquisadores do Reino Unido treinou um modelo de aprendizado profundo para interpretar keystrokes remotamente baseado apenas em áudio.

Ao gravar keystrokes para treinar o modelo, eles foram capazes de prever o que foi digitado no teclado com até 95% de precisão. Essa precisão caiu para 93% ao usar o Zoom para treinar o sistema.

De acordo com a nova pesquisa, isso significa que informações sensíveis, como senhas e mensagens, podem ser interpretadas por qualquer pessoa que esteja dentro do alcance do som de alguém digitando em seu laptop, seja gravando pessoalmente ou virtualmente por meio de uma chamada de vídeo.

Esses chamados ataques acústicos de canal lateral se tornaram muito mais simples nos últimos anos devido à abundância de dispositivos com microfone, como smartphones, que podem capturar áudio de alta qualidade.

Combinado com os avanços rápidos em aprendizado de máquina, isso torna esses tipos de ataques viáveis ​​e muito mais perigosos do que se pensava anteriormente. Basicamente, você poderia hackear informações sensíveis armado apenas com um microfone e um algoritmo de aprendizado de máquina.

“A ubiquidade das emissões acústicas do teclado as torna não apenas um vetor de ataque prontamente disponível, mas também leva as vítimas a subestimar (e, portanto, não tentar ocultar) sua saída”, disseram os pesquisadores. “Por exemplo, ao digitar uma senha, as pessoas geralmente ocultam sua tela, mas fazem pouco para obscurecer o som do teclado.”

A equipe realizou o teste usando um MacBook Pro. Eles pressionaram 36 teclas individuais 25 vezes cada uma. Isso foi a base para o modelo de aprendizado de máquina reconhecer a qual caractere está associado a qual som de keystroke.

Essas informações foram gravadas tanto por meio de um telefone em proximidade física próxima ao laptop quanto pelo Zoom. Houve diferenças sutis suficientes nas formas de onda produzidas pela gravação para reconhecer cada tecla com um grau impressionante de precisão.

Para evitar que alguém hackeie seus keystrokes, os pesquisadores recomendam alterações no estilo de digitação, o uso de senhas randomizadas em vez de senhas contendo palavras completas, adicionar keystrokes falsos gerados aleatoriamente para ataques baseados em chamadas de voz e usar ferramentas biométricas, como impressão digital ou reconhecimento facial.