Três pesquisadores britânicos usaram inteligência artificial para identificar texto a partir do som do teclado.
Três pesquisadores britânicos usaram inteligência artificial para identificar texto a partir do som do teclado. A precisão do programa é de 95% quando a gravação é feita por um microfone próximo à pessoa que digita, segundo dados do estudo conduzido pelas universidades de Durham, Surrey e Royal Halloway.
Os professores britânicos alertam para o risco de pessoas mal-intencionadas usarem a técnica de interceptação do teclado para roubar senhas e também bisbilhotar informações sensíveis.
Técnicas de espionagem que envolvem a interpretação de sinais emitidos por um aparelho são chamadas de ataques de canal lateral (SCAs, na sigla em inglês). O interceptador pode captar ondas eletromagnéticas, consumo de bateria, sensores móveis e também sons.
Os ataques de canal lateral são conhecidos. Já decodificaram com êxito processadores Intel, impressoras e a máquina Enigma --aquela interceptada pelo pai da computação Alan Turing, como mostra o filme "O Jogo da Imitação" (2014).
O que a pesquisa britânica --divulgada em pré-print (ainda sem a revisão por pares)-- mostra é que avanços em aprendizado de máquina aumentam o desempenho das técnicas de interpretação de sons.
Para fazer a análise, os pesquisadores primeiramente definiram o desenho da onda sonora e depois usaram uma técnica matemática para transformá-la em um sinal. A IA, então, consegue receber esses sinais e sugerir as palavras mais prováveis.
Já era possível detectar o que era digitado em teclados mecânicos --e barulhentos. O novo estudo testou teclados de notebook, que, embora mais silenciosos, têm estruturas parecidas e, durante o uso, emitem sons semelhantes, o que facilitaria a reprodução da técnica de interceptação, segundo os autores.
Ainda assim, é muito difícil conseguir o mesmo resultado em teclados diferentes, segundo o professor de ciência da computação da USP Marcelo Finger, que já desenvolveu IAs que detectavam padrões com base em amostras de som.
Senhas que contenham palavras inteiras são mais vulneráveis a ataques com inteligência artificial. Mesmo que o modelo entenda errado o significado de uma tecla, as IAs podem corrigir vocábulos por funcionarem com predição de palavras conhecidas --ou seja, indicando a próxima palavra mais provável--, de acordo com Eerke Boiten, professor da Universidade de Leicester.
Finger afirma que a inteligência artificial deve acertar mais em trechos maiores de digitação, pela característica estatística de seu funcionamento. O algoritmo tem mais informações com que trabalhar e para corrigir as teclas erradas.
Outro fator de risco é que a proliferação de dispositivos digitais aumenta os microfones nas ruas e nas casas e, com isso, cresce a chance de haver gravações com a qualidade necessária para a interpretação com maior fidelidade.
Smartphones, assistentes pessoais --como Alexas--, smartwatches e até lâmpadas inteligentes, em alguns casos, podem gravar áudio. Os objetos mais simples são os mais vulneráveis a ciberataques.
De acordo com a empresa de tecnologia Ericsson, é difícil se proteger de ataques de canais laterais, uma vez que a estratégia explora características físicas dos aparelhos. Uma forma de proteção é o uso, pelos fabricantes de eletroeletrônicos, de estratégias para confundir os sinais emitidos pelos dispositivos.
No caso do Zoom, o algoritmo do estudo britânico consegue acertar 93% do que foi digitado --abaixo da precisão máxima do programa. Um filtro contra ruído no aplicativo dificulta a diferenciação do som das teclas.
A tecnologia corta parte das ondas de som, que são transformadas em código inteligível pela inteligência artificial. Para contornar essa barreira, os cientistas britânicos solucionaram o problema com uma técnica chamada aumento de dados.
A partir dos padrões registrados com o som gravado em microfone e de operações matemáticas, os pesquisadores conseguem preencher os trechos cortados pelo filtro. O aumento de dados também serviu para treinar o modelo de aprendizado de máquina com informações virtuais.
A pesquisa foi iniciada pelo pesquisador Joshua Harrison, da Universidade de Durham, e teve como coautores os professores Ehsan Toreini, da Universidade de Surrey, e Maryan Mehrnezhad, da Royal Holloway University of London.
"Nosso trabalho joga luz a uma nova forma de ataque virtual possível com machine learning [treinamento de programas a partir de exemplos]", diz Toreini, que orientou a elaboração do artigo. Em pesquisa de cibersegurança, é comum testar brechas antes que criminosos as explorem.
Finger, da USP, afirma que o estudo ainda precisa ser reproduzido por outros cientistas para ter seus números testados. "Mas a metodologia faz sentido."