Pesquisadores da Universidade de Michigan e da Universidade de Osaka
O ataque é baseado no uso
O ataque afeta microfones eletromecânicos usados em dispositivos modernos (
Entre os dispositivos de consumo testados quanto à suscetibilidade ao problema estão vários modelos de Google Home, Google NEST, Amazon Echo, Echo Plus/Spot/Dot, Facebook Portal Mini, Fire Cube TV, EchoBee 4, iPhone XR, iPad 6ª geração, Samsung Galaxy S9 e Google Pixel 2, também fechaduras inteligentes e sistemas de controle de voz para carros Tesla e Ford. Usando o método de ataque proposto, você pode simular a emissão de um comando para abrir a porta de uma garagem, fazer compras online, tentar adivinhar o código PIN para acessar uma fechadura inteligente ou ligar um carro que suporte controle de voz.
Na maioria dos casos, uma potência de laser de 50 mW é suficiente para realizar um ataque a uma distância superior a 60. Para realizar o ataque, foram usados um apontador laser de US$ 14 a US$ 18, um driver de laser Wavelength Electronics LD5CHA de US$ 339, um amplificador de áudio Neoteck NTK059 de US$ 28 e uma lente telefoto Opteka 650-1300mm de US$ 200. Para focar com precisão o feixe a uma grande distância do dispositivo, os experimentadores usaram um telescópio como mira óptica. A curta distância, em vez de um laser, uma fonte de luz brilhante e desfocada, como
Um ataque normalmente não requer simulação da voz do proprietário, já que o reconhecimento de voz costuma ser utilizado na fase de acesso ao dispositivo (autenticação pronunciando “OK Google” ou “Alexa”, que pode ser gravado antecipadamente e depois usado para modular o sinal durante um ataque). As características de voz também podem ser falsificadas por ferramentas modernas de síntese de fala baseadas em aprendizado de máquina. Para bloquear o ataque, os fabricantes são incentivados a usar canais adicionais de autenticação do usuário, usar dados de dois microfones ou instalar uma barreira na frente do microfone que bloqueie a passagem direta da luz.
Fonte: opennet.ru