Esploristoj de la Universitato de Miĉigano kaj Osaka University
La atako baziĝas sur la uzo
La atako influas elektromekanikajn mikrofonojn uzatajn en modernaj aparatoj (
Inter la konsumantaj aparatoj testitaj pri malsaniĝemeco al la problemo estas diversaj modeloj de Google Home, Google NEST, Amazon Echo, Echo Plus/Spot/Dot, Facebook Portal Mini, Fire Cube TV, EchoBee 4, iPhone XR, iPad 6th Gen, Samsung Galaxy S9 kaj Google Pixel 2, ankaŭ inteligentaj seruroj kaj voĉkontrolaj sistemoj por aŭtoj Tesla kaj Ford. Uzante la proponitan atakmetodon, vi povas simuli eldoni komandon por malfermi garaĝan pordon, fari interretajn aĉetojn, provi diveni la PIN-kodon por aliri inteligentan seruron aŭ startigi aŭton, kiu subtenas voĉan kontrolon.
Plejofte, lasera potenco de 50 mW sufiĉas por fari atakon je distanco de pli ol 60. Por efektivigi la atakon, lasermontrilo de 14 USD-18 USD, lasero-ŝoforo de 5 USD Wavelength Electronics LD339CHA, sonamplifilo Neoteck NTK059 de 28 USD kaj teleobjektivo Opteka 650-1300mm de 200 USD estis uzitaj. Por precize enfokusigi la trabon je granda distanco de la aparato, eksperimentantoj uzis teleskopon kiel optikan vidaĵon. Proksime, anstataŭ lasero, nefokusita hela lumfonto, kiel ekz
Atako tipe ne postulas simuladon de la voĉo de la posedanto, ĉar voĉrekono estas kutime uzita en la stadio de aliro al la aparato (aŭtentikigo per prononcado de "OK Google" aŭ "Alexa", kiuj povas esti registritaj anticipe kaj tiam uzata por moduli). la signalo dum atako). Voĉaj karakterizaĵoj ankaŭ povas esti falsitaj per modernaj maŝinlern-bazitaj parolsintezaj iloj. Por bloki la atakon, fabrikistoj estas instigitaj uzi pliajn uzantajn konfirmkanalojn, uzi datumojn de du mikrofonoj aŭ instali baron antaŭ la mikrofono, kiu baras la rektan trairejon de lumo.
fonto: opennet.ru