Даследчыкі з Мічыганскага і Асакскага універсітэтаў
Атака заснавана на прымяненні
Атака закранае выкарыстоўваныя ў сучасных прыладах электрамеханічныя мікрафоны (
Сярод пратэставаных на схільнасць да праблемы спажывецкіх прылад адзначаны розныя мадэлі Google Home, Google NEST, Amazon Echo, Echo Plus/Spot/Dot, Facebook Portal Mini, Fire Cube TV, EchoBee 4, iPhone XR, iPad 6th Gen, Samsung Galaxy S9 і Google Pixel 2, таксама разумныя замкі і сістэмы галасавога кантролю аўтамабіляў Tesla і Ford. Пры дапамозе прапанаванага метаду нападу можна сімуляваць падачу каманды адкрыцця гаражных дзвярэй, ажыццявіць online-пакупкі, паспрабаваць падабраць PIN-код доступу да разумнага замка ці завесці аўтамабіль, які падтрымлівае галасавое кіраванне.
У большасці выпадкаў для здзяйснення нападу на адлегласць больш 50 дастаткова магутнасці лазера ў 60 mW. Для правядзення нападу былі скарыстаны лазерная ўказка за 14-18 даляраў, драйвер лазера Wavelength Electronics LD5CHA за $339, узмацняльнік гуку Neoteck NTK059 за $28 і тэлеаб'ектыў Opteka 650-1300 мм за $200. Для дакладнай факусоўкі прамяня пры вялікім выдаленні ад прылады ў якасці аптычнага прыцэла эксперыментатарамі выкарыстоўваўся тэлескоп. На блізкіх адлегласцях замест лазера для нападу можа выкарыстоўвацца і несфакусаваная яркая крыніца святла, такі як
Для нападу як правіла не патрабуецца сімуляцыя голасу ўладальніка, бо распазнанне голасу звычайна выкарыстоўваецца на стадыі звароту да прылады (аўтэнтыфікацыя па вымаўленні "OK Google" ці "Alexa", якія можна загадзя запісаць і затым выкарыстоўваць для мадуляцыі сігналу пры нападзе). Характарыстыкі голасу таксама могуць быць падроблены сучаснымі інструментамі сінтэзу маўлення на базе машыннага навучання. Для блакавання нападу вытворцам прапануецца ўжываць дадатковыя каналы аўтэнтыфікацыі карыстальніка, выкарыстоўваць дадзеныя з двух мікрафонаў або ўсталёўваць перад мікрафонам бар'ер, які блакуе прамое праходжанне святла.
Крыніца: opennet.ru