محققان دانشگاه میشیگان و دانشگاه اوزاکا
حمله بر اساس استفاده است
این حمله میکروفون های الکترومکانیکی مورد استفاده در دستگاه های مدرن را تحت تأثیر قرار می دهد.
در میان دستگاههای مصرفکننده تست شده برای حساسیت به این مشکل، میتوان به مدلهای مختلف Google Home، Google NEST، Amazon Echo، Echo Plus/Spot/Dot، Facebook Portal Mini، Fire Cube TV، EchoBee 4، iPhone XR، iPad 6th Gen، Samsung Galaxy اشاره کرد. S9 و Google Pixel 2، همچنین قفل های هوشمند و سیستم های کنترل صوتی برای خودروهای تسلا و فورد. با استفاده از روش حمله پیشنهادی، میتوانید صدور فرمان باز کردن درب گاراژ، خریدهای آنلاین، حدس زدن کد پین برای دسترسی به قفل هوشمند یا راهاندازی خودرویی که از کنترل صوتی پشتیبانی میکند را شبیهسازی کنید.
در اغلب موارد، توان لیزر 50 مگاوات برای انجام یک حمله در فاصله بیش از 60 کافی است. برای انجام این حمله، از یک نشانگر لیزری 14 تا 18 دلاری، یک درایور لیزر LD5CHA با طول موج 339 دلاری، یک تقویت کننده صوتی Neoteck NTK059 به ارزش 28 دلار و یک لنز تله فوتو 650-1300 میلی متری Opteka به ارزش 200 دلار استفاده شد. برای فوکوس دقیق پرتو در فاصله زیاد از دستگاه، آزمایشکنندگان از تلسکوپ بهعنوان یک دید نوری استفاده کردند. در فواصل نزدیک، به جای لیزر، یک منبع نور روشن غیر متمرکز، مانند
حمله معمولاً نیازی به شبیهسازی صدای مالک ندارد، زیرا تشخیص صدا معمولاً در مرحله دسترسی به دستگاه استفاده میشود (تأیید هویت با تلفظ «OK Google» یا «Alexa» که میتواند از قبل ضبط شود و سپس برای تعدیل سیگنال استفاده شود. در طول حمله). ویژگیهای صدا را میتوان با ابزارهای مدرن سنتز گفتار مبتنی بر یادگیری ماشینی جعل کرد. برای جلوگیری از حمله، تولیدکنندگان تشویق میشوند از کانالهای احراز هویت کاربر اضافی استفاده کنند، از دادههای دو میکروفون استفاده کنند یا مانعی در جلوی میکروفون نصب کنند که عبور مستقیم نور را مسدود کند.
منبع: opennet.ru