Atak laserowy na mikrofony systemów sterowania głosem

Naukowcy z Uniwersytetu Michigan i Uniwersytetu w Osace Opracowaliśmy nowa technika ataku Polecenia świetlne, umożliwiając zdalną symulację poleceń głosowych za pomocą lasera dla urządzeń obsługujących sterowanie głosowe, takich jak inteligentne głośniki, tablety, smartfony i systemy sterowania inteligentnym domem z wykorzystaniem Asystenta Google, Amazon Alexa, Portalu Facebook i Apple Siri. W trakcie eksperymentów zademonstrowano atak, który umożliwiał ukryte zastąpienie polecenia głosowego z odległości 75 metrów przez szybę okna i 110 metrów w otwartej przestrzeni.

Atak opiera się na użyciu efekt fotoakustyczny, w którym absorpcja zmieniającego się (modulowanego) światła przez materiał prowadzi do termicznego wzbudzenia ośrodka, zmiany gęstości materiału i pojawienia się fal dźwiękowych odbieranych przez membranę mikrofonu. Modulując moc lasera i skupiając wiązkę wiązki na otworze za pomocą mikrofonu, można uzyskać stymulację wibracji dźwiękowych, które będą niesłyszalne dla innych, ale będą odbierane przez mikrofon.

Atak laserowy na mikrofony systemów sterowania głosem

Atak dotyczy mikrofonów elektromechanicznych stosowanych w nowoczesnych urządzeniach (MEMS).
Wśród urządzeń konsumenckich przetestowanych pod kątem podatności na problem znajdują się różne modele Google Home, Google NEST, Amazon Echo, Echo Plus/Spot/Dot, Facebook Portal Mini, Fire Cube TV, EchoBee 4, iPhone XR, iPad 6. generacji, Samsung Galaxy S9 i Google Pixel 2, a także inteligentne zamki i systemy sterowania głosowego do samochodów Tesla i Ford. Korzystając z proponowanej metody ataku, możesz symulować wydanie polecenia otwarcia bramy garażowej, dokonać zakupów w Internecie, spróbować odgadnąć kod PIN umożliwiający dostęp do inteligentnego zamka lub uruchomić samochód obsługujący sterowanie głosowe.

W większości przypadków do przeprowadzenia ataku na odległość większą niż 50 mW wystarczy moc lasera wynosząca 60 mW. Do przeprowadzenia ataku użyto wskaźnika laserowego o wartości 14–18 dolarów, sterownika lasera LD5CHA firmy Wavelength Electronics za 339 dolarów, wzmacniacza audio Neoteck NTK059 za 28 dolarów i teleobiektywu Opteka 650–1300 mm za 200 dolarów. Aby dokładnie skupić wiązkę w dużej odległości od urządzenia, eksperymentatorzy wykorzystali teleskop jako celownik optyczny. Z bliskiej odległości zamiast lasera można zastosować nieskoncentrowane, jasne źródło światła, np latarka Acebeam W30.

Atak laserowy na mikrofony systemów sterowania głosem

Atak zazwyczaj nie wymaga symulacji głosu właściciela, gdyż rozpoznawanie głosu wykorzystywane jest najczęściej na etapie uzyskiwania dostępu do urządzenia (uwierzytelnianie poprzez wypowiedzenie „OK Google” lub „Alexa”, które można wcześniej nagrać, a następnie wykorzystać do modulacji sygnał podczas ataku). Charakterystykę głosu można również sfałszować za pomocą nowoczesnych narzędzi do syntezy mowy opartych na uczeniu maszynowym. Aby zablokować atak, zachęca się producentów do korzystania z dodatkowych kanałów uwierzytelniania użytkownika, wykorzystywania danych z dwóch mikrofonów lub instalowania przed mikrofonem bariery blokującej bezpośrednie przejście światła.







Źródło: opennet.ru

Dodaj komentarz