Undersikers fan 'e Universiteit fan Michigan en Osaka University
De oanfal is basearre op it gebrûk
De oanfal hat ynfloed op elektromeganyske mikrofoans dy't brûkt wurde yn moderne apparaten (
Under de konsuminteapparaten dy't hifke binne op gefoelichheid foar it probleem binne ferskate modellen fan Google Home, Google NEST, Amazon Echo, Echo Plus/Spot/Dot, Facebook Portal Mini, Fire Cube TV, EchoBee 4, iPhone XR, iPad 6th Gen, Samsung Galaxy S9 en Google Pixel 2, ek tûke slûzen en stimbehearsystemen foar Tesla- en Ford-auto's. Mei de foarstelde oanfalsmetoade kinne jo it útjaan fan in kommando simulearje om in garaazjedoar te iepenjen, online oankeapen te meitsjen, besykje de PIN-koade te rieden foar tagong ta in tûk slot, of start in auto dy't stimbehearsking stipet.
Yn 'e measte gefallen is in laserkrêft fan 50 mW genôch om in oanfal út te fieren op in ôfstân fan mear as 60. Om de oanfal út te fieren, waarden in $ 14- $ 18 laserpointer, in $ 5 Wavelength Electronics LD339CHA-laserdriver, in $ 059 Neoteck NTK28 audio-fersterker, en in $ 650 Opteka 1300-200mm telelens brûkt. Om de beam op in grutte ôfstân fan it apparaat sekuer te fokusjen, brûkten eksperiminten in teleskoop as optysk sicht. Op tichtby berik, ynstee fan in laser, in net-fokusearre helder ljocht boarne, lykas
In oanfal fereasket typysk gjin simulaasje fan 'e stim fan' e eigner, om't stimherkenning meastentiids wurdt brûkt op it poadium fan tagong ta it apparaat (autentikaasje troch it útsprekken fan "OK Google" of "Alexa", dy't fan tefoaren kin wurde opnommen en dan brûkt om te modulearjen it sinjaal by in oanfal). Stimeigenskippen kinne ek fake wurde troch moderne ark foar spraaksynteze basearre op masinelearen. Om de oanfal te blokkearjen, wurde fabrikanten stimulearre om ekstra brûkersferifikaasjekanalen te brûken, gegevens fan twa mikrofoans te brûken, of in barriêre foar de mikrofoan te ynstallearjen dy't de direkte trochgong fan ljocht blokkearret.
Boarne: opennet.ru