Laserattacker på mikrofoner i röststyrningssystem

Forskare från University of Michigan och Osaka University tagit fram ny attackteknik Lätta kommandon, så att du kan fjärrsimulera röstkommandon med hjälp av en laser för enheter som stöder röststyrning, såsom smarta högtalare, surfplattor, smartphones och smarta hemkontrollsystem med hjälp av Google Assistant, Amazon Alexa, Facebook Portal och Apple Siri. Under experimenten påvisades en attack som gjorde det möjligt att i hemlighet ersätta ett röstkommando från ett avstånd av 75 meter genom ett fönsterglas och 110 meter i öppen plats.

Attacken är baserad på användningen fotoakustisk effekt, där absorptionen av förändrat (modulerat) ljus av ett material leder till termisk excitation av mediet, en förändring av materialets densitet och utseendet av ljudvågor som uppfattas av mikrofonmembranet. Genom att modulera lasereffekten och fokusera strålen på hålet med mikrofonen kan du uppnå stimulering av ljudvibrationer som kommer att vara ohörbara för andra, men som kommer att uppfattas av mikrofonen.

Laserattacker på mikrofoner i röststyrningssystem

Attacken påverkar elektromekaniska mikrofoner som används i moderna enheter (MEMS).
Bland konsumentenheterna som testats för känslighet för problemet finns olika modeller av Google Home, Google NEST, Amazon Echo, Echo Plus/Spot/Dot, Facebook Portal Mini, Fire Cube TV, EchoBee 4, iPhone XR, iPad 6th Gen, Samsung Galaxy S9 och Google Pixel 2, även smarta lås och röststyrningssystem för Tesla- och Ford-bilar. Med den föreslagna attackmetoden kan du simulera utfärdandet av ett kommando för att öppna en garageport, göra onlineköp, försöka gissa PIN-koden för åtkomst till ett smart lås eller starta en bil som stöder röststyrning.

I de flesta fall räcker en lasereffekt på 50 mW för att utföra en attack på ett avstånd på mer än 60. För att utföra attacken användes en $14-$18 laserpekare, en $5 Wavelength Electronics LD339CHA-laserdrivrutin, en $059 Neoteck NTK28 ljudförstärkare och en $650 Opteka 1300-200mm teleobjektiv. För att noggrant fokusera strålen på ett stort avstånd från enheten använde experimentörer ett teleskop som ett optiskt sikte. På nära håll, istället för en laser, en ofokuserad stark ljuskälla, som t.ex ficklampa Acebeam W30.

Laserattacker på mikrofoner i röststyrningssystem

En attack kräver vanligtvis inte en simulering av ägarens röst, eftersom röstigenkänning vanligtvis används vid åtkomst till enheten (autentisering genom att uttala "OK Google" eller "Alexa", som kan spelas in i förväg och sedan användas för att modulera signalen under en attack). Röstegenskaper kan också förfalskas av moderna maskininlärningsbaserade talsyntesverktyg. För att blockera attacken uppmuntras tillverkare att använda ytterligare användarautentiseringskanaler, använda data från två mikrofoner eller installera en barriär framför mikrofonen som blockerar ljusets direkta passage.







Källa: opennet.ru

Lägg en kommentar