Forskare från University of Michigan och Osaka University
Attacken är baserad på användningen
Attacken påverkar elektromekaniska mikrofoner som används i moderna enheter (
Bland konsumentenheterna som testats för känslighet för problemet finns olika modeller av Google Home, Google NEST, Amazon Echo, Echo Plus/Spot/Dot, Facebook Portal Mini, Fire Cube TV, EchoBee 4, iPhone XR, iPad 6th Gen, Samsung Galaxy S9 och Google Pixel 2, även smarta lås och röststyrningssystem för Tesla- och Ford-bilar. Med den föreslagna attackmetoden kan du simulera utfärdandet av ett kommando för att öppna en garageport, göra onlineköp, försöka gissa PIN-koden för åtkomst till ett smart lås eller starta en bil som stöder röststyrning.
I de flesta fall räcker en lasereffekt på 50 mW för att utföra en attack på ett avstånd på mer än 60. För att utföra attacken användes en $14-$18 laserpekare, en $5 Wavelength Electronics LD339CHA-laserdrivrutin, en $059 Neoteck NTK28 ljudförstärkare och en $650 Opteka 1300-200mm teleobjektiv. För att noggrant fokusera strålen på ett stort avstånd från enheten använde experimentörer ett teleskop som ett optiskt sikte. På nära håll, istället för en laser, en ofokuserad stark ljuskälla, som t.ex
En attack kräver vanligtvis inte en simulering av ägarens röst, eftersom röstigenkänning vanligtvis används vid åtkomst till enheten (autentisering genom att uttala "OK Google" eller "Alexa", som kan spelas in i förväg och sedan användas för att modulera signalen under en attack). Röstegenskaper kan också förfalskas av moderna maskininlärningsbaserade talsyntesverktyg. För att blockera attacken uppmuntras tillverkare att använda ytterligare användarautentiseringskanaler, använda data från två mikrofoner eller installera en barriär framför mikrofonen som blockerar ljusets direkta passage.
Källa: opennet.ru