Forskere fra University of Michigan og Osaka University
Angrepet er basert på bruken
Angrepet påvirker elektromekaniske mikrofoner som brukes i moderne enheter (
Blant forbrukerenhetene som er testet for mottakelighet for problemet er forskjellige modeller av Google Home, Google NEST, Amazon Echo, Echo Plus/Spot/Dot, Facebook Portal Mini, Fire Cube TV, EchoBee 4, iPhone XR, iPad 6th Gen, Samsung Galaxy S9 og Google Pixel 2, også smarte låser og stemmestyringssystemer for Tesla- og Ford-biler. Ved å bruke den foreslåtte angrepsmetoden kan du simulere å gi en kommando for å åpne en garasjeport, foreta kjøp på nettet, prøve å gjette PIN-koden for tilgang til en smartlås, eller starte en bil som støtter stemmestyring.
I de fleste tilfeller er en lasereffekt på 50 mW tilstrekkelig til å utføre et angrep i en avstand på mer enn 60. For å utføre angrepet ble det brukt en $14-$18 laserpeker, en $5 Wavelength Electronics LD339CHA laserdriver, en $059 Neoteck NTK28 lydforsterker og en $650 Opteka 1300-200mm teleobjektiv. For nøyaktig å fokusere strålen i stor avstand fra enheten, brukte eksperimentatorer et teleskop som et optisk sikte. På nært hold, i stedet for en laser, en ufokusert skarp lyskilde, som f.eks
Et angrep krever vanligvis ikke en simulering av eierens stemme, siden stemmegjenkjenning vanligvis brukes på tidspunktet for tilgang til enheten (autentisering ved å uttale "OK Google" eller "Alexa", som kan tas opp på forhånd og deretter brukes til å modulere signalet under et angrep). Stemmekarakteristikker kan også forfalskes av moderne maskinlæringsbaserte talesynteseverktøy. For å blokkere angrepet oppfordres produsentene til å bruke ekstra brukerautentiseringskanaler, bruke data fra to mikrofoner, eller installere en barriere foran mikrofonen som blokkerer den direkte passasjen av lys.
Kilde: opennet.ru