
Stem-assistenten gehackt met onhoorbare tonen
Als je bezig bent met beveiliging en je bent goed in wat je doet, dan ben je eigenlijk altijd bezig met vooruit denken. Met andere woorden, je bent bezig om reacties te bedenken op iets wat helemaal nog niet bestaat.
Dat is kennelijk niet gebeurd door de mensen die bezig zijn met stem-assistenten, want Chinese onderzoekers hebben
ontdekt dat ze met commando's die wij niet kunnen horen, maar de assistenten wel, relatief makkelijk hacks kunnen uitvoeren.
Dit gebeurt door stem-commando's die gegeven worden op meer dan 20 KHz, de grens van het menselijke gehoor, maar die door de stemassistenten wel opgepikt wordt. Zorgwekkend, want hiermee is het mogelijk om een computer door zo'n stemcommando naar een website te laten gaan waarop kwaadwillende code draait.
We hebben het hier trouwens over computers, in de wijdste zin van het woord. Daaronder valt bijvoorbeeld een Mac met Siri, alle recente smartphones, maar ook een auto met stem-assistent, zoals de Audi Q3.
De oplossing?De makkelijkste manier zou waarschijnlijk zijn om stem-assistenten niet meer te laten 'luisteren' naar geluid boven de 20 KHz. Maar sommige zijn daar juist van afhankelijk, zoals Amazon's Dash Buttons en de Google Chromecast, die gebruiken allebei geluid van boven de 20 KHz om te koppelen met andere apparaten.
Ame Elliott, design director bij de nonprofit
SimplySecure verwoordt het als volgt:
I think Silicon Valley has blind spots in not thinking about how a product may be misused. It's not as robust a part of the product planning as it should be. Voice systems are clearly hard to secure. And that should raise questions.
It's difficult to understand how the systems work, and sometimes by deliberate design. I think hard work is needed to undo the seamlessness of voice and think about adding more visibility into how the system works.