DolphinAttack: Wenn Youtube und Co. bei Amazon bestellen wollen
Dass sich Apples Siri, Amazons Alexa und Googles Assistent nicht allzu viel Blöße bei der Sicherheit leisten dürfen, das machen ihnen Studenten und Forscher klar. Denn die Sprachassistenten verstehen sowohl gesprochene Sprache, aber reagieren auch auf Ultraschallsignale. Diese sind wiederum für Menschen in einem nicht hörbaren Frequenzbereich, und gerade deswegen missbräuchlich verwendbar.
Beim "DolphinAttack", bei dem chinesische Forscher schon letztes Jahr geschafft haben, über Lautsprecher für Menschen nicht wahrnehmbare Signale abzuspielen und so die sprachgesteuerten Assistenzsysteme zu überlisten, klappte nur dann, wenn das Eingabemikrofon nahe am jeweiligen System positioniert war. Doch nun schafften es Forscher von Berkeley, die Sprachkommandos direkt in Musik einzubinden. Während das menschliche Gehör die Musik wahrnimmt, filtert und wandelt ein Spracherkennungs-System die Kommandos heraus.
Dadurch könnten theoretisch Youtube-Videos mit versteckten Befehlen hochgeladen werden, die versuchen könnten, Einkäufe zu tätigen oder Geld zu überweisen. Selbstverständlich sind in der Praxis nutzerseitig noch weitere Bestätigungen notwendig, um Transaktionen vollständig durchzuführen. Dennoch stellen von Menschen nicht wahrnehmbare Sprachkommandos, mit denen ihre Sprachassistent-Geräte gesteuert werden könnten, ein Sicherheitsrisiko dar.
Wir erweitern unser Team und suchen News-Redakteure sowie Unterstützung für unsere Video-Produktion im Raum Hamburg.
Details