Light Commands: Hacker können Sprachassistenten per Laser bedienen
Wissenschaftler der University of Michigan und der Tokioter University of Electro-Communications haben Forschungsergebnisse veröffentlicht, die zeigen, wie Angreifer die Mikrofone digitaler Sprachassistenten auch über mehrere Meter Entfernung mit einem Laser steuern und so Sprachbefehle nachahmen können.
Laser entlockt den Mikrofonen Signale
Betroffen von dieser Problematik sind grundsätzlich alle digitalen Assistenten mit Sprachsteuerung sowohl in Smartphones als auch smarten Lautsprechern, da sich die resultierende Problematik aus dem Umstand ergibt, dass Mikrofonen mit Lasern ein Stimmsignal vorgetäuscht werden kann. Die Sprachbefehle des Nutzers werden von den Mikrofonen normalerweise in elektrische Signale umgewandelt. Diese elektrischen Signale lassen sich auch durch einen auf ein Mikrofon gerichteten Laser mit unterschiedlicher Intensität auslösen. Durch eine festgelegte Abfolge dieser Intensitäten lassen sich Sprachbefehle nachahmen, die von den digitalen Assistenten dann ausgeführt werden, da sie die Art der Entstehung des Signals nicht prüfen können.
Angriff aus bis zu 110 Metern und durch Fenster
Der Angriff per Laser, durch den beispielsweise auch Befehle zum Öffnen von Türen, Fenstern oder Garagen ausgelöst werden könnten, was jedoch zusätzlich eine Brute-Force-Attacke auf die hierfür erforderliche PIN notwendig macht, funktioniert auch durch Scheiben und in Laborbedingungen über eine Distanz von bis zu 110 Metern, wobei eine längere Entfernung möglich sein sollte, jedoch nicht getestet wurde. Je nach Hardware muss der Laser eine unterschiedliche Leistung haben, damit die Mikrofone wie gewünscht reagieren. Sind es beim Samsung Galaxy S9 beispielsweise 60 Milliwatt, benötigt man für den Google Home nur 0,5 Milliwatt.
Praktische Bedeutung stark eingeschränkt
In der Praxis hat ein Angriff über einen Laser auf die Mikrofone jedoch Grenzen. Einerseits muss der Angreifer über das genaue Gerät Kenntnis haben, um passende Laser einzusetzen, andererseits müssen die Mikrofone aber auch von außen mit dem Laser getroffen werden können.
Amazon, Apple und Google könnten reagieren
Zumindest bei smarten Lautsprechern, die in der Regel über mehrere Mikrofone an der Oberseite verfügen, könnten Anbieter wie Amazon, Apple und Google auf ein solchen Angriffsszenario relativ einfach reagieren, indem sie bei jeder Anfrage prüfen, ob diese von mehreren Mikrofonen wahrgenommen wurde. Stammt das Signal nur von einem Mikrofon, wie bei den Versuchen der Wissenschaftler, könnte die Ausführung schlicht verweigert werden. Amazon und Google wollen die Forschungsarbeiten deshalb prüfen, so Wired, Apple kommentierte die Forschung hingegen bisher nicht. Die Forscher geben jedoch an, dass sie mit Amazon, Google und auch Apple zusammenarbeiten, um die Technik vor einem solchen Angriffsszenario zu schützen.