Spionage-Abwehr gegen mithörende Alexa & Co.

03.07.2020

ATHENE-Wissenschaftler*innen und weitere Partner entwickeln Gerät, das nicht autorisierte Aktivitäten erkennt

Ein Forschungsteam mit ATHENE-Wissenschaftler*innen der TU Darmstadt hat mit Partnern aus den USA und Frankreich ein Gerät entwickelt, das die Smart Home-Geräte mit Sprachassistenz erkennen kann, die ohne Zustimmung der Nutzenden aufgezeichnete Audioaufnahmen ins Internet streamen.

© Richard Mitev

Hersteller von sogenannten „Smart Home“ Geräten fügen zunehmend Sprachassistenzfunktionen zu einer breiten Palette von Geräten hinzu, zum Beispiel zu intelligenten Lautsprechern, Fernsehern, Thermostaten, Sicher­heits­systemen und Türklingeln. Infolgedessen sind viele dieser Geräte mit Mikrofonen ausgestattet, was erhebliche Bedenken hinsichtlich des Datenschutzes aufwirft: Die Benutzer*innen sind nicht immer darüber informiert, wann Audioaufnahmen in die Cloud gesendet werden oder wer Zugang zu den Aufnahmen erhält.

Das Forschungsteam der TU Darmstadt konnte gemeinsam mit seinen Partnern nachweisen, dass viele Geräte mit integrierter Sprachassistenz unabsichtlich Gespräche mithören können. Typischerweise werden Sprachassistenten mit einem Weckwort, englisch „wake-word“, aktiviert wie Amazons Echo, das üblicherweise mit dem Satzanfang „Alexa, …“ geweckt wird. Das Team hat extensiv Experimente mit Sprachassistenten wie Alexa durchgeführt und zahlreiche englische Wörter identifiziert, die Alexa fälschlicherweise als Weckwort interpretiert. Dadurch wird der Sprachassistent aktiviert, was zu einer unerwarteten Audioübertragung führt. Darunter sind auch alltägliche Wörter wie zum Beispiel „letter“ oder „mixer“. Diese Wörter können sowohl von einer künstlich erzeugten Roboter-Stimme oder einem Menschen gesprochen werden. Die ungewollt von Alexa aufgezeichneten Audio-Daten werden dann in die Cloud hochgeladen und von Amazon analysiert. Um dem entgegenzuwirken, haben die Forscher*innen ein Gerät als Gegenmaßnahme entwickelt und einen funktionstüchtigen Prototypen gebaut.

Das Gerät mit dem Namen „LeakyPick“ kann im Smart Home eines Benutzers platziert werden und in regelmäßigen Abständen die anderen Sprachassistenten in seiner Umgebung mit Audio-Befehlen testen. Der nachfolgende Netzwerkverkehr wird auf statistische Muster hin überwacht, die auf eine Audioübertragung hinweisen. LeakyPick weist dann auf die Geräte hin, die die ungewollte Audioaufzeichnung durchführen.

Das LeakyPick-Gerät könnte auch gegen einen raffinierten Angriff auf den Sprachassistenten Alexa helfen: Dabei werden Weckwörter und Befehle von Angreifern in dem für die Menschen unhörbaren Ultraschall-Bereich gesendet und so zum Beispiel Bestellungen beim Online-Versandhändler Amazon getätigt. Die Ultraschall-Befehle sind nicht hörbar für das menschliche Ohr, werden aber von Alexa verstanden. Wenn das LeakyPick- Gerät also eine Aktivität feststellt, obwohl kein hörbarer Befehl erfolgt ist, könnte das auf einen solchen Angriff hindeuten.

Das Gerät existiert derzeit als Prototyp und ist noch nicht im Handel erhältlich.

Seine Ergebnisse hat das Forschungsteam auf einer Fachkonferenz eingereicht. Der vollständige Bericht ist verfügbar unter: https://arxiv.org/abs/2007.00500

Zur Meldung der TU Darmstadt

 

Zur News-Übersicht