Aktuelle
Meldungen

Schwachstellen bei Client-Side-Scanning und Deep Perceptual Hashing

22.06.2022

ATHENE-Wissenschaftler der TU Darmstadt haben erhebliche Schwachstellen und Manipulationsmöglichkeiten beim Client-Side-Scanning und Deep Perceptual Hashing identifiziert. Das Verfahren rückte in den Fokus, als Apple 2021 mit „NeuralHash“ einen neuen Ansatz zur Detektion von Bildmaterial im Bereich des Kindesmissbrauchs vorstellte, nach massiver Kritik die Einführung aber zurückzog. Die For­schungsergebnisse der Wissenschaftler belegen nun die Gefahren von Client-Side-Scanning-Methoden für Nutzende.

Mit "NeuralHash" präsentierte der US-amerikanische Technologiekonzern Apple im vergangenen Sommer einen neuen Weg zur Erkennung von Bildmaterial im Bereich des Kindesmissbrauchs.  Im Unterschied zu traditionelleren Methoden, welche üblicherweise auf der Serverseite nach hochgeladenem Content mit illegalem Material suchen, nutzte Apple einen so genannten Client-Side-Scanning-Ansatz. Bei diesem werden die Dateien direkt auf den Nutzergeräten analysiert, bevor sie verschlüsselt und in die Cloud hochgeladen werden. So soll die Sicherheit und Privatsphäre der Nutzer geschützt bleiben, da die Ende-zu-Ende-Verschlüsselung nicht gebrochen werden muss.

Dominik Hintersdorf und Lukas Struppek, beide Dokotranden am von Prof. Kristian Kersting geleiteten Artificial Intelligence and Machine Learning Lab, schauten sich daraufhin NeuralHash als eine reale Anwendung solcher Client-Side-Scanning-Algorithmen genauer an. Gemeinsam mit Daniel Neider vom Max-Planck-Institut, jetzt Professor für Sicherheit und Erklärbarkeit lernender Systeme an der Carl von Ossietzky Universität Oldenburg, konnten sie diverse grundlegende Schwachstellen identifizieren. Dabei entwickelten und untersuchten sie vier verschiedene Arten von Angriffen auf das System und konnten belegen, dass aktuelle Deep-Perceptual-Hashing-Systeme wie Apples „NeuralHash“ sehr anfällig gegenüber Attacken sind. „Diese ermöglichen es nicht nur, die Detektion des Systems mit leichten Bildänderungen zu überlisten, sondern auch die Manipulation von normalen Bildern, die anschließend vom System fälschlicherweise als kinderpornographisches Material erkannt werden“, so die Forscher.

Ihre For­schungsergebnisse präsentierten sie auf dem diesjährigen Workshop on Technology and Consumer Protection@IEEE Symposium on Security and Privacy, auf dem ihre Publikation mit dem Best Paper Award ausgezeichnet wurde. Zudem wird die Arbeit in diesen Tagen bei der Konferenz für Fairness, Accountability and Transparency (FAccT) vorgestellt.

Meldung der TU Darmstadt

 

 

Zur News-Übersicht