Publikationen

Risiken für die Privatheit aufgrund von Maschinellem Lernen

AutorBattis, Anna-Verena; Graner, Lukas
Datum2021
ArtConference Paper
AbstraktMaschinelle Lernverfahren sind aus unserem Alltag fast nicht mehr wegzudenken -selbstlernende Verfahren finden bereits in nahezu allen Bereichen des Lebens Anwendung. In vielen Fällen werden dabei auch private und/oder sensible Informationen verarbeitet. Da selbstlernende Verfahren in der Regel auf sich nicht überschneidenden Datenmengen trainiert und später angewendet werden, ging man lange davon aus, dass es nicht möglich sei, vom finalen Modell Rückschlüsse auf die zum Training verwendeten Daten zu ziehen. Ergebnissen aus der jüngeren Forschung demonstrieren jedoch, dass es sich bei dieser Annahme um einen Trugschluss handelt. Die vorliegende Arbeit erläutert welche Risiken sich für die Privatheit des Einzelnen im Rahmen von maschinellen Lernverfahren ergeben und wie dem unerwünschten Abgreifen von sensiblen Informationen bereits in der Trainingsphase entgegen gesteuert werden kann.
KonferenzGesellschaft für Informatik (GI Jahrestagung) 2020
Urlhttps://publica.fraunhofer.de/handle/publica/409962