Publikationen

Risiken für die Privatheit aufgrund von Maschinellem Lernen

AutorBattis, Anna-Verena; Graner, Lukas
Datum2021
ArtConference Paper, Electronic Publication
AbstraktMaschinelle Lernverfahren sind aus unserem Alltag fast nicht mehr wegzudenken -selbstlernende Verfahren finden bereits in nahezu allen Bereichen des Lebens Anwendung. In vielen Fällen werden dabei auch private und/oder sensible In­for­ma­tio­nen verarbeitet. Da selbstlernende Verfahren in der Regel auf sich nicht überschneidenden Datenmengen trainiert und später angewendet werden, ging man lange davon aus, dass es nicht möglich sei, vom finalen Modell Rückschlüsse auf die zum Training verwendeten Daten zu ziehen. Ergebnissen aus der jüngeren Forschung demonstrieren jedoch, dass es sich bei dieser Annahme um einen Trugschluss handelt. Die vorliegende Arbeit erläutert welche Risiken sich für die Privatheit des Einzelnen im Rahmen von maschinellen Lernverfahren ergeben und wie dem unerwünschten Abgreifen von sensiblen In­for­ma­tio­nen bereits in der Trainingsphase entgegen gesteuert werden kann.
KonferenzGesellschaft für Informatik (GI Jahrestagung) <50, 2020, Online>
ReferenzReussner, R. (Ed.): INFORMATIK 2020 - Back to the Future: 28.09. bis 02.10.2020, virtuell, Karlsruhe, 50. Jahrestagung der Gesellschaft für Informatik. Bonn: GI, 2021. (GI-Edition - Lecture Notes in Informatics (LNI). Proceedings P307), pp. 841-855