Aktuelle
Meldungen

Aus unserer Forschung: Mehr Fairness bei Gesichtserkennung

28.11.2025

Prof. Dr.-Ing. Naser Damer entwickelt mit seinem Team in ATHENE neuartige Methoden für faire biometrische Systeme. Im Interview erklärt er, wie kontinuierliche demografische Labels anstelle diskreter Kategorien den Bias in Gesichtserkennungssystemen reduzieren und welche Rolle diese Forschung für ver­trauens­würdige KI-Anwendungen spielt.

Prof. Damer, Gesichtserkennungssysteme werden immer häufiger eingesetzt – vom Smartphone bis zur Grenzkontrolle. Warum ist das Thema Fairness bei solchen Verfahren überhaupt ein Problem?

Naser Damer: Gesichtserkennungssysteme beruhen auf maschinellem Lernen. Das bedeutet, sie werden mit großen Mengen von Gesichtsbildern trainiert, um Ähnlichkeiten und Unterschiede zu erkennen. Diese Trainingsdaten sind aber oft nicht gleichmäßig verteilt. Wenn bestimmte ethnische Gruppen überrepräsentiert sind, lernt das System, diese Gesichter besser zu erkennen. Bei anderen Gruppen ist das System dann weniger treffsicher. Das führt zu Verzerrungen, sogenannten Biases. Warum das ein Problem sein kann, verdeutlicht folgendes Beispiel: wenn biometrische Systeme zur Grenzkontrolle oder bei der Polizei zur Identifikation von Personen eingesetzt werden, sollten sie für alle ethnischen Gruppen gleich gute Ergebnisse liefern. Gibt es hier einen antrainierten Bias, werden bestimmte Gruppen benachteiligt.

Sie und Ihr Team haben eine neue Methode entwickelt, um diesen Bias zu verringern, den multi-dimensionalen Ethnizitätsscore... Was ist der Kern dieses Ansatzes?

Naser Damer: Bisherige Verfahren arbeiten meist mit festen Kategorien wie „weiß“, „asiatisch“ oder „afrikanisch“. Diese Einteilung ist aber sehr grob und bildet nicht die tatsächliche Vielfalt menschlicher Gesichter ab. Wir haben deshalb ein neues Labeling-System eingeführt, das kontinuierliche demografische Werte verwendet. Das bedeutet: Statt einer starren Kategorie bekommt jedes Gesicht einen sogenannten multi-dimensionalen Ethnizitätsscore, der den Grad der Zugehörigkeit zu mehreren ethnischen Gruppen beschreibt. So lassen sich fließende Übergänge und Mischformen abbilden, die in der Realität häufig vorkommen.

Wie genau funktioniert dieses Labeling in der Praxis?

Naser Damer: Für jedes Bild im Trainingsdatensatz haben wir abgeschätzt, in welchem Maße es Merkmalen verschiedener ethnischer Gruppen entspricht. Beispielsweise zu 70 Prozent demografische Gruppe A, 20 Prozent Gruppe B, 10 Prozent Gruppe C. Diese Werte bilden ein Kontinuum statt klarer Grenzen. Anschließend haben wir die Datensätze anhand sogenannter Balancing-Scores ausbalanciert. Das heißt: Wenn eine bestimmte Kombination von Merkmalen in den Daten zu häufig vorkam, haben wir eher Gesichter mit seltenen Merkmalen bevorzugt. Auf diese Weise entsteht ein vielfältigeres und repräsentativeres Trainingsset.

Welche Ergebnisse konnten Sie mit dieser Methode erzielen?

Naser Damer: Wir haben über 65 Gesichtserkennungsmodelle trainiert und verglichen, wie sich unsere Methode auf Fairness und Genauigkeit auswirkt. Das Ergebnis war sehr deutlich: Die Erkennungsraten wurden insgesamt fairer, das heißt, die Unterschiede, wie gut das System Menschen von verschiedenen ethnischen Gruppen erkannt hat, gingen deutlich zurück. Gleichzeitig blieb die allgemeine Erkennungsleistung stabil oder verbesserte sich sogar. Das zeigt, dass Fairness und Präzision sich nicht ausschließen – im Gegenteil, sie können sich gegenseitig verstärken.

Warum ist das ein wichtiger Schritt für die Zukunft der biometrischen Systeme?

Naser Damer: Biometrische Verfahren werden in immer mehr Alltags- und Sicherheitsanwendungen eingesetzt. Wenn sie bestimmte Gruppen systematisch benachteiligen, untergräbt das das Vertrauen der Öffentlichkeit in diese Technologie. Unsere Forschung zeigt, dass es möglich ist, faire Gesichtserkennung zu entwickeln, die die reale Vielfalt menschlicher Gesichter besser abbildet. Das ist nicht nur ein technischer Fortschritt, sondern auch ein Beitrag zu gesell­schaft­licher Gerechtigkeit und verantwortungsvoller KI.

Wie ist Ihre Forschung in ATHENE eingebettet?

Naser Damer: Sowohl im Rahmen meiner ATHENE-Professur als auch in unseren Biometrie-Laboren – dem Biometrics Application Lab und der Next Generation Biometric Systems Research Area – arbeiten wir daran, biometrische Verfahren sicherer, zuverlässiger und nachvollziehbarer zu machen. Die Arbeit an fairer Gesichtserkennung ist Teil dieser Mission. Wir verbinden Grundlagenforschung mit anwendungsnaher Entwicklung und möchten zeigen, dass verantwortungsbewusste Innovation in der KI möglich ist.

Was sind die nächsten Schritte in der ATHENE-Biometrie-Forschung?

Naser Damer: Wir wollen die Methode auf weitere demografische Dimensionen ausweiten, zum Beispiel Alter und Geschlecht, und sie in reale Anwendungsszenarien integrieren. Außerdem interessiert uns, wie solche balancierten Datensätze auch bei anderen biometrischen Merkmalen wirken – etwa bei Fingerabdrücken oder der Iris-Erkennung. Langfristig geht es darum, Fairness als festen Bestandteil von KI-Systemen zu verankern.

Wo können Interessierte mehr über Ihre Forschung erfahren?

Naser Damer: Unser Paper „Balancing Beyond Discrete Categories: Continuous Demographic Labels for Fair Face Recognition“ ist online frei verfügbar unter https://doi.org/10.48550/arXiv.2506.01532.

Weitere Informationen zu den Biometrie-Laboren und Projekten: www.athene-center.de/forschung/labs und www.athene-center.de/forschung/ngbs.

Zur News-Übersicht