MISSIONSPROJEKTE

ATHENE Missionsprojekte: Wo Forschung Zukunft sichert

Kritische Infrastrukturen in Deutschland und Europa stehen vor wachsenden Bedrohungen durch Angriffe im digitalen Raum. Die ATHENE-Missionsprojekte adressieren fun­da­men­ta­le Sicherheitsprobleme in Internet-Protokollen, in der KI-unterstützter Softwareentwicklung und in der Analyse einzigartiger körperlicher oder verhaltensbezogener Merkmale zur Identifikation von Personen. Durch inter­dis­zi­pli­näre Forschung entwickelt ATHENE Lösungen, die technische Exzellenz mit gesell­schaft­licher Verantwortung verbinden. Mit den Missionsprojekten schafft ATHENE die wissenschaftlichen Grundlagen für eine sichere digitale Transformation in Wirtschaft, Verwaltung und Gesellschaft.

Advancing Internet Security - ADISEC

Mehr Info

SecureCoder

Mehr Info

Responsible AI for Biometrics

Mehr Info


Advancing Internet Security - ADISEC

Die Internet-Infrastruktur auf sicheres Fundament stellen

Das Internet basiert auf Protokollen, die ohne tiefergehende Sicherheitsbetrachtungen entwickelt wurden und daher vielfach verwundbar sind. In die Wege­wahl von Datenströmen kann von unautorisierten Akteuren eingegriffen werden. Beispielsweise kann das Routing via Border Gateway Protocol manipuliert werden, so dass Datenpakete über andere Länder und Kontinente umgeleitet und dort ggf. ausgelesen werden. Komplexe Angriffe wie KeyTrap nutzen wiederum Schwachstellen in einem Rückgratprotokoll für die Namensauflösung von Internetadressen und hätten große Teile des Internets lahmlegen können – dies wurde durch ATHENE-Forschende verhindert. In jüngerer Zeit eingeführte Schutzsysteme für das Internet wie Resource Public Key Infrastructure versagen häufig durch Fehlkonfigurationen. Die Vernetzung verschiedener Internet-Protokolle schafft zusätzliche Angriffsmöglichkeiten über alle technischen Ebenen hinweg.

Im Missionsprojekt ADISEC erstellen Forschende maßgeschneiderte Si­cher­heits­lö­sun­gen für einzelne Protokolle. Hierfür kommen vielfältige Methoden zum Einsatz wie Vorhersage-Mechanismen der künstlichen Intelligenz, Schwellenwert-Kryptographie sowie Quantencomputer-sichere Verschlüsselung. Intelligente Überprüfungsmechanismen schützen Sicher­heits­systeme vor Angriffen, die das Schutzniveau herabsetzen wollen. 

Kritische Infrastrukturen wie Banken, Krankenhäuser und Energieversorger werden durch die ATHENE-Forschung von ADISEC vor internetbasierten Angriffen geschützt. Unternehmen werden vor finanziellen Verlusten durch die Umleitung ihres Datenverkehrs geschützt und profitieren von deutlich verbesserter Betriebsstabilität. Die nationale Sicherheit und Handlungsfähigkeit werden durch widerstandsfähige kritische Infrastrukturen mittels ADISEC gestärkt. Bahnbrechende ADISEC-Ansätze für fehlertolerante Sicherheit in verteilten Systemen bringen die Wissenschaft voran. Öffentlich verfügbare Werkzeuge und Forschungsdaten beschleunigen die weltweite Forschung und entfalten globale Wirkung.

Leitung: Prof. Dr. Haya Schulmann


AI-assisted Secure and Safe Software Development - SecureCoder

KI-gestützte Softwareentwicklung – mit Sicherheit

KI-gestützte Code-Generierungssysteme wie GitHub Copilot revolutionieren die Softwareentwicklung und werden inzwischen von fast allen Entwicklerinnen und Entwickler regelmäßig genutzt. Studien zeigen jedoch, dass ein erheblicher Anteil des KI-generierten Codes Sicherheitslücken enthält. Die Ursachen sind vielfältig. Beispielsweise können Trainingsdaten Schwachstellen enthalten, Modelle können anfällig für gezielte Manipulation sein, Sicherheitsmechanismen gegen Überlistung durch Nutzende können umgangen werden (Prompt Injection) und zudem können während der Code-Generierung Schwachstellen durch Musterabgleich ohne hinreichenden Sicherheitskontext entstehen. Das dominierende reaktive Sicherheitsparadigma – nachträgliche statische und dynamische Analysen sowie manuelle Reviews – kann meist nicht mit der Geschwindigkeit und Komplexität KI-generierter Software Schritt halten.

In SecureCoder entwickeln die Forschenden die algorithmischen und technischen Grundlagen für sicherheitsorientierte KI-gestützte Programmiersysteme. Es geht darum, die Sicherheit nicht nachträglich zu ergänzen, sondern von Grund auf zu gewährleisten. Das Projekt verfolgt mehrere Forschungspfade zur Erhöhung der Code-Sicherheit.

SecureCoder leistet einen wissenschaftlichen Beitrag zur Entwicklung neuartiger Modellarchitekturen und Trainingsansätze, die KI-basierte Code-Erzeugung beispielsweise mit strukturierten Darstellungen von Code-Abhängigkeiten, mit mathematischen Beweisverfahren zur Korrektheitssicherung und gezielten Angriffssimulationen zur Robustheitsprüfung verbinden. Unternehmen profitieren von reduzierten Sicherheitsrisiken in der Softwareentwicklung, geringeren Kosten für nachträgliche Sicherheitspatches und der Unterstützung der Einhaltung von Vorgaben wie dem EU Cyber Resilience Act und dem deutschen IT-Sicherheitsgesetz. Behörden erhalten standardisierte Bewertungsrahmen für KI-Tech­no­logien zum Schutz sensibler Daten und kritischer Infrastrukturen. Das Ökosystem der Softwareentwicklung profitiert von praktischen, integrierten Si­cher­heits­lö­sun­gen, die als Erweiterung für gängige Entwicklungsumgebungen bereitgestellt werden und sichere KI-Werkzeuge für alle zugänglich machen, ohne dass tiefgreifende Sicherheitsexpertise erforderlich ist.

Leitung: Prof. Dr. Mira Mezini


Responsible AI for Biometrics

Biometrische Systeme – fair, erklärbar und datenschutzfreundlich durch KI-Unterstützung

KI-gestützte biometrische Tech­no­logien werden zunehmend in kritischen Bereichen wie Grenzkontrollen, Strafverfolgung und digitaler Identitätsprüfung eingesetzt. Studien belegen jedoch erhebliche Leistungsunterschiede bei der Gesichtserkennung über verschiedene demografische Gruppen hinweg – etwa bezüglich Alter, Geschlecht und ethnischer Herkunft. Diese Unterschiede sind keine statistischen Anomalien, sondern können zu systematisch verzerrten Entscheidungen führen, insbesondere in sensiblen Anwendungsbereichen. Unterdessen bleiben die Entscheidungsprozesse biometrischer Systeme für Menschen weitgehend undurchschaubar, obwohl sie Individuen direkt betreffen. Die komplexen Vergleiche von Merkmalsdarstellungen neuronaler Netze sind schwer nachvollziehbar. Dies erschwert rechtliche Rechenschaftspflicht, Vertrauen der Endnutzerinnen und -nutzer sowie den praktischen Einsatz der Systeme. Zudem erfordern biometrische Systeme sensible reale Daten, was erhebliche ethische, rechtliche und sicherheitstechnische Bedenken aufwirft.

Im Missionsprojekt Responsible AI for Biometrics entwickeln unsere Forschende faire Normalisierungsverfahren, die Verzerrungen zwischen Bevölkerungsgruppen mit technisch höchst erreichbarer Präzision verringern. Generative Netzwerke und Diffusionsmodelle erzeugen ausgewogene Trainingsdaten ohne Risiken für die Privatsphäre. Erklärbare KI-Methoden machen Entscheidungen transparent. Bloom-Filter und homomorphe Verschlüsselung sichern biometrische Informationen. Multimodale Systeme kombinieren verschiedene Erkennungsverfahren für verbesserte Gerechtigkeit und Sicherheit.

Das Projekt leistet wissenschaftliche Beiträge durch neuartige Techniken zur Verzerrungsminderung und Interpretierbarkeit, etabliert neue Bewertungsmaßstäbe und erzeugt hochwertige synthetische Datensätze, die Reproduzierbarkeit und Zusam­men­arbeit in der Forschungs­gemeinschaft fördern. Für die Gesellschaft stärkt Responsible AI for Biometrics das Vertrauen in digitale Interaktionen zwischen Bürgerinnen, Bürgern und Staat, fördert Transparenz und schützt Grundrechte wie Privatsphäre und Schutz vor Diskriminierung. Unternehmen und Behörden profitieren von rechtlich robusten biometrischen Lösungen, die mit der Datenschutz-Grundverordnung, dem EU AI Act und aufkommenden Gesetzen zur digitalen Identität konform sind. Die Ergebnisse unterstützen den Aufbau sicherer digitaler Identitätsinfrastrukturen sowie das strategische Ziel der digitalen Souveränität durch ethisch fundierte, in Europa entwickelte biometrische Tech­no­logien.

Leitung: Prof. Dr. Naser Damer, Prof. Dr. Christian Rathgeb