Aktuelle
Meldungen

ATHENE-Paper auf der EMNLP 2025

04.11.2025

Auf der EMNLP (Empirical Methods in Natural Language Processing) wurden in diesem Jahr mehrere Paper von ATHENE-Forschenden akzeptiert. Die EMNLP ist eine der inter­national führenden wissenschaftlichen Konferenzen im Bereich der natürlichen Sprachverarbeitung und Künstlichen Intelligenz. Sie wird jährlich von der Association for Computational Linguistics (ACL) organisiert und bringt Forschende aus Wissenschaft und Industrie zusammen, um neueste Ergebnisse, Methoden und Anwendungen im Bereich NLP zu präsentieren. Die EMNLP gilt als eine der drei wichtigsten Konferenzen für Forschung zu empirischen Methoden im maschinellen Sprachverstehen, darunter maschinelles Lernen, Sprachgenerierung und -analyse sowie Deep-Learning-Verfahren für Textdaten.

Die akzeptierten Paper sind: 

CodeSSM: Towards State Space Models for Code Understanding
Autor*innen: hweta Verma,  Abhinav Anand, Mira Mezini
In dem Paper stellen die Forschenden CodeSSM vor — das weltweit erste umfassend getestete KI-Modell auf Basis von State Space Models (SSMs) für das Verstehen und Analysieren von Software. CodeSSM wurde im Rahmen eines ATHENE Projekts entwickelt. Anders als die weit verbreiteten Transformer-Modelle ist CodeSSM besonders effizient: Es benötigt deutlich weniger Trainingsdaten und Speicher, lernt außergewöhnlich schnell (hohe Sample Efficiency) und verarbeitet auch sehr lange Programmtexte zuverlässig. Ein besonderer Erfolg: CodeSSM hat vergleichbare Transformers bei vielen klassischen Aufgaben, und insbesondere auch speziell bei der Erkennung von Schwachstellen im Code (Vulnerability Detection) übertroffen.
CodeSSM wurde im Rahmen eines ATHENE Projekts entwickelt.
Zum Paper

Preemptive Detection and Correction of Misaligned Actions in LLM Agents
Autor*innen: Haishuo Fang, Xiaodan Zhu, Iryna Gurevych
In dem Paper stellen die Forschenden mit InferAct ein System vor, das erkennt, wenn ein KI-Agent im Begriff ist, eine falsche oder potenziell gefährliche Aktion auszuführen, etwa ein unerwünschtes Online-Geschäft abzuschließen oder einen fehlerhaften Befehl im System auszuführen. Dafür nutzt es die Fähigkeit großer Sprachmodelle, menschliche Absichten zu verstehen und zu prüfen, ob das Verhalten der KI noch mit dem Ziel des Nutzers übereinstimmt. So hilft InferAct, Fehlentscheidungen frühzeitig zu verhindern und KI-Agenten sicherer und ver­trauens­würdiger zu machen.
Das Paper ist im Rahmen des ATHENE-Projekts Safeguarding LLMs against Misleading Evidence Attack (SafeLLMs) im Forschungsbereich Reliable and Verifiable Information through Secure Media (REVISE) entstanden.
Zum Paper

Turning Logic Against Itself: Probing Model Defenses Through Contrastive Questions
Autor*innen: Rachneet Sachdeva, Rima Hazra, Iryna Gurevych
Große Sprachmodelle wie ChatGPT oder GPT-4 können durch gezielte Formulierungen zu problematischen oder sogar gefährlichen Antworten verleitet werden, selbst wenn sie eigentlich auf sicheres Verhalten trainiert wurden. In dem Paper zeigen die Forschenden, wie solche „logischen Täuschungen“ funktionieren, und stellen mit POATE ein neues Verfahren vor, das Schwachstellen in der Argumentationslogik von KI-Systemen aufdeckt. Auf Basis dieser Erkenntnisse entwickeln die Forschenden außerdem Methoden, mit denen sich die Modelle besser gegen derartige Manipulationen absichern lassen.
Das Paper ist im Rahmen des ATHENE-Projekts "Safeguarding LLMs against Misleading Evidence Attack (SafeLLMs)" im Forschungsbereich Reliable and Verifiable Information through Secure Media (REVISE) entstanden.
Zum Paper

Droid: A Resource Suite for AI-Generated Code Detection
Autor*innen: Daniil Orel1, Indraneil Paul2, Iryna Gurevych1,2, and Preslav Nakov
KI-Systeme schreiben immer häufiger Programmcode, doch oft ist schwer zu erkennen, ob dieser von Menschen oder Maschinen stammt. Die Forschenden präsentieren in dem Paper mit DroidCollection die bislang umfassendste offene Datensammlung zur Erkennung KI-generierten Codes und zeigen, wie sich solche Systeme gezielt täuschen lassen. Mit DroidDetect entwickeln die Forschenden zugleich ein robustes Erkennungsverfahren, das manipulative Codevarianten zuverlässig identifiziert und so zur Cybersicherheit in der Softwareentwicklung beiträgt.
Das Paper ist im Rahmen des ATHENE-Projekts Trustworthy and Explainable AI-generated Text Detection (TXAITD) im Forschungsbereich Reliable and Verifiable Information through Secure Media (REVISE) entstanden.
Zum Paper

Weitere von ATHENE-Forschenden auf der EMNLP platzierten Paper sind: 

Judging Quality Across Languages
Autoren: Mehdi Ali, Manuel Brack, Max Lübbering, Elias Wendt, Abbas Goher Khan, Richard Rutmann, Alex Jude, Maurice Kraus, Alexander Arno Weber, David Kaczér, Florian Mai, Lucie Flek, Rafet Sifa, Nicolas Flores-Herr, Joachim Köhler, Patrick Schramowski, Michael Fromm, Kristian Kersting
In dem Paper stellen die Forschenden einen neuen LLM-as-a-judge-Ansatz zur Auswahl hochwertiger Trainingsdaten für KI-Systeme vor. Dabei wird ein Sprachmodell selbst eingesetzt, um die Qualität von Texten in 35 Sprachen zu bewerten, gute Inhalte zu behalten und ungeeignete herauszufiltern. Das ist wichtig, weil die Qualität und Ausgewogenheit der Trainingsdaten entscheidend dafür sind, wie fair, präzise und mehrsprachig künftige KI-Modelle arbeiten können.
Zum Paper

MathTutorBench: A Benchmark for Measuring Open-ended Pedagogical Capabilities of LLM Tutors
Autor*innen: Jakub Macina, Nico Daheim, Ido Hakimi, Manu Kapur, Iryna Gurevych, Mrinmaya Sachan

From Problem-Solving to Teaching Problem-Solving: Aligning LLMs with Pedagogy using Reinforcement Learning
Autor*innen: David Dinucu-Jianu, Jakub Macina, Nico Daheim, Ido Hakimi, Iryna Gurevych, Mrinmaya Sachan

Die Forschenden präsentieren ihre Paper vom 4. bis 9. November auf der EMNLP 2025 in Suzhou, China.

 

Zur News-Übersicht