Skip to main content Skip to main navigation

Vier Beiträge des Forschungsbereichs MLT für die ACL 2026 angenommen

| Wissen & Business Intelligence | Lernende Systeme | Sprache & Textverstehen | Sprachtechnologie und Multilingualität | Saarbrücken

Wir freuen uns über vier angenommene Beiträge für die 64. Jahrestagung der Association for Computational Linguistics (ACL 2026) in San Diego, zwei für die Hauptkonferenz und zwei für die Findings.

Simon Ostermann, Daniil Gurgurov, Tanja Baeumel, Michael A. Hedderich, Sebastian Lapuschkin, Wojciech Samek, and Vera Schmitt. From Weights to Activations: Is Steering the Next Frontier of Adaptation? (Main)

Dan Shi, Zhuowen Han, Simon Ostermann, Renren Jin, Josef van Genabith, and Deyi Xiong. Why Does Reinforcement Learning Generalize? A Feature-Level Mechanistic Study of Post-Training in Large Language Models. (Main)

Daniil Gurgurov, Yusser Al Ghussin, Tanja Baeumel, Cheng-Ting Chou, Patrick Schramowski, Marius Mosbach, Josef van Genabith, and Simon Ostermann. CLaS-Bench: A Cross-Lingual Alignment and Steering Benchmark. (Findings)

Cennet Oguz, Yasser Hamidullah, Josef van Genabith, and Simon Ostermann. DualFact+: A Multimodal Fact Verification Framework for Procedural Video Captioning. (Findings)

Glückwünsche an alle Autorinnen und Autoren!

Kontakt:

Dr. Simon Ostermann

Pressekontakt:

Communications & Media Saarbrücken