Skip to main content Skip to main navigation

IASEAI‘2026 Conference: Interdisziplinäre Zusammenarbeit für sichere und vertrauenswürdige KI

| Grundlagen der Systemischen KI | Neuro-mechanistische Modellierung | Saarbrücken | Darmstadt

Durch Large Language Models (LLMs) wie ChatGPT, Claude oder Llama interagieren wir alle fast täglich mit künstlicher Intelligenz (KI). Doch auch indirekt beeinflusst die Technologie unser Leben schon heute und trifft wichtige Hintergrundentscheidungen. Dabei ist KI nicht fehlerfrei. Auf der zweiten jährlichen Konferenz der „International Association for Safe & Ethical AI” (IASEAI‘2026) haben Forschende des DFKI und von CERTAIN (Center for European Research in Artificial Intelligence) ihre aktuelle Forschung zur sicheren KI vorgestellt und einen Workshop organisiert, der die zukünftige interdisziplinäre Zusammenarbeit in diesem wichtigen Feld stärken soll. Die Konferenz fand vom 24. bis 26. Februar in Paris statt.

© Kevin Baum

Bereits heute entscheiden Algorithmen darüber, wer einen Kredit erhält, welche Nachrichten wir sehen und wie Polizeiarbeit organisiert wird. Angesichts der wachsenden realen Auswirkungen von KI-Systemen wird eine Ausrichtung auf Sicherheit und an ethischen Regeln immer wichtiger. Die IASEAI befasst sich mit diesem Thema und hat im Rahmen der IASEAI‘2026 Conference namhafte internationale Expert*innen aus Wissenschaft, Politik, Zivilgesellschaft und Industrie zusammengebracht, um Forschung und Austausch zu fördern, politische Rahmenbedingungen zu diskutieren und letztlich die Entwicklung sicherer sowie ethischer KI-Systeme voranzutreiben. Zu den Speakern zählten unter anderem Yoshua Bengio, ein Pionier der KI-Forschung und Turing-Award-Gewinner, sowie Geoffrey Hinton, Nobelpreisträger. Die Konferenz wurde unter anderem von Mark Nitzberg von der UC Berkeley organisiert.

Forschende des DFKI und von CERTAIN haben dort GRACE (Governor for Reason-Aligned Containment) präsentiert: eine Systemarchitektur, die gewährleisten soll, dass autonome KI-Agenten nicht nur effektiv, sondern auch angemessen handeln. GRACE trennt die moralische Bewertung von der eigentlichen Entscheidungsfindung. Ein sogenanntes „Moralmodul“ legt mithilfe logikbasierter Regeln fest, welche Handlungen unter welchen Umständen erlaubt sind. Diese Regeln lernt es aus den Rückmeldungen eines „moralischen Anweisers“, einer externen moralischen Autorität (typischerweise ein Mensch). Das „Entscheidungsmodul“ umhüllt einen KI-Agenten und ermöglicht ihm, innerhalb jener Grenzen die praktisch besten Schritte zu wählen. Ein „Wächter“ kontrolliert die Einhaltung der Vorgaben. Wie dieser Ansatz Entscheidungen der KI-Systeme transparenter macht und es ermöglicht, das Verhalten der Systeme besser zu verstehen, zu überprüfen und anzupassen, zeigen die Autor*innen Felix Jahn (DFKI, Universität des Saarlandes), Yannic Muskalla (DFKI, Universität des Saarlandes), Lisa Dargasz (DFKI), Dr. Patrick Schramowski (DFKI, CERTAIN) und Dr. Kevin Baum (DFKI, Saarland Informatics Campus, CERTAIN) anhand eines KI-Therapieasssitenten.

Ein weiterer zentraler Hebel, um KI sicher zu gestalten, ist die Integration menschlicher Aufsicht. Um diesen zentralen Sicherheitsaspekt, der auch in der EU KI-Verordnung gefordert wird, interdisziplinär zu denken und zu diskutieren, haben Dr. Kevin Baum und Dr. Patrick Schramowski gemeinsam mit Prof. Dr. Markus Langer, Universität Freiburg, und Dr. Johann Laux, Oxford, den Workshop „Human Oversight of AI Variants, Technologies, and Conditions” organisiert. Die zentrale Frage war, inwiefern sich menschliche Aufsicht von anderen Formen der menschlichen Beteiligung unterscheidet und wie eine wirksame, angemessene und sinnvolle Aufsicht für aktuelle Systeme und zukünftige KI-Agenten erreicht werden kann.

A look into the workshop at UNESCO house© Kevin Baum