

Bereits heute entscheiden Algorithmen darüber, wer einen Kredit erhält, welche Nachrichten wir sehen und wie Polizeiarbeit organisiert wird. Angesichts der wachsenden realen Auswirkungen von KI-Systemen wird eine Ausrichtung auf Sicherheit und an ethischen Regeln immer wichtiger. Die IASEAI befasst sich mit diesem Thema und hat im Rahmen der IASEAI‘2026 Conference namhafte internationale Expert*innen aus Wissenschaft, Politik, Zivilgesellschaft und Industrie zusammengebracht, um Forschung und Austausch zu fördern, politische Rahmenbedingungen zu diskutieren und letztlich die Entwicklung sicherer sowie ethischer KI-Systeme voranzutreiben. Zu den Speakern zählten unter anderem Yoshua Bengio, ein Pionier der KI-Forschung und Turing-Award-Gewinner, sowie Geoffrey Hinton, Nobelpreisträger. Die Konferenz wurde unter anderem von Mark Nitzberg von der UC Berkeley organisiert.
Forschende des DFKI und von CERTAIN haben dort GRACE (Governor for Reason-Aligned Containment) präsentiert: eine Systemarchitektur, die gewährleisten soll, dass autonome KI-Agenten nicht nur effektiv, sondern auch angemessen handeln. GRACE trennt die moralische Bewertung von der eigentlichen Entscheidungsfindung. Ein sogenanntes „Moralmodul“ legt mithilfe logikbasierter Regeln fest, welche Handlungen unter welchen Umständen erlaubt sind. Diese Regeln lernt es aus den Rückmeldungen eines „moralischen Anweisers“, einer externen moralischen Autorität (typischerweise ein Mensch). Das „Entscheidungsmodul“ umhüllt einen KI-Agenten und ermöglicht ihm, innerhalb jener Grenzen die praktisch besten Schritte zu wählen. Ein „Wächter“ kontrolliert die Einhaltung der Vorgaben. Wie dieser Ansatz Entscheidungen der KI-Systeme transparenter macht und es ermöglicht, das Verhalten der Systeme besser zu verstehen, zu überprüfen und anzupassen, zeigen die Autor*innen Felix Jahn (DFKI, Universität des Saarlandes), Yannic Muskalla (DFKI, Universität des Saarlandes), Lisa Dargasz (DFKI), Dr. Patrick Schramowski (DFKI, CERTAIN) und Dr. Kevin Baum (DFKI, Saarland Informatics Campus, CERTAIN) anhand eines KI-Therapieasssitenten.
Ein weiterer zentraler Hebel, um KI sicher zu gestalten, ist die Integration menschlicher Aufsicht. Um diesen zentralen Sicherheitsaspekt, der auch in der EU KI-Verordnung gefordert wird, interdisziplinär zu denken und zu diskutieren, haben Dr. Kevin Baum und Dr. Patrick Schramowski gemeinsam mit Prof. Dr. Markus Langer, Universität Freiburg, und Dr. Johann Laux, Oxford, den Workshop „Human Oversight of AI Variants, Technologies, and Conditions” organisiert. Die zentrale Frage war, inwiefern sich menschliche Aufsicht von anderen Formen der menschlichen Beteiligung unterscheidet und wie eine wirksame, angemessene und sinnvolle Aufsicht für aktuelle Systeme und zukünftige KI-Agenten erreicht werden kann.
