

Gegenstand der Betrachtung im AI Safety Report sind generative KI-Systeme, die vielfältige Aufgaben bewältigen können, die sogenannte General Purpose AI. Eine verbesserte Performance von KI, im Vergleich zum letzten Jahr, ist unter anderem auf neue Techniken zurückzuführen, die nach dem ursprünglichen Training der Modelle ansetzen. Während der Nutzung können diese zusätzliche Rechenleistung abrufen. Ausgaben der KI werden beim sogenannten „Reasoning“ in einzelne Antwortschritte unterteilt. Genauere Ergebnisse liefern Systeme heute besonders bei Mathematikfragen und im Bereich der Softwareentwicklung.
Wozu KI in der Lage ist, ist mit Vorteilen aber auch mit potenziellen Gefahren für die Gesellschaft behaftet. Antonio Krüger: „Die Sicherheit von KI wird immer wichtiger. Das, was der AI Safety Report leistet, müssen wir jetzt auf nationaler Ebene institutionell organisieren. Andere wichtige KI-Nationen sind uns hier einen Schritt voraus. Wir brauchen ein deutsches AI Safety Institute, das die dynamische Entwicklung von KI und ihre Risiken im Blick hat und die Bundesregierung kontinuierlich berät.“

Ein Augenmerk der KI-Entwicklung liegt aktuell auf KI-Agenten. KI-Systeme bekommen Zugriff auf externe Tools, z.B. Web-Browser, und führen selbstständig Aufgaben in der echten Welt aus. Da Menschen in das Handeln von KI-Agenten weniger eingreifen können, kann eine fehlende Zuverlässigkeit von KI zu einem größeren Problem werden, meinen die Experten. Trotz der Fortschritte und der größeren Verfügbarkeit von Agenten auf dem Markt scheitern die Systeme allerdings noch an sehr speziellen Aufgaben oder solchen mit vielen Schritten.
Neben Fehlfunktionen der KI zählt der Report die missbräuchliche Nutzung von KI zu den Risiken. Deepfakes wurden besser, können schwerer als solche identifiziert werden und es wird häufiger von Vorfällen berichtet, in denen KI-generierte Inhalte für kriminelle Zwecke eingesetzt werden. Außerdem werden KI-Systeme verstärkt für Cyberattacken genutzt. Dabei handelt es sich aber noch nicht um vollständig autonome Attacken. Da KI-Systeme in manchen Bereichen mittlerweile Informationen auf Expertenniveau bereitstellen, gibt es berechtigte Bedenken, dass dies für die Entwicklung biologischer und chemischer Waffen ausgenutzt werden kann.
Auch systemische Risiken sind wieder Teil der Betrachtung. Der Report verweist auf Anhaltspunkte, dass KI-Systeme die Autonomie der Menschen einschränken können. Nach der Nutzung einer KI-Assistenz wurden beispielsweise Ärzte unaufmerksamer bei der Ausführung ihres Berufs und konnten Tumore seltener erkennen.
Der Report hält fest, dass es für die Politik, Organisationen und Entwickler weiterhin nicht leicht ist, der Sicherheit von KI zu begegnen. Sicherheitsmaßnahmen müssten vielschichtig sein. „Defence-in-Depth“-Methoden, bei denen verschiedene Mittel kombiniert werden, um Schwachstellen einzelner Mittel auszugleichen, sind seit dem letzten Report verbreiteter. Doppelt so viele Unternehmen wie im letzten Jahr entwickelten „Frontier AI Safety Frameworks“, freiwillige Pläne zur Risikominimierung ihrer KI. Die technischen Vorkehrungen, die KI-Entwickler über den gesamten KI-Entwicklungszyklus treffen, wurden ausgefeilter, sind aber weiterhin angreifbar. Auch Regierungen haben neue Initiativen gestartet, die das Risikomanagement von KI standardisieren sollen.
"Was es noch nicht gibt, ist der Airbag für KI. Ein verlässlicher Schutzmechanismus, der uns abfängt, bevor der große Schaden eintritt. Ich bin mir sicher, dass die Forschung zu vertrauenswürdiger KI in Zukunft noch wichtige Erkenntnisse liefern wird, wie wir eine sichere KI erreichen. Aber das wird nur geschehen können, wenn die vielbeschworene KI-Souveränität der EU kein Lippenbekenntnis bleibt, sondern auch mit relevanten Investitionen in KI-Infrastruktur und in KI-Forschung unterlegt wird“, erklärt Krüger.
Media Relations & CEO Communications Lead