Skip to main content Skip to main navigation

Projekt

ChiM

Chatbot im Museum

Chatbot im Museum

Bis heute begleiten Audio- oder Mediaguides Ausstellungsbesuche und bieten Erklärungen für museale Objekte an. Mit dem Projekt CHIM soll eine lernende, konversationale Museumsführung entwickelt werden, die interaktiven Wissenstransfer ermöglicht. Der „Chatbot im Museum“ ist ein lernendes, multimodales Dialogsystem und ein potenzieller „Game Changer“ im wachsenden Markt musealer Wissensvermittlung. Mit Hilfe von Künstlicher Intelligenz wird das sprachbasierte Dialogsystem Besucherinnen und Besucher durch die Ausstellungen führen. Ziel ist dabei, dass der Chatbot Fragen zu Objekten möglichst korrekt beantworten kann. CHIM nutzt automatische Spracherkennung und ein hybrides System für Sprachverstehen, bei dem die Intention einer Nutzeräußerung ermittelt und dem Text eine Bedeutung zugewiesen werden muss. Für diese Technologie werden Methoden des maschinellen Lernens genutzt. Bei CHIM werden dafür zum einen strukturiertes Wissen aus Museumsdatenbanken und zum anderen Sprachmodelle, die auf großen Datenmengen trainiert wurden, genutzt. Viele Faktenfragen können direkt über die Daten aus der Museumsdatenbank beantwortet werden. Eine unserer Forschungsfragen ist, wie gut CHIM offene Fragen mit Hilfe von großen Sprachmodellen beantworten kann, wenn ein spezifisches Objekt und ein zugehöriger Text als Kontext zur Verfügung stehen. Um Trainingsmaterial zu erlangen, wurde zunächst eine erfolgreiche Kampagne zur Fragenstellung durchgeführt. Der nächste Schritt wird die Zuordnung der Fragen zu vorhandenen Inhalten sein. Mit den Daten werden KI-Modelle erzeugt, die relevante Antworten erzeugen können. Informatikerinnen, Multimediaguide-Spezialistinnen und Expertinnen aus dem Bereich Museum kollaborieren für die Realisierung des Projekts. Das Projektvorhaben zielt auf die Entwicklung einer ökonomisch tragfähigen Lösung ab. Es soll gewährleistet werden, dass CHIM an verschiedene Wissensvermittlungssysteme angebunden ist und Nutzerinnen gleichzeitig verständliche Informationen bietet. Die Strukturierung der Daten mittels semantischer Annotation, adäquate Dialogstrategien sowie die Möglichkeit zur multimodalen Intentionserkennung sind technische Pfeiler des Projekts.

Partner

Linon Medien KG

Fördergeber

BMBF - Bundesministerium für Bildung und Forschung

16SV8331

BMBF - Bundesministerium für Bildung und Forschung

Publikationen zum Projekt

Oliver Gustke; Stefan Schaffer; Aaron Ruß

In: Sonja Thiel; Johannes C. Bernhardt. AI in Museums: Reflections, Perspectives and Applications. Pages 257-264, ISBN 9783839467107, transcript Verlag, Bielefeld, 2023.

Zur Publikation

Stefan Schaffer; Aaron Ruß; Oliver Gustke

In: Proceedings of the 11th EAI International Conference: ArtsIT, Interactivity & Game Creation. EAI International Conference: ArtsIT, Interactivity & Game Creation (ArtsIT-2022), November 21-22, Faro, Portugal, EAI Conference series, Springer International Publishing, 2022.

Zur Publikation

Mino Lee Sasse; Stefan Schaffer; Aaron Ruß

In: 32. Konferenz Elektronische Sprachsignalverarbeitung. Elektronische Sprachsignalverarbeitung (ESSV-2021), March 3-5, Berlin/Virtual, Germany, TUDpress, Dresden, 2021.

Zur Publikation