Wir sind eine Forschungsgruppe im MLT-Lab am DFKI, die sich auf Dialogverarbeitung für die Mensch-Roboter-Kooperation und zur Unterstützung der Teamarbeit spezialisiert.
Ziel der Dialogverarbeitung ist der Aufbau von Systemen, die natürliche gesprochene Dialoginteraktionen interpretieren und daran teilnehmen können. Dialogverarbeitung umfasst automatische Spracherkennung, Verstehen natürlicher Sprache und Interpretation multimodaler Eingaben, Modellierung von Dialogzuständen, Dialogmanagement, Generierung und Synthese von verbalen und multimodalen Ausgaben. Dialog ist situiert, sozial und persönlich. Daher modellieren wir auch, wie sich das Gesagte auf die vorausgegangene(n) Interaktion(en), das Wissen über die Welt und die physische Situation bezieht und darauf aufbaut, welche Rollen die Dialogteilnehmer haben und welche Beziehungen zwischen ihnen bestehen und wie die aktuelle Interaktion die gesammelten interpersonellen Erfahrungen widerspiegelt.
Wir haben umfangreiche Erfahrungen mit Dialogverarbeitung in einer Vielzahl von Anwendungen, darunter Heim- und Büroservice, Gesundheitswesen, Mensch-Roboter-Zusammenarbeit in hybriden industriellen Produktionsteams und robotergestützte Katastrophenhilfe. In verschiedenen EU- und nationalen Projekten haben wir Dialogverarbeitung in mobile roboterbasierte Systeme integriert. In diesen Kontexten haben wir intensiv mit Endbenutzern gearbeitet, darunter Ersthelfer (z.B. Feuerwehreinsatzkräfte), Patienten (z.B. zuckerkranke Kinder) und Pflegepersonal.
A-DRZ baut ein Kompetenzzentrum auf, das wissenschaftliche und technische Expertise in der robotergestützten Katastrophenhilfe bündelt. Die TR-Gruppe entwickelt Methoden, um die verbale Kommunikation zwischen den Mitgliedern des Einsatzteams zu interpretieren und in Einsatzprozessmodellen zu verankern.
Projektwebsite: www.rettungsrobotik.de
Video: https://www.youtube.com/watch?v=ZWD6XDIzc8w
YouTube-Channel: https://www.youtube.com/channel/UCdFmco0w3RFACmCtygMNiMA
NotAs untersucht den Einsatz von Sprachtechnologie zur Unterstützung von Notrufmitarbeitern bei der Bearbeitung fremdsprachiger Anrufe. Die TR-Gruppe entwickelt maschinelle Übersetzung und Interpretation für Notrufe.
IMPRESS untersucht die Integration von semantischem Wissen in linguistische und multimodale Einbettungen und die Auswirkungen auf ausgewählte nachgelagerte Aufgaben bei der Verarbeitung von Sprache und Bild/Video.
Co(n)textual Reasoning and Adaptation for Natural Language Processing
Laufzeit: 01.10.2020-30.09.2023, durch BMBF gefördert.
XAINES (01.09.2020 - 31.08.2024): Explaining AI with Narratives, funded by BMBF (01IW20005).
INTUITIV untersucht die intuitive nonverbale und informative verbale Roboter-Mensch-Kommunikation. Die TR-Gruppe entwickelt Methoden für die situierte gesprochene natürlichsprachliche Interaktion mit Schwerpunkt auf dem Indoor-Navigationsdialog.
PAL (EU; 2015-2019) entwickelte ein integriertes System, das umfassende, langfristige, personalisierte und kontextsensitive Unterstützung bietet, um das Selbstmanagement von Kindern mit Typ-1-Diabetes zu fördern, so dass eine angemessene gemeinsame Verantwortung von Patient und Erzieher festgelegt wird, bevor das Kind das Jugendalter erreicht. Die TR-Gruppe hat Dialogmanagement, Langzeit-Interaktionsgedächtnis und Verarbeitung der gesprochenen Ein- und Ausgaben erarbeitet.
Mehr Details
Konzepterklärungsvideo: https://www.youtube.com/watch?v=v_7RqBq6tv0
TRADR: Long-Term Human-Robot Teaming for Robot-Assisted Disaster Response (EU; 2013-2017) untersuchte, wie ein Team, das aus Menschen und mehreren boden- und Flugrobotern besteht, in einer Langzeitmission über mehrere synchrone und asynchrone Einsätze nach und nach Situationsbewusstsein und Erfahrung entwickelt. TRADR befasste sich mit der Persistenz von Umgebungsmodellen, Multi-Roboter-Aktionsmodellen und der Mensch-Roboter-Kooperation im Zeitverlauf. Die TR-Gruppe erforschte vor allem die Dialogverarbeitung für Teamkommunikation und interaktive Missionsberichterstattung.
Projektwebsite: http://www.tradr-project.eu
Videos:
TRADR Joint Exercise Dortmund 2015: Einsatzkonzept: https://www.youtube.com/watch?v=4z86nUlgEqc
TRADR Joint Exercise 2016 Prague: Übersicht von Technologien: https://www.youtube.com/watch?v=mJpLdiC75ns
Endreview: https://www.youtube.com/watch?v=W8onMryGTEA
TRADR youtube channel: https://www.youtube.com/channel/UCvrPijjrCFGWdJIHkKbFK-A
HySocieTea: Hybrid Social Teams for Long-Term Collaboration in Cyber-Physical Environments (BMBF, 2014-2016) examined collaboration and communication in teams consisting of technologically augmented humans, autonomous robots, virtual characters and softbots, working on joint tasks in flexible production processes. The TR group contributed to the development of an integrated team collaboration system, including the processing for spoken dialogue between humans and artificial agents and otology-based modeling and reasoning for contextual reference resolution and generation.
Video: https://youtu.be/mdu60HFZrP8
Interim-Teamleitung:
Teammitglieder:
Tatiana Anikina
Cennet Oguz
Natalia Skachkova
Wissenschaftliche Hilfskräfte:
Ludmilla Borisenkov
Katharina Christian
Denise Coutandin
Priyanka Das
Alina Leippert
David Meier
Sangeet Sagar
Iulia Zaitova