Skip to main content Skip to main navigation

Projekt | INTUITIV

Laufzeit:
Intuitiv-nonverbale und informativ-verbale Roboter-Mensch-Kommunikation

Intuitiv-nonverbale und informativ-verbale Roboter-Mensch-Kommunikation

Anwendungsfelder

Unser Ziel ist zu untersuchen wie Intentionen eines Roboters von Menschen verstanden werden können durch antizipierbare Pfadwahl in Kombination mit ikonischer und sprachlicher Kommunikation, so dass das Unbehagen wegen Unsicherheit hinsichtlich der Aktionen eines Roboters minimiert wird.

Jährliche Zuwachszahlen von über 10% bei Roboterinstallationen demonstrieren die zunehmende Bedeutung von Robotern, wobei es sich meistens um Industrieroboter handelt, die fast vollständig hinter Schutzzäunen von den Menschen abgeschottet sind. Ein enger Kontakt ist hingegen bei autonomen Servicerobotern für die Heimnutzung oder im Pflegebereich allgegenwärtig. Der optimalen Gestaltung der Kommunikation zwischen Roboter und Patient, Pflegepersonal oder Dritten bei episodischen Begegnungen während der autonomen Bewegung im Sinne der optimalen Wahl der Kommunikationsmodalität (nonverbal kinematisch, nonverbal ikonisch, verbal) ist bisher wenig Aufmerksamkeit gewidmet worden. Ziel des Projektes ist es, am Beispiel des Einsatzes im ReHa-Bereich intuitive nonverbale und informative verbale Kommunikationsformen zwischen Roboter und Mensch zu entwickeln, die auf sehr unterschiedliche Anwendungsdomänen von Robotern im Servicebereich mit direkter Mensch-Roboter-Interaktion übertragbar sind.

Zur Erreichung des Kommunikationsverhaltens müssen verschiedene Modalitäten integriert werden. Hierzu werden Verfahren entwickelt, die Perzeptionen visueller und auditiver Art zu kohärenten Eingaben kombinieren und geeignete Ausgabemodalitäten auswählen und synchronisieren. Zur Realisierung der automatischen Bewegungen für selbstfahrende robotische Systeme im Anwendungsumfeld werden Lösungen für folgende Problembereiche erarbeitet: Erstens zuverlässige und robuste Lokalisierung und Navigation, im Umgang mit variabel vielen Menschen und Verdeckungen. Zweitens Fahrmodelle, die für Menschen antizipierbare Bewegungen ergeben – ggf. kombiniert mit verbalen und ikonischen Modalitäten. Zur Nutzung der verbalen Kommunikation wird untersucht, wie damit Beziehungen zwischen Mensch und Roboter aufgebaut, erhalten und wieder angemessen aufgelöst werden können. Dies umfasst insbesondere auch Dialoge über Intentionen, die nicht durch Bewegungsmuster oder ikonisch eindeutig erkennbar sind.

Partner

  • EK AUTOMATION, Reutlingen (Koordinator)
  • GESTALT Robotics GmbH, Berlin
  • HFC Human-Factors-Consult GmbH, Berlin
  • DFKI GmbH

Publikationen zum Projekt

  1. Spoken language interaction with robots: Recommendations for future research

    Matthew Marge; Carol Espy-Wilson; Nigel G Ward; Abeer Alwan; Yoav Artzi; Mohit Bansal; Gil Blankenship; Joyce Chai; Hal Daumé III; Debadeepta Dey; Mary Harper; Thomas Howard; Casey Kennington; Ivana Kruijff-Korbayová; Dinesh Manocha; Cynthia Matuszek; Ross Mead; Raymond Mooney; Roger K Moore; Mari Ostendorf; Heather Pon-Barry; Alexander I Rudnicky; Matthias Scheutz; Robert St Amant; Tong Sun; Stefanie Tellex; David Traum; Zhou Yu

    In: Computer Speech & Language (CSL), Vol. 71, Pages 1-13, Elsevier, 1/2021.

Fördergeber

BMBF - Bundesministerium für Bildung und Forschung

FKZ 16SV7979

Forschung und Entwicklung auf dem Gebiet "Roboter für Assistenzfunktionen: Interaktionsstrategien". Bundesanzeiger vom 17.02.2017

BMBF - Bundesministerium für Bildung und Forschung