Projekt

SC_Gomaa

TeachTAM: Machine Teaching with Hybrid Neurosymbolic Reinforcement Learning; The Apprenticeship Model

TeachTAM: Machine Teaching with Hybrid Neurosymbolic Reinforcement Learning; The Apprenticeship Model

  • Laufzeit:

Die jüngsten Fortschritte im Bereich des Machine Learning (insbesondere Computer Vision und Reinforcement Learning) haben es Robotern ermöglicht, Objekte und die Umgebung auf einer nicht-symbolischen Wahrnehmungsebene zu verstehen (z. B. Objekterkennung, Sensorfusion und Sprachverständnis). Ein aktuelles Forschungsgebiet ist jedoch das Verstehen von Objekten auf einer konzeptionell-symbolischen Ebene, so dass ein Niveau erreicht wird, auf dem Roboter wie Menschen lernen. Es geht also um ein System, in dem ein professioneller menschlicher Mitarbeiter einem Roboterlehrling konzeptionelles Wissen beibringen kann.

Daher haben Forscher:innen vor kurzem versucht, symbolische und nicht-symbolische Lernparadigmen durch Deep Reinforcement Learning (RL) zu kombinieren, um letztendlich einen menschenähnlichen Roboterlehrling zu schaffen. Das hat jedoch auch Nachteile, wie z. B: (1) die Notwendigkeit einer sehr langen Trainingszeit im Vergleich zu traditionellen Deep-Learning-Ansätzen, (2) die Konvergenz zu einer optimalen Strategie ist nicht garantiert, und es kann bei einer suboptimalen Strategie stecken bleiben, (3) ein RL-System wird in einer simulierten Umgebung trainiert, so dass er keine Aktionen vorhersehen kann, die ausschließlich in der physischen Umgebung existieren.

Ziel dieses Projekts ist es daher, ein praktisches maschinelles Echtzeit-Lernsystem in einer physischen Umgebung zu entwickeln, das auf dem Paradigma der Lehre basiert (z. B. Nachahmungslernen, Klonen von Verhaltensweisen und inverses Verstärkungslernen). Das künstliche System (d.h. der Roboter) würde sowohl auf der Wahrnehmungs- als auch auf der Begriffsebene explizit durch direktes Feedback eines menschlichen Lehrers lernen, während er implizit durch die Nutzung seiner vorhandenen Wahrnehmung (d.h. der Sensoren) der Welt auf natürliche, multimodale Weise lernt und versteht. Darüber hinaus wäre dieses System ein dynamisches, universelles System, das mehrere Bereiche (z. B. Industrieroboter, chirurgische Roboter und Handwerksroboter) mit geringen oder gar keinen Änderungen an der Modellarchitektur (durch Transferlernen) abdecken kann und gleichzeitig spezifisch genug ist, damit Fachleute ihr Wissen in den Lernprozess einbringen können.

Partner

ZEISS Group

Fördergeber

BMBF - Bundesministerium für Bildung und Forschung

BMBF - Bundesministerium für Bildung und Forschung

Projekt teilen auf:

Keyfacts

Publikationen zum Projekt

Amr Gomaa

In: ICMI '22: International Conference on Multimodal Interaction. ACM International Conference on Multimodal Interaction (ICMI-2022) befindet sich 24rd ACM International Conference on Multimodal Interaction November 7-11 Bangalore India ISBN 978-1-4503-9390-4 Association for Computing Machinery (ACM) 11/2022.

Zur Publikation

Deutsches Forschungszentrum für Künstliche Intelligenz
German Research Center for Artificial Intelligence