Projekt

DECODE

Continual Learning zur visuellen und multimodalen Erkennung menschlicher Bewegungen und des semantischen Umfeldes in alltäglichen Umgebungen

Continual Learning zur visuellen und multimodalen Erkennung menschlicher Bewegungen und des semantischen Umfeldes in alltäglichen Umgebungen

Das Maschinelle Lernen und insbesondere Künstliche Intelligenz (KI) in Tiefen Lernverfahren („Deep Learning“) haben das Maschinelle Sehen („Computer Vision“) in fast allen Bereichen revolutioniert. Dazu zählen Themen wie Bewegungschätzung, Objekterkennung, Semantische Segmentierung (Aufteilung und Klassifikation der Teile eines Bildes), Posenschätzung von Personen und Händen, und viele weitere. Ein großes Problem bei diesem Verfahren stellt die Verteilung der Daten dar. Trainingsdaten unterscheiden sich oft stark von realen Anwendungen und decken diese nur unzureichend ab. Selbst wenn geeignete Daten vorhanden sind, ist ein umfangreiches Nachtrainieren zeit- und kostenintensiv. Adaptive Methoden die kontinuierlich dazu lernen (Lebenslanges Lernen), bilden die zentrale Herausforderung zur Entwicklung von robusten, realitätsnahen KI-Anwendungen. Neben der reichen Historie auf dem Gebiet des allgemeinen kontinuierlichen Lernens („Continual Learning“) hat auch das Themenfeld von kontinuierlichem Lernen für Machinelles Sehen unter Realbedingungen jüngst an Interesse gewonnen. Ziel des Projektes DECODE ist die Erforschung von kontinuierlich adaptierfähigen Modellen zur Rekonstruktion und dem Verständnis von menschlicher Bewegung und des Umfeldes in anwendungsbezogenen Umgebungen. Dazu sollen mobile, visuelle und inertiale Sensoren Beschleunigungs- und Drehratensensoren) verwendet werden. Für diese verschiedenen Typen an Sensoren und Daten sollen unterschiedliche Ansätze aus dem Bereich des Continual Learnings erforscht und entwickelt werden um einen problemlosen Transfer von Laborbedingungen zu alltäglichen, realistischen Szenarien zu gewährleisten. Dabei konzentrieren sich die Arbeiten auf die Verbesserung in den Bereichen der segmantische Segmentierung von Bildern und Videos, derder Schätzung von Kinematik und Pose des menschlichen Körpers sowie der Repräsentation von Bewegungen und deren Kontext. Das Feld potentieller Anwendungsgebiete für die in DECODE entwickelten Methoden ist weitreichend und umfasst eine detaillierte ergonomische Analyse von Mensch-Maschine Interaktionen zum Beispiel am Arbeitsplatz, in Fabriken, oder in Fahrzeugen.

Fördergeber

BMBF - Bundesministerium für Bildung und Forschung

01IW21001

BMBF - Bundesministerium für Bildung und Forschung

Projekt teilen auf:

Keyfacts

Publikationen zum Projekt

Mahdi Saleh, Nassir Navab, Benjamin Busam, Federico Tombari, Yongzhi Su, Torben Fetzer, Jason Raphael Rambach, Didier Stricker

In: IEEE/CVF. International Conference on Computer Vision and Pattern Recognition (CVPR-2022) June 19-24 New Orleans Louisiana United States IEEE/CVF 2022.

Zur Publikation
Gabriele Bleser, Michael Lorenz, Didier Stricker, Bertram Taetz

In: Proceedings of the 25th International Conference on Information Fusion in Linköping. International Conference on Information Fusion (FUSION-2022) July 4-7 Linköping Sweden IEEE Explore 2022.

Zur Publikation

Deutsches Forschungszentrum für Künstliche Intelligenz
German Research Center for Artificial Intelligence