Skip to main content Skip to main navigation

Projekt | AICASys

Laufzeit:
Adaptive Intention Controlled Assistance System for Smart-Home Control

Adaptive Intention Controlled Assistance System for Smart-Home Control

Durch die stetige Weiterentwicklung der Computer-Technik erreichen digitale Steuerungen eine immer größere Leistungsfähigkeit. Zudem können Steuerungselemente durch die Vernetzung von Komponenten und die Einbettung in die Einzelanwendungen verstärkt in der Umgebung verteilt werden. Dadurch entsteht insgesamt ein intelligentes computergesteuertes Automationssystem. Während schon ausgereifte Hard- und Software-Lösungen in vielen Bereichen wie beispielsweise der industriellen Automationstechnik und der Gebäudeautomation existieren, bietet die Gestaltung einer intuitiven Interaktion zwischen den technischen Systemen und den Bedienern im privaten Hausbereich eine Reihe von wissenschaftlichen und technischen Fragen, die sich mit folgender zentraler Fragestellung zusammenfassen lassen: Wie können komplexe technische Assistenzsysteme einfach und leicht trotz körperlicher oder kognitiver Einschränkungen mithilfe adaptiver Bedienelemente erlernt und bedient werden? Neben Ansätzen zur Architektur von Mensch-Technik-Systemen sollen in diesem Projekt spezielle Lösungen zur intuitiven blickgesteuerten Bedienung von Automationssystemen erarbeitet werden. Hierbei wird auf Anwendungen im Bereich der Gebäude-Automation fokussiert, bei denen Endnutzer mit unterschiedlichen und zum Teil eingeschränkten Fähigkeiten im Vordergrund stehen. Verteilte Steuerungselemente sind beispielsweise für Menschen mit Gehbehinderung schwer erreichbar. Mobile Steuerelemente basierend auf Touchpad- oder Smart-Phone-Anwendungen sind hingegen in vielen Fällen nicht behindertengerecht oder nicht intuitiv, was den Umgang mit diesen Systemen erschwert. Daher wird eine Lösung vorgeschlagen, die auf dem natürlichen Blickverhalten des Nutzers in seiner gewohnten Umgebung beruht. Der Nutzer kann dabei ohne weitere Hilfe allein mit seinen Augen die smarten Gerätschaften in der nahen Umgebung (z.B. Kommunikations-, Mobilitäts- und Gebäudeautomationsgeräte etc.) bedienen, ohne den Eindruck zu bekommen, in einem künstlichen Umfeld (z.B. vor dem Bildschirm) zu sein. Außerdem soll dadurch auch in Notfallsituationen besser geholfen werden. Durch adaptive und lernende Verfahren wird ein hoher Anpassungsgrad an die Umgebung und an die individuellen Nutzereigenschaften sowie an den Lernfortschritt beim Bedienverhalten erreicht. Weiterhin wird die Ausbringung und Wartung der Systeme erheblich erleichtert. Durch die allgemeine Einsetzbarkeit der Technologien und die aktuelle Kostenentwicklung der Eingabegeräte wird eine weitere große zukünftige Verbreitung in der industriellen Automationstechnik, in den Assistenztechnologien für Land-, Wasser- und Luftfahrzeuge sowie in der Kommunikationstechnik und in der Unterhaltungsindustrie erwartet.

Partner

  • SensoMotric Instruments GmbH (SMI)
  • Universität Heidelberg (UHEI), Institut für Technische Informatik Lehrstuhl für Automation
  • CIBEK technology + trading GmbH
  • FZI Forschungszentrum Informatik
  • Jäger Direkt (Assoziierter Partner)

Publikationen zum Projekt

  1. Knowledge transfer from experts to novices in minimally invasive catheter-mediated (MIC) interventions, eye-tracking study

    Mohammad Osamh Adel Al-Naser; Syed Saqib Bukhari; Peter Lanzer; Seyyed Saleh Mozaffari Chanijani; Andreas Dengel

    In: Proceedings of the 18th International Conference on Human-Computer Interaction with Mobile Devices and Services Adjunct. International Conference on Human-Computer Interaction with Mobile Devices and Services (MobileHCI-06), September 6-9, Florence, Italy, ISBN 978-1-4503-4413-5, ACM, 2016.

Fördergeber

BMBF - Bundesministerium für Bildung und Forschung

BMBF - Bundesministerium für Bildung und Forschung