Skip to main content Skip to main navigation

Projekt

iACT

Multi-Channel Interaction in Virtual Environments

Multi-Channel Interaction in Virtual Environments

  • Laufzeit:

Der aktuelle Trend geht sowohl in Forschung und Industrie als auch im Heimbereich zu immer größeren und immersiveren Displays. Hierdurch lassen sich die bekannten Visualisierungsalgorithmen und Interaktionsmechanismen wie Keyboard und Maus nicht oder nur schlecht anwenden, so dass in allen Bereichen die Bedeutung neuer, adäquaterer Darstellungs- und Interaktionsmetaphern stark zunimmt. Auch die Entwicklung von Multidisplaylösungen (hochauflösende "Tiled Walls") schreitet weltweit immer weiter voran. Bislang existieren aber nur wenige Anwendungen, die diese neuen Voraussetzungen auch gewinnbringend und effektiv einsetzen können.

Das Ziel von iACT ist die Erforschung, Entwicklung und Evaluierung von Werkzeugen und Strategien, um die Möglichkeiten der Interaktion mit großen Displays besser verstehen und unterstützen zu können. Auch die Kollaboration zwischen mehreren Benutzern wird näher betrachtet. Die Hauptforschungsstränge sind das Design und die Untersuchung visueller Metaphern für große immersive Displays, die Entwicklung und Evaluierung adäquater Interaktionsmethoden sowie die Konzeption kollaborationsfördernder visueller Metaphern und Interaktionstechniken. Dies umfasst u.a.:

  • Erweiterung bisheriger Focus+Kontext-Techniken
  • Möglichkeiten und Einsatzpunkte von 2D und 3D
  • Nahtlose Integration unterstützender Interaktionserweiterungen via Handheld-Geräten
  • "Physikalische Navigationsmetaphern" zur automatischen Verschiebung des visuellen Fokus
  • Effiziente visuelle Unterstützung der Interaktion und Navigation
  • Kollaboration mehrerer Benutzer
  • Skalierbarkeit der Visualisierungs- und Interaktionsmetaphern
  • Intensive Evaluierung der entwickelten Modelle und Ergebnisse

Die bewusst breit angelegte Spanne von Anwendungen zur Demonstration und Evaluierung zeigt die Anwendungspotenziale der iACT Ideen. Zum einen sind dies Dokumentenräume, zum anderen die interaktive Darstellung beliebiger Objekte und deren Verknüpfung mit Dokumentenräumen. Als dritter Demonstrator ist die Visualisierung komplexer Softwarestrukturen in Zusammenarbeit mit dem Fraunhofer IESE geplant.

Fördergeber

BMBF - Bundesministerium für Bildung und Forschung

BMBF - Bundesministerium für Bildung und Forschung

Publikationen zum Projekt

Daniel Steffen; Achim Ebert; Matthias Deller; Peter Dannenmann

In: The 12th IFIP TC.13 Conference on Human-Computer Interaction. IFIP Conference on Human-Computer Interaction (INTERACT-09), August 24-28, Uppsala, Sweden, Lecture Notes in Computer Science (LNCS), Vol. 5726 / 5727, ISBN 987-3-642-03654-5 / 987-3-642-03654-6, Springer, 8/2009.

Zur Publikation

Achim Ebert; Matthias Deller; Daniel Steffen; Matthias Heintz

In: Constantine Stephanidis (Hrsg.). Universal Access in Human-Computer Interaction. Applications and Services. International Conference on Universal Access in Human-Computer Interaction - Addressing Diversity (UAHCI-2009), 5th, located at HCI International 2009, July 19-24, San Diego, CA, USA, Pages 179-188, Lecture Notes in Computer Science (LNCS), Vol. III, No. 5616, ISBN 978-3642027123, Springer-Verlag, Berlin/Heidelberg, 7/2009.

Zur Publikation

Jan Malburg

Mastersthesis, HTW, Fachbereich Grundlagen, Informatik, Sensortechnik, 3/2009.

Zur Publikation