Skip to main content Skip to main navigation

Projekt

KOALA

Kontextadaptionen für E-Learning Plattformen durch die Analyse des kognitiven Zustandes des Nutzers

Kontextadaptionen für E-Learning Plattformen durch die Analyse des kognitiven Zustandes des Nutzers

  • Laufzeit:

E-Learning Plattformen ermöglichen es Ihren Nutzern, in Ihrer eigenen Geschwindigkeit und zu beliebigen Zeiten zu lernen. Die stetige Verfügbarkeit von mobilem Internet und das omnipräsente Smartphone ermöglichen heutzutage sogar ubiquitäres Lernen, z.B. in Bus und Bahn oder sogar während des Sports durch das Hören von Audioinhalten. Die Vielzahl an angebotenen Medienformaten und Inhalten erlauben den Nutzern, zwischen diesen zu wechseln und Kursinhalte in unterschiedlicher Reihenfolge zu durchlaufen, anstatt sich an starre lineare Vorgaben zu halten. Allerdings findet derzeit kaum automatisierte Adaptivität an die Lernsituation des Nutzers statt. Existierende Kontextadaptionen sind zumeist statisch definiert und betrachten bisher nur wenige Aspekte. So adaptiert sich beispielsweise die Oberfläche an das Endgerät, die Lerninhalte an ein vordefiniertes Lernziel oder es werden alternative Ressourcen oder Foren vorgeschlagen, wenn ein Nutzer schlecht in Tests abschneidet.

In diesem Projekt sollen Methoden gefunden werden, um das Lernerlebnis gezielt an die Situation des Nutzers anzupassen und so zu einem besseren Lernerfolg beizutragen. Neuartig in Bezug auf den Kontext ist hierbei die Vielzahl an betrachteten Zuständen. So werden neben gängigen Kontextinformationen erweiterte Eigenschaften wie der Bewegungsmodus (in Ruhe, gehend, laufend, im Auto) und die Umgebungsgeräusche herangezogen. Außerdem werden Sensorwerte, die Aufschluss über den kognitiven Zustand des Nutzers bieten, integriert. So soll die visuelle Aufmerksamkeit des Nutzers mittels Eyetracking ermittelt werden, während die kognitive Beanspruchung und der empfundene Stress mittels einer Kombination aus biometrische Sensoren von Wearables und ins Gerät integrierter Frontkamera ermittelt werden. Die körpernahen Sensoren liefern hierbei wichtige Informationen wie die Herzfrequenzvariabilität und den Hautleitwiderstand, während die Kameras genutzt werden um die Emotionsausdrücke (mittels existierender Neuronaler Netze) und die Häufigkeit des Blinzelns zu ermitteln. Weiterhin ist die Integration eines Eye Trackers zur besseren Analyse der Augenbewegungen denkbar. Während diese Vielzahl an Sensoren Daten aufzeichnet, soll die Produktivität des Nutzers in den durch diese Daten beschriebenen Situationen analysiert werden. Hierzu können simple Metriken, wie die benötigte Zeit für Leseeinheiten, das Hin- und Herspringen in Videos oder die Güte der Antworten in automatisierten Tests, herangezogen werden. Basierend auf den gesammelten Daten über die Lernproduktivität in verschiedenen Situationen soll mittels maschinellen Lernens ein Modell trainiert werden, welches für gegebene Situationen optimale Lerninhalte vorschlägt, d.h. das Medienformat sowie das Abstraktionslevel angepasst.

Beispielsweise könnten in stressigen Situationen mit geringerer Aufmerksamkeit, z.B. unterwegs in öffentlichen Verkehrsmitteln, eher anwendungsnahe Videos mit hohem Abstraktionsniveau vorgeschlagen werden, während bei guter Aufmerksamkeit und geringem Stress am Schreibtisch durchaus komplexe Fachartikel zur Lektüre angeboten werden könnten.

Partner

Holtzbrinck Publishing Group

Fördergeber

BMBF - Bundesministerium für Bildung und Forschung

01IS17043

BMBF - Bundesministerium für Bildung und Forschung

Publikationen zum Projekt

Nico Herbig; Tim Düwel; Mossad Helali; Lea Eckhart; Patrick Schuck; Subhabrata Choudhury; Antonio Krüger

In: Proceedings of the 28th ACM Conference on User Modeling, Adaptation and Personalization. International Conference on User Modeling, Adaptation, and Personalization (UMAP-2020), July 12-18, Genoa, Italy, Pages 88-97, ISBN 9781450368612, Association for Computing Machinery, New York, NY, USA, 7/2020.

Zur Publikation

Nico Herbig; Patrick Schuck; Antonio Krüger

In: Proceedings of the 18th International Conference on Mobile and Ubiquitous Multimedia. International Conference on Mobile and Ubiquitous Multimedia (MUM-2019), November 27-29, Pisa, Italy, ISBN 978-1-4503-7624-2/19/11, ACM, 11/2019.

Zur Publikation