Zum Hauptinhalt springen

Projekte

Assoziierte Projekte

HyperMind - Das antizipierende Schulbuch

Das antizipierende Physikschulbuch, das wir im Projekt HyperMind entwickeln, soll zu einem dynamisch-adaptiven persönlichen Schulbuch werden und individuelles Lernen ermöglichen. HyperMind setzt an der Mikroebene des Physikschulbuchs an, die die einzelnen Darstellungsformen, sog. Repräsentationen, eines Schulbuches – wie z. B. den Schulbuchtext mit einem gewissen Anteil an Fachbegriffen, Formeln, Diagrammen oder Bildern – enthält.

Die statische Struktur des klassischen Buches wird aufgelöst. Stattdessen werden der Buchinhalte portioniert und die resultierenden Wissensbausteine assoziativ verlinkt. Zusätzlich werden die Bausteine mit multimedialen Lerninhalten ergänzt, die auf Basis von Aufmerksamkeits(blick-)daten abrufbar sind.

Die Projektseite befindet sich hier.

Be-greifen

Das Thema dieses Projektes ist die Erforschung innovativer Mensch-Technik-Interaktionen (MTI), die durch Verschmelzung von realer und digitaler Welt (augmented reality) den Zusammenhang zwischen Experiment und Theorie für Lernende des Studiums in MINT-Fächern begreifbar, erfahrbar und in Echtzeit interaktiv erforschbar machen.

Die Projektseite befindet sich hier.

ESPEDUCA - JST CREST (in Kooperation mit der Osaka Prefecture University)

Über das Internet kann Wissen geteilt werden. Die meisten Informationen beschränken sich hierbei jedoch auf "explizites Wissen" wie Text und nicht "implizites Wissen", wie die Erfahrung etwas selbst erlebt zu haben. Das Ziel dieses Projektes ist es, diese Erfahrungen mit Hilfe von Sensoren aufzunehmen und ermöglichen anderen diese Erfahrungen zur Verfügung zu stellen.

Eyetifact und GazeSynthesizer (in Kooperation mit der Osaka Prefecture University)

Mit Hilfe von Deep-Learning-Technologien wurde die Verarbeitung von Bildern, Audio und Sprache deutlich beschleunigt. Aktivitätserkennung hat davon noch nicht profitiert, da es schwierig ist auf diesem Gebiet eine große Menge an Daten zum Trainieren des Deep-Learning-Algorithmus zu erhalten. Je sensitiver und komplexer die Sensoren sind, desto schwerer ist es die benötigte Datenmenge zu erhalten. Mit Hilfe von Eyetifact werden Sensordaten aus verschiedenen Quellen kombiniert um mit Hilfe von Deep Learning einen Datensatz zu erstellen, so dass bei der anschließenden Verwendung einzelner Sensoren andere Daten vorhergesagt werden können.

Um die Lesbarkeit von Texten verbessern zu können müssen diese zunächste von einer großen Gruppe von Personen gelesen, die Augenbewegung aufgenommen und diese ausgewertet werden. GazeSynthesizer erzeugt basierend auf den Messungen an wenigen Seiten einen Datensatz und kann mit Hilfe von Deep Learning künstliche Augenbewegungen simulieren um so die Lesbarkeit von unbekannten Texten in Abhängigkeit von Parametern wie Alter oder kultureller Hintergrund simulieren.

SUN - Analyzing student understanding of vector field plots with respect to divergence

Das visuelle Verstehen abstrakter mathematischer Konzepte ist entscheidend für wissenschaftliches Lernen und eine Voraussetzung für das Entwickeln von Expertise. Dieses Projekt analysiert das Verständnis von Studenten beim Betrachten von Vektorfeldern unter Anwendung verschiedener visueller Strategien.

Die Projektseite befindet sich hier.