Zum Hauptinhalt springen

Assoziierte Projekte

InCoRAP

Intentionsbasierte kooperative Roboterhandlungsplanung und Werkerunterstützung in Fabrikumgebungen

Das Projekt InCoRAP erforscht die Mensch-Roboter-Interaktion in Fabrikumgebungen unter Berücksichtigung der Intention des Menschen. Dies erlaubt die fließende Interaktion zwischen Mensch und Roboter, da der Roboter erkannte Intentionen des Menschen bereits in seine Handlungen integrieren kann. Bestehende Ansätze zur Unterstützung von Werkern nutzen vergleichsweise wenige Informationen wie die Bewegung des Werkers in der Umgebung, um die Handlungen des Roboters zu adaptieren. Dies führt oft zu Unterbrechungen der Interaktion, wenn beispielsweise der Roboter noch Handlungen ausführt, die im aktuellen Kontext gar nicht mehr notwendig wären. Dieses grundlegende Problem wird im Projekt InCoRAP gelöst, indem sämtliche Assistenzfunktionalität (einschließlich der Aktionen des Roboters) auf die erkannten Intentionen des Werkers gestützt werden. Um solche Intentionen abzuleiten, betrachtet das Projekt Sensordaten in Bezug auf die aktuelle Aufgabe des Werkers. Dies erfordert ein umfassendes Modell der Umgebung, das sowohl Informationen aus einer Vielzahl von Sensoren als auch Prozessinformationen aus z.B. einem ERP-System integriert. Die Erkennung menschlicher Intentionen aus verfügbaren Sensordaten, die Generierung und Pflege eines solchen multisensorischen hierarchischen semantischen Modells der aktuellen Umgebung und deren Verwendung für die Aktionsplanung und situationsgerechte Unterstützung bilden den F&E-Schwerpunkt des Projekts.

HyperMind - Das antizipierende Schulbuch

Das antizipierende Physikschulbuch, das wir im Projekt HyperMind entwickeln, soll zu einem dynamisch-adaptiven persönlichen Schulbuch werden und individuelles Lernen ermöglichen. HyperMind setzt an der Mikroebene des Physikschulbuchs an, die die einzelnen Darstellungsformen, sog. Repräsentationen, eines Schulbuches – wie z. B. den Schulbuchtext mit einem gewissen Anteil an Fachbegriffen, Formeln, Diagrammen oder Bildern – enthält.

Die statische Struktur des klassischen Buches wird aufgelöst. Stattdessen werden der Buchinhalte portioniert und die resultierenden Wissensbausteine assoziativ verlinkt. Zusätzlich werden die Bausteine mit multimedialen Lerninhalten ergänzt, die auf Basis von Aufmerksamkeits(blick-)daten abrufbar sind.

Die Projektseite befindet sich hier.

Be-greifen

Das Thema dieses Projektes ist die Erforschung innovativer Mensch-Technik-Interaktionen (MTI), die durch Verschmelzung von realer und digitaler Welt (augmented reality) den Zusammenhang zwischen Experiment und Theorie für Lernende des Studiums in MINT-Fächern begreifbar, erfahrbar und in Echtzeit interaktiv erforschbar machen.

Die Projektseite befindet sich hier.

ESPEDUCA - JST CREST (in Kooperation mit der Osaka Prefecture University)

Über das Internet kann Wissen geteilt werden. Die meisten Informationen beschränken sich hierbei jedoch auf "explizites Wissen" wie Text und nicht "implizites Wissen", wie die Erfahrung etwas selbst erlebt zu haben. Das Ziel dieses Projektes ist es, diese Erfahrungen mit Hilfe von Sensoren aufzunehmen und ermöglichen anderen diese Erfahrungen zur Verfügung zu stellen.

Eyetifact und GazeSynthesizer (in Kooperation mit der Osaka Prefecture University)

Mit Hilfe von Deep-Learning-Technologien wurde die Verarbeitung von Bildern, Audio und Sprache deutlich beschleunigt. Aktivitätserkennung hat davon noch nicht profitiert, da es schwierig ist auf diesem Gebiet eine große Menge an Daten zum Trainieren des Deep-Learning-Algorithmus zu erhalten. Je sensitiver und komplexer die Sensoren sind, desto schwerer ist es die benötigte Datenmenge zu erhalten. Mit Hilfe von Eyetifact werden Sensordaten aus verschiedenen Quellen kombiniert um mit Hilfe von Deep Learning einen Datensatz zu erstellen, so dass bei der anschließenden Verwendung einzelner Sensoren andere Daten vorhergesagt werden können.

Um die Lesbarkeit von Texten verbessern zu können müssen diese zunächste von einer großen Gruppe von Personen gelesen, die Augenbewegung aufgenommen und diese ausgewertet werden. GazeSynthesizer erzeugt basierend auf den Messungen an wenigen Seiten einen Datensatz und kann mit Hilfe von Deep Learning künstliche Augenbewegungen simulieren um so die Lesbarkeit von unbekannten Texten in Abhängigkeit von Parametern wie Alter oder kultureller Hintergrund simulieren.

SUN - Analyzing student understanding of vector field plots with respect to divergence

Das visuelle Verstehen abstrakter mathematischer Konzepte ist entscheidend für wissenschaftliches Lernen und eine Voraussetzung für das Entwickeln von Expertise. Dieses Projekt analysiert das Verständnis von Studenten beim Betrachten von Vektorfeldern unter Anwendung verschiedener visueller Strategien.

Die Projektseite befindet sich hier.