Virtual SkillsLab gewinnt den Hauptpreis beim Wettbewerb „Gelungene VR/AR-Lernszenarien“

Am 4. Mai 2018 hat uns die freudige Nachricht erreicht, dass wir beim Wettbewerb „Gelungene VR/AR-Lernszenarien“ des Arbeitskreises „VR/AR-Learning“ der GI-Fachgruppen E-Learning und VR/AR in Zusammenarbeit mit dem Stifterverband Hauptsieger geworden sind. Ende März 2018 hatten wir uns mit unserem Projekt auf den ausgeschriebenen Wettbewerb beworben.

Besonders ehrt uns die Begründung der Jury:

Die Anwendung Virtual SkillsLab zeichnet sich aus durch einen hohen Nutzen und hohen Praxisbezug und trägt damit bei zu einer qualitativen Verbesserung der Ausbildung. Die Anwendung ist ein Beispiel des hohen didaktischen Potentials von VR und demonstriert die Alleinstellungsmerkmale dieses Mediums gegenüber herkömmlichen Medien. Insbesondere eindrucksvoll ist die langjährige hypothesenge-triebene und systematische Entwicklungshistorie. Inzwischen hat das Virtual SkillsLab einen Reifegrad erreicht, der einem Einsatz im Realausbildungsbetrieb gerecht wird. Darüber hinaus ist eine Übertragung auf weitere Szenarien im Gesundheitsbereich sehr gut vorstellbar. Das Gesamtpaket aus Nutzen, Reifegrad und Übertragbarkeit hebt diesen Beitrag von den weiteren Wettbewerbsteilnehmern ab.

Neben unserem Beitrag wurden noch vier weitere tolle Lösungen in verschiedenen Kategorien prämiert. Wer sich näher dafür interessiert: auf der DeLFI 2018 in Frankfurt (9.-12. September 2018) wird es wohl einen Workshop zu diesem Thema geben und auch die Preisverleihung stattfinden. Eine prima Gelegenheit die anderen Teams und uns zu treffen, um mehr über die Projekte zu erfahren.

Eyetracking und gestenbasierte Steuerung im SkillsLab präsentiert auf der Fachkonferenz VRAR 2017 in Tübingen

Am 18. November  2017 stellten Carolin Hainke und Leonard Meyer auf dem Workshop „Virtuelle und erweiterte Realität“  der GI-Fachgruppe VR/AR die entstandenen Erweiterungen des SkillsLabs „Nutzung von Eyetracking-Daten und gestenbasierter Steuerung mit Leap Motion“ dar.

Dem Publikum wurde über die Erfahrungen mit  Cognitive Load Messung aus Eyetracking-Daten berichtet, sowie die Vor- und Nachteile der Nutzung einer Leap Motion für bildbasiertes Hand-Tracking zur Interaktion im virtuellen Labor diskutiert.

Meyer, L., & Pfeiffer, T. (2017). Vergleich von Leap Motion Hand-Interaktion mit den HTC-Vive MotionControllern in einer VR-Trainingssimulation für manuelle Arbeiten. In Virtuelle und Erweiterte Realität - 14. Workshop der GI-Fachgruppe VR/AR. Retrieved from https://pub.uni-bielefeld.de/publication/2915065

Hainke, C., & Pfeiffer, T. (2017). Messen mentaler Auslastung in einer VR-Umgebung basierend auf Eyetrackingdaten. In Virtuelle und Erweiterte Realität - 14. Workshop der GI-Fachgruppe VR/AR. Retrieved from https://pub.uni-bielefeld.de/publication/2915064

Vortrag zum Virtual SkillsLab auf der Fachkonferenz VRAR 2016 in Bielefeld

Am 8. September 2016 trug Melanie Derksen auf dem Workshop „Virtuelle und Erweiterte Realität“ der GI-Fachgruppe VR/AR zum Thema „Virtuelles Training in der Krankenpflege: Erste Erfahrungen mit Ultra-mobilen Head-Mounted-Displays.“ vor. Sie stellte dort die gemeinsamen Arbeiten von Le Zhang, Dimitri Schröder und Thies Pfeiffer aus dem Wintersemester 2015/2016 bzw. Sommersemester 2016 dem interessierten Publikum vor.

Derksen, M., Zhang, L., Schäfer, M., Schröder, D., & Pfeiffer, T. (2016). Virtuelles Training in der Krankenpflege: Erste Erfahrungen mit Ultra-mobilen Head-Mounted-Displays. In Virtuelle und Erweiterte Realität - 13. Workshop der GI-Fachgruppe VR/AR. Retrieved from https://pub.uni-bielefeld.de/publication/2905707