Praxistransfer konkret (Ib): Avatar Based Teaching – Erkundung der virtuellen Lernwelt des Projekts MyScore

Nach der einführenden Veranstaltung Praxistransfer konkret (Ia): Lehren mit Avatar-basierten 3D-Szenarien – das Projekt MyScore vom November 2019 wurde nun in der Folgeveranstaltung konkret mit einem VR-Szenario gearbeitet. Das Event begann mit einer Einführung via Zoom. Danach erhielten die Teilnehmenden die Möglichkeit, ein Szenario aus dem Projekt MyScore mit der bereitgestellten Open Source Software selbst zu erproben. Die Veranstaltung schloss mit einer Diskussion über mögliche Potentiale, Wirkgrößen und hemmenden Faktoren der vorgestellten Lehr-/Lernszenarien, die wieder im Zoom-Raum stattfindet.
Im Anschluss an die Veranstaltung hat Prof. Dr. Heribert Nacken eine Mentimeter-Umfrage zur Verfügung gestellt, in der Sie uns gerne Ihre Eindrücke schildern können.
Sie hatten unterschiedliche Möglichkeiten, an der Erprobung des VR-Szenarios (also dem mittleren Teil der Veranstaltung), teilzunehmen.
- Für die immersive Variante benötigen Sie eine VR-Brille. Sollten Sie eine Oculus Quest oder Oculus Quest 2 Brille besitzen, dann schicken Sie bitte eine E-Mail an nacken@lfi.rwth-aachen.de und Sie erhalten die Information, wie Sie die APK auf Ihre Brille laden können.
- Falls Sie keine VR-Brille haben, besteht die Möglichkeit, das VR-Szenario auch nicht-immersiv zu erproben. Dazu können Sie die Software für Ihren (Windows-)PC herunterladen; nach der Installation können Sie als „gemuteter" Avatar an dem Szenario teilnehmen. Das heißt: Sie können sich nicht per Audio oder schriftlich an der Kommunikation beteiligen, jedoch Ihren Avatar mit den AWSD-Tasten über die Standardtastatursteuerung im 3D-Szenario steuern.
Heruntergeladen werden kann die Software (ca. 500 MB) unter dem folgenden Link: http://files.lfi.rwth-aachen.de/myscore/MyScoreWindowsExport.zip . - Alle Teilnehmenden, die weder eine VR-Brille haben, noch sich die Software herunterladen wollen, können das Szenario per Zoom (über einen geteilten Bildschirm) mitverfolgen.
Für Variante 1 oder 2 finden Sie dazu eine (Google Docs-)Bedienungsanleitung, in der Sie erfahren, wie Sie Ihren persönlichen Avatar auswählen und in das Meeting einsteigen können.

Der Bauingenieur Heribert Nacken ist seit 2001 Universitätsprofessor am Lehr- und Forschungsgebiet Ingenieurhydrologie der Fakultät für Bauingenieurwesen. Von 2005 bis 2012 fungierte er an seiner Fakultät als Studiendekan und bereitete als einer der Hauptautoren den Antrag „Studierende im Fokus der Exzellenz“ vor, für den die RWTH Aachen University im Jahr 2009 die Auszeichnung als „Exzellenz-Uni für die Lehre“ von der Kultusministerkonferenz der Länder und dem Stifterverband der Deutschen Wissenschaft erhalten hat. Seit 2012 ist er Rektoratsbeauftragter der RWTH für „Blended Learning und Exploratory Teaching Space“. In dieser Funktion war er einer der tragenden Akteure bei der erstmaligen Formulierung und Umsetzung einer Digitalisierungsstrategie für die Lehre sowie Hauptautor für das Arbeitsprogramm der zweiten Phase der Digitalisierungsstrategie (2018 – 2023) der RWTH Aachen University.
Materialien zur Veranstaltung
Hier finden Sie im Anschluss an das Online-Event alle bereitgestellten Materialien, wie die Aufzeichnung der Veranstaltung oder die Folien der Referentinnen und Referenten.
Aufzeichnung
Fragen und Antworten aus der Veranstaltung
Frage: Ist die umgebung komplett selbst programmiert oder basiert sie auf einer der momentan verfügbaren systeme wie z.b. „altspace vr“?
MyScore: Ja, das basiert auf Unity.
Frage: Kann man die VR-Anwendung nur mit Occolus nutzen, oder geht das auch über eine VR-Brille in die ein Smartphone eingelegt ist?
MyScore: Zurzeit werden unterstützt: Oculus Quest, Quest 2, Rift, HTC Vive und HP reverb.
Frage: In welchen Zeitfenstern soll denn eine Massenanwendbarkeit erreicht werden?
MyScore: Die Software steht ab sofort (via Download von einem unserer Server) zur Verfügung; in Kürze werden wir auch einen Steam account unterhalten.
Frage: Wo sind die zentralen Unterschiede zu dem alten Second Life?
Kommentar: Second Life ist low-immersion VR und das hier ist high-Immersion VR.
Kommentar: SL ist weniger immersiv, weil es am Bildschirm ist.
Kommentar: Ohne Brille kann man das nicht erklären, das Erlebnis macht den Unterschied
Kommentar: und es ist auch eine ganz andere didaktische Form
Kommentar: das spannende an VR vs. bildschirm-basierten umgebungen ist die höhere immersion (und damit auch das höhere gefühl von räumlicher präsenz)
Frage: Worin liegt der didaktische Mehrwert gegenüber Zoom oder Second Life?
MyScore: Darin, dass die Teilnehmenden den Eindruck erhalten, sich wirklich in dem jeweiligen Szenario aufzuhalten und mit anderen Avataren kommunizieren und interagieren zu können; z.B. sehen wir die Möglichkeit von virtuellen Exkursionen. Für mein eigens Fach werden wird Flussgebietslandschaften erstellen und damit den Studierenden die Unterschiede anhand verschiedenen Leitbilder von Gewässern erklären. Da Unity auch über eine physical-engine verfügt, können wir unterschiedliche Abflussprozesse; Erosion und Sedimentationsprozesse sehr realitätsnah nachbilden. Das ist natürlich dann eine Anwendung, die überhaupt nicht skaliert, denn wen interessiert schon Hydrologie ;)
Frage: Kann man als "gemuteter" Avatar auch ohne VR-Brille teilnehmen? Um die Einstiegshürde für Lernende zu senken (bezüglich Technische Ausstattung) die pc Version bleibt also erhalten. wird denn dann auch das sprechen für pc Teilnehmer ermöglicht ohne vr brille?
MyScore: Ja, das geht mit der „nicht-immersiven (Windows)Version. Da kann man sich mit dem Avatar bewegen aber (noch) nicht an den Kommunikationen teilnehmen. Das werden wir in Kürze aber noch erweitern.
Frage: Wie anpassbar ist der Konfernezraum für individuelle Ansprüche?
MyScore: Generell: take it or leave it Spaß beiseite: wenn Sie etwas ändern wollen, müssen Sie sich mit Unity bzw. Blender auskennen. Deshalb erstellen wir in der Regel generische Szenarien, die von möglichst vielen Disziplinen genutzt werden können.
Frage: Wie authentisch wurde die Kommunikation unter den Studierenden wahrgenommen, da live andere Inforamtionskanäle (Mimik, Gestik) bietet als virtuell?
MyScore: Die Studierenden empfanden die Anwendung als sehr authentisch. Aktuell können die Avatare nur Ihre Arme bewegen und sprechen. Speziell Mimik und Gestik wird es im Projekt kommen, wenn wir das eye-tracking integriert haben; aber das wird NICHT mit der Quest 2 funktionieren; da muss man dann auf teuere Geräte gehen (Rift mit eye-tracking oder HTC mit eye-tracking oder HP reverb mit eye-tracking); da sind Sie dann sehr schnell bei 1500-1800 € + PC Anbindung. Das skaliert aus unserer Sicht dann aber nicht mehr; wir werden das nur für spezielle Szenarien, wie die Simulation einer Prüfungssituation, verwenden.
Frage: geht das auch auf Mac? iPad usw?
MyScore: Leider nein
Frage: wird es auch weiterhin eine apk-version (ohne steam) für die quest geben?
MyScore: ja
Frage: Wie lange hält man so ein VR Meeting erfahrungsgemäß aus? Längere Zeit im Kurzsichtmodus kann ja auch nicht gesund sein
Kommentar: Das Gewicht der Brille ist meist das größere Problem.
Kommentar: Ich persönlich konnte nach drei-, viermal "üben" ganz gut dort eine Stunde bleiben. Gefühlt ist ja dann auch eher Weitsichtmodus. Problem ist eher irgendwann der Wärmestau vor dem Gesicht
Kommentar: Es gibt noch keine wirklich belastbare Studien zur Wirkung von VR-Brillen. Häufige sisherige Empfehlung sind Sessions von 10-20 Minuten.
Kommentar: Ich sehe die Herausforderung im Lernen eher an der Stelle, dass kaum jemand in der Lage ist, 6-8 Stunden täglich über einen längeren Zeitraum mit VR in einem Lernmodus zu verweilen.
Kommentar: Prof. Piller macht für BWLer WE-Seminare grundsätzlich kein großes Problem, länger im VR zu bleiben, sinvoller sind aber kurze Einheiten
MyScore: Das ist natürlich sehr stark von der Person abhängig. Wir verwenden in der Regel eher kurze Sequenzen (30 Minuten) und wechseln dann wieder in einen anderen Modus (alleine schon wegen der Wärmeentwicklung unter der Brille). Das mit dem Kurssichtmodus ist nicht wirklich der Fall, denn Sie sehe in der Brille ja wie im realen Raum.
Frage: Welches sind die technischen Mindestanforderungen für den Endnutzer? Gibt es eine Mindestkonfiguration der Hardware ? Welche Bandbreite ist das Minimum?
MyScore: Eine VR-Brille (siehe oben) und eine WiFi Verbindung mit einer Datenrate von 5 MB Up- und Download. Wir empfehlen aktuell Oculus Quest 2, da das die einzige Brille ist, bei der man nicht noch einen PC für die Nutzung braucht (… und das ist explizit KEINE Werbung für die Firma).
Frage: Aktuell haben Sie synchrone und interaktive Lehr-/Diskussionssequenzen gezeigt. Wie ist die Möglichkeit, auch asynchrone Elemente wie Videos/Präsentationen einzubinden?
MyScore: Alle Medien, die Sie via Internet darstellen können, funktionieren direkt. Bei Videos also z.B. youtube und Vimeo. Bei Dokumenten geht alles was netzgestützt ist. Klassiches Powerpoint Versionen gehen im Moment noch nicht; es sei denn Sie habe diese in eine HTML-Datei umgewandelt. In der Regel konvertieren wir PPTX-Dateien im Vorfeld in ein Google Format. Ansonsten nutzen wir z.B. noch Techniken wie z.B. Etherpads.
Frage: Es gibt ja auch diese Pappversion der VR-Brille im einstelligen Euro-Bereich, wo dann das Mobiltelefon reingelegt wird. Hätten man mit denen auch eine Chance? Oder falls nicht, warum nicht?
MyScore: Nein, leider nicht. Smartphone sind zwar schon sehr leistungsfähig, aber für die vollständigen Szenarien leider immer noch nicht leistungsfähig genug. Außerdem würden die wahrscheinlich nur für den passiven Einsatz taugen, denn die Steuerung der Bewegungen im Raum müsste z.B. über die Auswertung der Blickpunkte gemacht werden.
Frage: Gibt es irgendow Referenzen zum Weiterlesen und Weiterempfehlen über dieses sehr spannende Projekt?