Unity und Unreal: Wie Entwickler in VR die VR-Welten von morgen erschaffen
Einleitung
Während Early Adopter auf die Auslieferung der ersten Consumer-VR-Brillen hinfiebern, vollzieht sich in den Forschungsabteilungen der Entwicklerstudios schon der nächste Evolutionsschritt: Wie VR-Entwicklung in VR aussieht, zeigen Epic Games und Unity Technologies mit beeindruckenden Werkzeugen ihrer Spiel-Engines. Ein Blick in die CS:GO-Entwicklergemeinde zeigt zudem, wie Grafikdesigner Chris Le das VR-Medium bei der Kreation neuer Waffen-Skins für Valves Taktik-Shooter nutzt.
Unreal Engine – 3D-Bearbeitung im „VR Editor“
Mit der Ankündigung des VR Editors für die Unreal Engine hat Epic Games Anfang Februar einen Stein ins Rollen gebracht, der sich schon bald im Arbeitsalltag von Leveldesignern und 3D-Künstlern wiederfinden könnte: Hinter dem Begriff verbirgt sich die Idee, den kompletten Funktionsumfang der Spiel-Engine für Entwickler direkt in der virtuellen Realität nutzbar zu machen. Bedingt durch das VR-typische Mittendringefühl sollen sich Spieldesigner zukünftig in ihren Spielweltkreationen bewegen können, noch während diese sich in frühen Prototypphasen befinden. Der dabei entstehende räumliche Eindruck und die Wahrnehmung der Größenverhältnisse sollen in Zukunft noch schnellere Leveldesign-Iterationen ermöglichen und letztendlich zu noch überzeugenderen virtuellen Spielwelten beitragen.
Während bei Epic Games schon seit 2014 an Prototypen für das Oculus Rift Dev-Kit 1 gearbeitet wird, konnte man die finale Hürde im Hinblick auf die Bedienbarkeit und Nutzerfreundlichkeit des Konzeptes erst mit Aufkommen der ersten VR-Handsteuerungen überwinden: Da die herkömmlichen Eingabemethoden Maus und Tastatur für VR-Umgebungen, in denen sich auch im Raum frei bewegt werden kann, denkbar schlechte Mittel zur Manipulation der Spielwelt sind, konzentrierte sich Epic Games auf die Touch-Steuerung von Oculus sowie die von der HTC Vive verwendeten SteamVR-Controller. Auf der GDC 2016 wurde das Feature im Rahmen der State-of-Unreal-Entwicklersession dem Publikum vorgestellt:
Die Bedienung des Editors ist ähnlich wie in Tilt Brush aufgebaut: Mit der linken Hand kann ein virtuelles Menü aufgerufen werden, das alle Werkzeuge bereithält, die zur Manipulation der Spielszene nötig sind. Der Controller in der rechten Hand agiert als eine Art Laserpointer, mit dem Elemente aus dem Werkzeugkasten ausgewählt und direkt in die Spielwelt gezogen werden können. Mittels Drag-&-Drop-Prinzip lassen sich so innerhalb von Minuten Umgebungen erstellen und „erfühlen“: Wie Strukturen und Räume im Zusammenspiel mit Beleuchtungseffekten auf den Spieler wirken, ist ein entscheidender Faktor bei der schrittweisen Erschaffung von Spielumgebungen, und besonders in VR fällt es Nutzern sofort auf, wenn Proportionen und Größenverhältnisse sich nicht mit den Erwartungen des Unterbewusstseins decken.
Zur Fortbewegung im „VR Editor“ setzt Epic Games auf zwei Bewegungsmuster: Wie beim Klettern – Mike Fricker (Twitter), Technischer Leiter bei Epic Games, beschreibt es selbst als Spider-Man-ähnliche Bewegung – kann die Spielumgebung abwechselnd gegriffen und sich an ihr entlanggezogen werden. Hinzu kommt die von der Smartphone-Interaktion bekannte Pinch-to-Zoom-Geste, mit deren Hilfe die gesamte Szene geschrumpft oder beliebig vergrößert werden kann. Auf gleiche Weise lassen sich auch die Spielobjekte in Größe, Form oder Ausrichtung manipulieren. Das Benutzer-Interface der Unreal Engine lässt sich in Form von frei in der VR-Umgebung platzierbaren Panels beliebig anordnen und anpassen.
Eine knapp 40-minütige YouTube-Aufzeichnung des Unreal-Engine-Livestreams geht noch weiter ins Detail und zeigt eine frühe Version des neuen Entwicklerwerkzeugs. Seit Kurzem ist der „VR Editor“ als „Preview Feature“ zum selbstständigen Kompilieren auf Github inklusive Quellcode verfügbar. Auf diese Weise will die Software-Schmiede noch Feedback aus der Entwicklergemeinde sammeln, bevor der „VR Editor“ Anfang Juni dann standardmäßig seinen Weg in die Binaries der Spiel-Engine finden soll.