Oculus Rift: Einblicke in die Virtual-Reality-Entwicklung
Mitte 2013 ließ Tom Forsyth seine Position als Softwareentwickler bei Valve hinter sich, um sich bei Oculus VR als Softwarearchitekt in der „Virtual Reality“-Forschung zu beteiligen. Im Rahmen seines Vortrags auf der GDC Europe in Köln gewährte Forsyth nun einen Einblick in die Entwicklung von VR-Erlebnissen für Oculus Rift.
Nachdem vom ersten Oculus Rift Devkit schon 55.000 Einheiten produziert und ausgeliefert werden konnten, nannte Forsyth Zahlen zum aktuellen Oculus Rift DK2: Bisher seien über 50.000 Bestellungen eingegangen, wovon bis zum 8. August 16.000 ausgeliefert werden konnten. Insgesamt haben sich bisher 70.000 Entwickler auf dem entsprechenden Oculus Entwicklerportal registriert.
Zunächst wies Forsyth die anwesenden Entwickler darauf hin „nett“ zu den Spielern zu sein und diese nicht zu „traumatisieren“: So würden sich VR-Entwickler mehrere Stunden am Tag mit Head-Mounted-Displays beschäftigen und ihre Gehirne hätten sich demnach schon an Programmierfehler und die daraus resultierende „verrückte“ Wahrnehmung gewöhnt, weshalb ihr Gehirn diese Fehler unterbewusst in der Wahrnehmung ignoriere. Bei den Spielern sei die Akzeptanzschwelle jedoch weitaus geringer und zudem von Nutzer zu Nutzer unterschiedlich. Bedingt durch die Tatsache, dass es keinen „VR-Toleranz-Schieberegler“ gibt, können Eindrücke, die von manchen Spielern gar nicht erst sichtbar wahrgenommen werden, für andere hingegen „unerträglich“ sein. Als Beispiel nannte Forsyth das Treppensteigen in der virtuellen Realität, auf das sensitive Nutzer stärker reagieren.
VR-Toleranz sei zudem keine Fähigkeit, die Nutzer einfach lernen können. Wenn Entwickler ihre Nutzer mit schlechten VR-Erlebnissen traumatisieren, hören diese nicht nur mit dem Spielen auf, sondern könnten möglicherweise auch „negatives Feedback“ zeigen: Je stärker manche Menschen VR ausgesetzt sind, desto stärker kann ihre Verträglichkeit abnehmen. Um solche Probleme zu vermeiden, verwies Forsyth auf das bisher gesammelte Wissen in Form des Oculus VR Best Practices Guide (PDF).
In Puncto Spieldesign müssen sich Entwickler der neuen Situation anpassen: Eine zu intensive virtuelle Realität erschwert es Spielern, der Handlung und den Spielmechaniken zu folgen oder diese zu verstehen. Insbesondere Details und Nuancen werden, ganz wie im echten Leben, nicht so einfach wahrgenommen. Intensive Spielerlebnisse sollten demnach optional sein: Weniger „in your face“-Partikeleffekte und Explosionen, weniger und zudem langsamere Bewegungen und nach Ansicht von Forsyth auch eine Anpassung des Größenverhältnisses zwischen Spieler und Spielwelt. Erfahrenere Spieler sollten jederzeit die Möglichkeit zum „opt in“ haben, Anfänger jedoch keinesfalls erst auf die Suche gehen müssen, wie sie diese Erlebnisse mittels „opt out“ vermeiden können.
Wichtig im Kontext der virtuellen Realität wird für Entwickler zudem der Begriff „VOR gain“, welcher auf dem vestibulookulärem Reflex basiert und im Grunde genommen das Verhältnis der vom Ohr wahrgenommenen Kopfbewegung und der daraus resultierenden Antwortbewegung der Augen beschreibt. Eine Kopfbewegung um +10 Grad wird demnach von den Augen durch eine entsprechende Bewegung um -10 Grad ausgeglichen.
Wenn nun die Sicht als gestaucht wahrgenommen wird, beispielsweise beim Tragen einer neuen Brille oder weil Entwickler die VR-Welt in einem als „falsch“ wahrgenommenen Größenverhältnis implementiert haben, kann dies bei manchen Nutzern zu Problemen führen. Bei Spielen, die auf einem herkömmlichen Monitor gespielt werden, wird „VOR gain“ über einen „Field of View“-Schieberegler ausgeglichen. Zudem bewegt sich der Monitor nicht mit dem Sichtfeld des Nutzers und die periphere Sicht, in welcher der restliche Raum abseits des Monitors wahrgenommen wird, hilft dem Auge dabei den optischen „Realitäts-Check“ vorzunehmen. Beim Tragen der Oculus Rift kann sich das Auge jedoch nur auf Objekte in der virtuellen Realität fokussieren, insofern ist das richtige FOV-Verhältnis essentiell, um Spielern keine Kopfschmerzen zu bescheren.
Während der Kalibrierung können Nutzer ihren Augenabstand (Interpupillardistanz, IPD) eintragen, welcher wiederum als „center eye pupil“-Position und -Vektor vom SDK an das jeweilige Spiel weitergereicht wird. Forsyth erwähnte in diesem Zusammenhang eine Anekdote von Entwicklern, die sich im Forum von Oculus meldeten und meinten, sie hätten mit den IPD-Werten experimentiert und durch die Veränderung dieser wäre ihre VR-Wahrnehmung nun besser. Forsyth dazu: „Ihr könnt die IPD nicht verändern – das nennt sich Chirurgie oder Erwachsenwerden!“
Im Hinblick auf das Verändern des Welt-Größenverhältnisses präsentierte Forsyth diverse Ansätze, wobei es zum aktuellen Zeitpunkt „keine one-size-fits-all“-Lösung gäbe. Skaliere man die gesamte Welt, so verhelfe dies dem Spieler zu einem überwältigenden Gefühl größer oder kleiner zu sein. Insbesondere das Größenverhältnis zu verringern würde bei manchen Spielern helfen, die Intensität des VR-Erlebnisses zu reduzieren. Im Fall von virtuellem Tourismus kann sich beispielsweise eine Abfrage der Größe des VR-Nutzers als sinnvoll erweisen, damit sie fremde Umgebungen mit einem ihnen bekannten Größenverhältnis erkunden.
Weiter führte Forsyth aus, dass Entwickler die Größe ihrer Spielwelten jedoch nicht nach belieben skalieren können, da unterbewusst das Gehirn der Spieler dazwischenfunkt: Befindet sich der VR-Nutzer in sitzender Position, nimmt das Gehirn mittels der Füße wahr, wo der Boden sich befindet. Obwohl der virtuelle Avatar steht, nimmt das Gehirn des Spielers dennoch den reellen Boden als Referenz für die Größenverhältnisse wahr und skaliert unterbewusst die wahrgenommenen Eindrücke selbst mit, was wiederum zur verzerrten Wahrnehmung einer geschrumpften Spielwelt führt. Lösungsansätze dafür wären zum Beispiel, den Spieler auf Barhockern sitzen zu lassen, sodass seine Füße den Boden nicht berühren oder seine Füße auf andere Weise vom Boden fern zu halten. Alternativ eigne sich auch das Sitzen mit überkreuzten Beinen. In jedem Fall sei jedoch weitere Forschung auf dem Gebiet nötig.
Wie schon in Sonys VR-Vorträgen deutlich hingewiesen, ermahnte auch Forsyth die anwesenden Entwickler dazu niemals die Kontrolle über die Kamera [= Sichtfeld, Perspektive] des Spielers zu übernehmen. Jedoch seien in manchen Situationen Übergangsanimationen („Transition Animations“) schlichtweg notwendig, beispielsweise beim Ein- und Aussteigen bei Fahrzeugen. Viele Leute würden diese Animationen in der virtuellen Realität als zu intensiv wahrnehmen – eine Option wäre hier der Wechsel in die 3rd-Person-Ansicht oder es mit einem „geisterhaften/transparenten Avatar“ zu versuchen. Alternativ dazu könne man auch das natürliche Augenzwinkern imitieren: Sofern die dazugehörige Animation circa 300 Millisekunden entspreche, würden manche Spieler diese gar nicht wahrnehmen.
In hohem Maße animierte 1st-Person-Avatare seien „awesome“, so Forsyth. Diese würden Spielern zu einem „erstaunlichen Gefühl von Immersion und Präsenz“ verhelfen. In diesem Kontext erwähnte Forsyth Team Fortress 2 mit seinen „High Five“-Animationen oder der Handbewegung hin zum Gesicht beim Rufen des Medics als gutes Beispiel.
Das Gefühl der Präsenz in der virtuellen Realität sei laut Forsyth zudem eine „ziemlich binäre Sache“ – entweder hat man sie oder eben nicht. Zentral dafür sei eine „felsenfeste, hohe Framerate“. Auf einem Stereo-Display jedoch 75 Bilder pro Sekunde darzustellen ist eine weitere Herausforderung. Als Lösungsansatz sieht der VR-Verantwortliche beispielsweise die Details und Effekte zu Gunsten von hoher Framerate und niedriger Latenz „aggressiv“ herunterschrauben. Im Zustand der Präsenz zu verweilen beschere Spielern weitaus mehr Vergnügen als zusätzliche Effekte. Bedingt dadurch, dass Bilder für beide Augen erzeugt werden müssen, seien entsprechend auch doppelt so viele Zeichenbefehle („draw calls“) zu bewältigen. Forsyth wies jedoch darauf hin, dass neue APIs wie AMD Mantle oder DirectX 12 die nun notwendige mehrfache Ausführung des Zeichenbefehls in Puncto Performance „kostengünstiger“ machen sollten.
Zum Ende des Vortrags widmete sich Forsyth noch diversen Fragen aus dem Publikum. Eine davon behandelte das Thema Reflexe und ob der Körper des Spielers beim Erblicken eines Steines, während sich der virtueller Avatar rennend fortbewegt, unterbewusst den Kniesehnenreflex auslösen könnte, um ein eventuelles Stolpern zu verhindern. Dies verneinte Forsyth mit der Begründung, dass zwischen Spieler und Avatar eine „Trennung“ („a disconnect“) vorliegt, da das Gehirn wisse, dass der Körper des Nutzers selbst gerade nicht rennt. Sollte das Spiel jedoch einen Konflikt in der Wahrnehmung hervorrufen, sollten Entwickler sicherstellen, dass der Spieler dies auch versteht – beispielsweise mit dem bereits genannten Stilmittel der 3rd-Person-Ansicht.
Auf die Frage hin, ob für die Zukunft ein „Approval“- oder Feedbacksystem angedacht sei, um Spiele zu kennzeichnen, die VR „richtig“ implementiert haben, erwiderte Forsyth, dass dies eine „Gratwanderung“ („slippery slope“) sei, die eher nicht von Oculus VR angegangen wird. Nach seinen Worten sei es ihm lieber, „wenn der Markt eine Lösung dafür findet“.
Ein weiterer Anwesender erkundigte sich, ob bei Oculus mit anderen Möglichkeiten zur Darstellung der Verzeichnung, beispielsweise mittels Tesselation, experimentiert wird. Forsyth bejahte dies und wies darauf hin, dass das Oculus Rift DK2 zwar auf eine „mesh-based distortion“ setze, aber fast wöchentlich würden neue Methoden ausprobiert.