3D-Stereoskopie krankt wohl vor allem daran, wie man die beiden Bilder perfekt in/vor die jeweiligen Augen bekommt. Dabei müssen dann auch Augenbewegungen berücksichtigt werden, die Möglichkeit verschiedene Objekte zu fokussieren usw.
Dafür braucht es extrem aufwändige Headsets, die dann mehr oder weniger unbequem zu tragen sind.
Vielleicht kommt der Durchbruch für perfekte, virtuelle Welten wirklich erst, wenn die Daten direkt ins Gehirn gespeist werden können. (Die Matrix lässt grüßen.)
Perfekte 2D-Bilder sind natürlich wesentlich einfacher. Das kann man letztlich einfach mit genug Rechenleistung erschlagen. Das wird allerdings auch noch eine weile Dauern, bis das in Echtzeit funktioniert. Z.B. Nvidias aktuelle Pläne für komplettes Echtzeit-Raytracing scheinen ja bis weit in die 30er-Jahre zu gehen. Da kann man sich schon fragen, ob unsere Generation perfekte, in Echtzeit berechnete, fotorealistische Grafik überhaupt noch erleben wird.
Schon etwas frustrierend, wenn man bedenkt, wie weit wir in Sachen Grafik seit den Anfängen in den 70ern des letzten Jahrhunderts gekommen sind und wie rasant die Fortschritte zwischenzeitlich waren. Die letzten paar Meter zum Ziel sind offenbar mit Abstand die schwersten.
Ein anderes Problem, das mit fotorealistischer Grafik aufkommt bzw. schon jetzt immer mehr zunimmt, ist diese extrem detailierte, virtuelle Welt zu erstellen und mit Inhalt zu füllen.
Der Aufwand dafür dürfte schnell über alles hinaus gehen, was selbst ein großes Design-Team eines AAA-Entwicklerstudios in vertretbarer Zeit leisten kann. Das bedeutet, die superrealistischen Spielwelten müssen automatisiert erzeugt werden, von einer spezialisierten KI. Dann sagt der Designer z.B. nur noch: "Ich will eine englische Kleinstadt im Stil des späten 19. Jahrhunderts..." und die KI erzeugt das vollautomatisch, inklusive passender Bewohner usw., so dass der Designer/Entwickler sich nur noch um storyrelevante Details selbst kümmern muss.