VR- der allgemeine Diskussions-Thread für alles

sind nur noch 5 Tage...

EDIT: Release - hast recht.. da hat der Hypertrain mehr Zeit Fahrt aufzunehmen
 
Ich kann nur sagen, dass ich auch ziemlich optimistisch bin. Man könnte gar sagen, dass ich schon ganz schön scharf auf die nächste Generation PCVR bin :)
 
wäre es valve statt htc wäre ich aber optimistischer ;)
sprich: Index 2
 
Ich glaube mittlerweile, das wir noch etliche Jahre auf gutes Eye Tracking warten müssen. Eher wird DLSS und/oder ähnliches bei VR ein Thema.
 
Mr. Rift schrieb:
Ich glaube mittlerweile, das wir noch etliche Jahre auf gutes Eye Tracking warten müssen. Eher wird DLSS und/oder ähnliches bei VR ein Thema.
Für mich wäre schon allgemeines Image Sharpening in irgend einer Form ein Gewinn. Reshade VR, Horizon Zero Dawn VorpX mit TAA + Fidelity FX, Death Stranding VorpX+DLSS Quality+Image Sharpening über den Nvidia Treiber. Das Ergebnis war immer besser als ohne Image Sharpening, und viel schärfer als wenn ein Spiel nur TAA bietet. Asgard's Wrath würde auf einem schärferen VR Display immer noch unscharf aussehen. VorpX funktioniert bei DX12 Spielen noch nicht so perfekt, weswegen ich die Auflösung maximal bei 2560x1080 lassen konnte, aber dafür dass ich 1080p vertikal auf circa 80° vom FoV gestreckt habe, sah das immer noch richtig gut aus und war sehr flüssig. Ich werde die genannten Spiele auch so spielen wenn ich Zeit habe statt sie flat auf meinem 34 Zoll UWQHD zu zocken, der ja jetzt alles andere als klein ist.

Ich wollte wenn ich mehr mit VorpX rumgespielt habe es auch nochmal zum Thema machen mit Full SBS Fotos, gerade weil man ein paar Settings beachten muss und ich auch selbst darauf kommen musste, weil ich im VorpX Forum keine Lösungen bekommen habe. Es ist kein VR, aber für mich schlägt Z-Buffer 3D was aktuell in jedem Spiel funktioniert schon mal jede Erfahrung die ich mit 3D Vision hatte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kraeuterbutter
PSVR2 wird laut "zuverlässigen" Quellen Eye-Tracking und Foveated Rendering besitzen - außerdem 2k Auflösung pro Auge. Außerdem haptisches Feedback.

https://uploadvr.com/psvr-playstation-4k-eye/

Das wäre schon der Wahnsinn! Auflösung jetzt nicht der Überflieger, aber ich denke damit kann man (qualitativ hochwertiges Panel und Linsen und genug Power vorausgesetzt) einiges rausholen.
 
  • Gefällt mir
Reaktionen: NewLex, Schnetzel und pitu
Die PSVR2 hört sich genial an. Bei den Linsen sehe ich bei Sony keine Probleme. Die haben schon bei der PSVR die besten Linsen gehabt. Denke dadurch das Sony auch Objektive herstellt und damals Minolta übernommen hat, werden sie einige Vorteile in dem Bereich haben.
 
Apple gerüchteweise mit ET+FR, PSVR2 auch und Facebook will ET in die Quest Pro bringen... Vielleicht gab es ja endlich einen Durchbruch bei der Forschung und 2022 erhalten wir endlich dieses Feature von dem seit 5 Jahren gepredigt wird?
 
Ich schätze das Nvidia hier auch als großer Treiber agiert https://developer.nvidia.com/blog/nvidia-vrss-2-dynamic-foveated-rendering-no-assembly-required/, dadurch das MSAA (und DX11?) aktuell die einzige Voraussetzung ist und der Treiber eigentlich alles handhabt. Ich frage mich ob die Implemenationen bei Sony und Oculus ähnlich von der funktionsweise sind, oder tiefer integriert werden müssen. Gut und schlecht zugleich, wäre natürlich besser wenn es in OpenXR integriert wäre (habe dazu nichts gefunden), man wollte sich ja in Zukunft darauf festlegen. Sonst wird das wieder so eine Nvidia FOVR, Sony FOVR, Oculus FOVR Geschichte.
 
Zuletzt bearbeitet:
Was erhofft ihr euch von ET und ist es überhaupt schnell genug?
Ich hatte irgendwo was von einem zu hohen Lag gelesen.
 
Nvidia stellt Software bereit, bisher hieß es aber dass die Hardware noch nicht mal so weit ist. Das sind zwei unterschiedliche Dinge.

@pitu

Natürlich einen massiven Geschwindigkeitsboost.
 
was man sich von ET erhofft ?
eine deutliche Reduzierung der Rechenlast, somit deutlich höhere Auflösung möglich

vonwegen: "das kann man ja auch mit DLSS erreichen"....

EyeTracking und DLSS müssten sich ja nicht ausschließen.. kombiniert könnte das der Schlüssel sein, tatsächliche Fernsicht auch in VR mit hoch aufgelösten Headsets zu haben..
weil Fernsicht: kannst zur zeit selbst mit der Reverb G2 und supersampling vergessen,
viel zu geringe Auflösung der Headsets dafür

ist nicht das was ich mir in Zukunft mal darunter vorstelle

also was von ET ERHOFFEN ?

es geistern verschiedene Zahlen so durchs netz... manchmal heißt es, dass damit die die Pixelzahl um 40% verringert werden könnte..
manchmal um 80%...

aber - ich glaub Oculus-Labore war das - es gibt auch Zahlen die mehr versprechen..
in dem Beispiel das ich meine, hat man ein Video in einem Player mit Eyetracking abgespielt und die Pixelzahl immer weiter reduziert..
dank Eyetracking konnte das Video mit 1/14tel (!) der Pixelanzahl dargestellt werden, ohne dass (ich glaub ein großteil) der Betrachter einen Unterschied bemerkte..

und das wäre gewaltig... selbst wennst nur ein Bruchteil davon wäre, wäre das schon "geil"

einen Vorgeschmack liefert dieser Fovea-Detector:
siehe: https://www.computerbase.de/forum/t...sions-thread-fuer-alles.1877392/post-25596763

auf nem großen 4k Bildschirm - alle Zahnräder am Bildschirm drehen sich
aber wenn man fokussiert ist je nach Monitorgröße z.b. nur ein 2Euro-Stück großer Bereich erkennbar, wo sich die Zahnräder wirklich drehen

ich glaub foveated Rendering hat einen schlechteren Ruf derzeit, als es sein müsste, weil wir derzeit nur die "fixed"-Variante (z.b. bei der Quest kennen)
und somit eben auch uns den Bereich anschauen können, wo mit reduzierter Auflösung gerendert wird..
und das sieht dann bescheiden aus..

wenn eyetracking funktioniert kannst du dir den Bereich mit niedriger Auflösung NICHT anschauen weil immer wenn du hinschaust dort dann die volle AUflösung dargestellt wird

das Potential - wenns mal flüssig und zuverlässig funktioniert - das da schlummert denke ich ist riesig

umgelegt auf die Bildwiederholrate unserer Brillen ist das Auge ja recht träge
da sollte es (bald) möglichsein, schneller als unser Auge zu sein - sodass eben kein "Umschalten auf hohe Auflösung" im sich ändernden Sichtbereich sichtbar oder erkennbar ist
 
  • Gefällt mir
Reaktionen: Mr. Rift, NewLex und DaysShadow
Das man das überhaupt erläutern muss finde ich schon recht witzig. Es ist im normalen 3D Spiele Bereich doch ganz genauso, was auf dem Bildschirm nicht zu sehen ist wird nicht gerendert. Mehr als das ist dort aber halt nicht möglich, weil keine Eingabe dazu existiert wo der User mit seinen Augen gerade tatsächlich hinschaut.

Bei VR, was ja ohnehin schon erhöhte Leistung fordert ggü. normalen Anwendungen, kann mit Eye Tracking das Ganze noch deutlich feiner betrieben werden. Sobald das da ist und ordentlich funktioniert braucht man keine Grafikworkstation mehr, um, stark übertrieben gesagt, nicht mit Grafik der frühen 2000er vorlieb nehmen zu müssen, wenn man die benötigten FPS halten will.
 
wenns gut funktioniert sogar bei BESSER Grafikqualität

schau mal auf deinen Bildschirm, geh bissal näher ran für mehr FOV
und schau dann auf einer Internetseite auf ein Wort...
so dass es schön scharf ist..
lasse die Augen wirklich auf diesem Wort, versuche dich aber auf den RAnd deines Bildschirmes zu konzentrieren...
du kannst da weder Icons erkennen, noch Text.. ja nichtmal ob es sich um Worte handelt
ist völlig wurscht ob das am Rand mit 800x600-Auflösung oder mit 4k Auflösung dargestellt wird

so funktioniert nunmal unser Auge..
hier also mit 4k Auflösung zu rendern ist eigentlich eine massive Verschwendung von Resourcen

solange man nicht weiß wo die PErson hinschaut muss das aber so gemacht werden..

in Zukunft wenn das mit ET gescheit funktioniert stößt es dann vielleicht die Tür auf zu 8k oder 12k Auflösungsequivalent (also von der Pixeldichte umgelegt) im fürs Auge scharfen bereich
womit dann echte FErnsicht möglich werden würde
 
naja.. mir scheint du stellst das funktionieren an sich in Frage..

wir anderen hier sind schon davon überzeugt dass es ansich funktioniert..

es braucht "nur" noch Präzision und Geschwindigkeit beim Eye-Tracking
wenn das vorhanden ist - Halleluja

ich könnte mir dann aber auch ein "leeres" Brillengestell mit Eyetrackingsensoren vorstellen, die man bei der Monitor-Arbeit aufsetzt...
um da auch nochmal performance zu gewinnen.. jetzt, wo wir 34", 38", 43" Monitore langsam schonkriegen

43", 5,7k Auflösung mit Raytracing und 144Hz
z.b.
da beisst sich heute auch noch eine 3090 die Zähne aus


im Moment ists halt so, das 90% von dem was gerendert wird eigentlich unnötig weil zu hoch aufgelöst ist
 
Wenn Sony es in einem Mainstream Consumer Headset bringt, dann muss es auch funktionieren. Da werden keine Experimente gemacht.
 
Zurück
Oben