was man sich von ET erhofft ?
eine deutliche Reduzierung der Rechenlast, somit deutlich höhere Auflösung möglich
vonwegen: "das kann man ja auch mit DLSS erreichen"....
EyeTracking und DLSS müssten sich ja nicht ausschließen.. kombiniert könnte das der Schlüssel sein, tatsächliche Fernsicht auch in VR mit hoch aufgelösten Headsets zu haben..
weil Fernsicht: kannst zur zeit selbst mit der Reverb G2 und supersampling vergessen,
viel zu geringe Auflösung der Headsets dafür
ist nicht das was ich mir in Zukunft mal darunter vorstelle
also was von ET
ERHOFFEN ?
es geistern verschiedene Zahlen so durchs netz... manchmal heißt es, dass damit die die Pixelzahl um 40% verringert werden könnte..
manchmal um 80%...
aber - ich glaub Oculus-Labore war das - es gibt auch Zahlen die mehr versprechen..
in dem Beispiel das ich meine, hat man ein Video in einem Player mit Eyetracking abgespielt und die Pixelzahl immer weiter reduziert..
dank Eyetracking konnte das Video mit 1/14tel (!) der Pixelanzahl dargestellt werden, ohne dass (ich glaub ein großteil) der Betrachter einen Unterschied bemerkte..
und das wäre gewaltig... selbst wennst nur ein Bruchteil davon wäre, wäre das schon "geil"
einen Vorgeschmack liefert dieser Fovea-Detector:
siehe:
https://www.computerbase.de/forum/t...sions-thread-fuer-alles.1877392/post-25596763
auf nem großen 4k Bildschirm - alle Zahnräder am Bildschirm drehen sich
aber wenn man fokussiert ist je nach Monitorgröße z.b. nur ein 2Euro-Stück großer Bereich erkennbar, wo sich die Zahnräder wirklich drehen
ich glaub foveated Rendering hat einen schlechteren Ruf derzeit, als es sein müsste, weil wir derzeit nur die "fixed"-Variante (z.b. bei der Quest kennen)
und somit eben auch uns den Bereich anschauen können, wo mit reduzierter Auflösung gerendert wird..
und das sieht dann bescheiden aus..
wenn eyetracking funktioniert kannst du dir den Bereich mit niedriger Auflösung NICHT anschauen weil immer wenn du hinschaust dort dann die volle AUflösung dargestellt wird
das Potential - wenns mal flüssig und zuverlässig funktioniert - das da schlummert denke ich ist riesig
umgelegt auf die Bildwiederholrate unserer Brillen ist das Auge ja recht träge
da sollte es (bald) möglichsein, schneller als unser Auge zu sein - sodass eben kein "Umschalten auf hohe Auflösung" im sich ändernden Sichtbereich sichtbar oder erkennbar ist