Kraeuterbutter schrieb:
wäre doch - bei gleicher Komprimierung - die 4fache Datenmenge von dem was heute mit der Quest2/3 so genutzt wird..
Der Benefit von 2x4k verschwindet natürlich bei geringerer Bitrate, aber zunächst einmal könnte man 2x4k (bzw 2x 6k wenn man beim 1,5 Auflösungsfaktor bleiben möchte) genauso wie jetzt schon die 2x3k mit 500 Mbps bedienen, wodurch die Datenmenge gleich bleibt.
Ist halt keine native Auflösung, man wird bei hoher Auflösung und niedriger Bitrate stellenweise vielleicht mehr Schärfe haben, aber man wird weiterhin wie jetzt auch "Bitratenmatsch" haben. Man muss ja bedenken, wenn ich aktuell die Quest 3 benutze mit 3k, habe ich ja trotz 3k im "Bitratenmatsch-Bereich" gefühlte Youtube 360p.
Kraeuterbutter schrieb:
wenns ein Headset mit eyetracking ist, foveated rendering --> dann könnte das wohl beim Streaming mitgenutzt werden, die Datenmenge durchs Eyetracking reduziert werden
Wird man denke ich nicht drum rum kommen, im Best Case kann ja sowas wie MLO 5 und 6GHz gleichzeitig nutzen, aber damit kann man im Optimum nur die Bitrate verdoppeln.
Ich glaube auch dass das der "Endgame"-Plan ist, da die meisten Quest 2/3 Titel ja schon jetzt einfach Fixed Foveated Rendering verwenden. Genauso wie Raytracing ohne DLSS/FSR zu benchmarken sinnlos ist, weil die Erkenntnis lautet "mit Ausnahme der besten GPU ist dieses Setting unspielbar". Aber dafür braucht man nicht Eye-Tracking, sondern billiges Eye-Tracking, wo die Sensorik 5-10€ pro Gerät kostet und die ganze Magie durch AI/Machine-Learning Vorhersagen gestämmt wird.
Ist halt der bessere Ansatz, mit Eye-Tracking was prinzipiell sich günstig implementieren lässt die Datenmenge zu reduzieren, als mit exorbitanten Übertragungsmöglichkeiten die Übertragungsraten zu erhöhen, und dann müssen die ja trotzdem immer noch decodiert werden was mehr Leistung kostet bei mehr zu verarbeitetenden Daten. PCVR ist aber als Betrachtungsfall auch nur eine Randgruppe, Eye-Tracking muss eher kommen wegen Standalone.