Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.696
iSight2TheBlind schrieb:Auch trotz der hohen Auflösung - und dafür wird Apple sicher eine passende Lösung gefunden haben (foveated Rendering, Eyetracking etc.) - wird man so ein gutes Erlebnis erreichen.
Vielleicht nicht Half Life:Alyx auf vollen Details-Niveau, aber auch darunter gibt es sehr gute VR-Erlebnisse.
Auflösung ist nur durch eins zu überbieten - mehr Auflösung. VR brauch einfach eine gewisse min. Auflösung pro Auge um kein Screen Door Effect zu haben. Von dem was ich bis jetzt so gelesen habe ist das aktuell bei der HP Reverb G2 oder der Pimax Vision 8K X der Fall. Apple muss also Retina liefern ob die Bilder nun per upscaling auf die Auflösung kommen da können wir drüber reden ggf. entwickelt Apple auch ein "DLSS" mit besonderem Chip aber ich sage mal 2160x2160 pro Auge ist eher Minimum.
Das Video haut mich nicht unbedingt vom Hocker. Wenn ich die Texturen so sehe kommt mir das vor wie vor 15 Jahren - sehr matschig und nicht scharf. Ich glaube nicht, dass Apple so ein geringen Anspruch hat.
iSight2TheBlind schrieb:Die Frage ist dann nur wie das Bild auf die Brille kommt: Ein Prozessor direkt in der Brille wird es wahrscheinlich nicht sein, der verbraucht zu viel Strom, braucht damit einen größeren Akku usw. usw. und dann ist die Brille nicht mehr so angenehm zu tragen.
Gerade wenn das Teil am Kopf ist, wird Kühlung noch wichtiger da ~5 °C über Körpertemperatur schon sehr unangenehm sein können. Ich glaube also auch nicht daran das auf dem Gerät Sachen berechnet werden.
iSight2TheBlind schrieb:Da ist es wahrscheinlicher, dass das Bild auf dem iPhone berechnet wird und dann via Wifi 6E zur Brille geschickt wird.
Ja aber da sind wir wieder bei dem gleichen Punkt wie am PC. Der Rechner muss entsprechend Power haben und das hat ein iPhone, iPad oder ein Mac (M1) aktuell noch nicht. Für VR brauch es einfach eine gewisse Auflösung damit man kein Screen Door Effect hat. Ein M1 Pro Max schafft in Tomb Raider in 1920x1200 aktuell um die ~90 FPS. Wie oben schon geschrieben ist 2160x2160 pro Auge so das Minimum was Apple wohl als Retina bezeichnen wird. Da fehlt beim Mac aber aktuell einfach die Leistung. Ich mein man sieht es ja am PC das viele Titel selbst mit 3080/3090 schon am Limit der GPU sind da wird es mit einem SoC nicht besser.
iSight2TheBlind schrieb:Wie die Eingaben aussehen werden: Getrackte Controller erscheinen mir für Apple eher untypisch, die bringen ja nicht einmal für den AppleTV ein eigenes Gamepad.
Ohne das wird es aber nichts werden. Zumindest meine Meinung. Einfach nur über Handtracking ist man zu beschränkt und die Fehlerquote dürfte zu hoch sein.
iSight2TheBlind schrieb:Wahrscheinlich Handtracking über "FaceID"-Sensoren an der Brille.
Ich würde eher LIDAR sagen aber auch hier denke ich, dass die Abtast-Qualität noch nicht da ist und auch in den nächsten Jahren nicht da sein wird in der Größe die man benötigt.