Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Nun, es gibt wohl eine Schnittstelle bei bestimmten nvidia Karten, die direkt das Foveated Rendering nutzen kann, ohne dass dies extra in der Anwendung selbst eingearbeitet werden müsste. Also praktisch immer Foveated Rendering ab einer gewissen Generation, wenn eine kompatible Kamera genutzt wird. Klärchen?
„Foveated rendering is already up and running with the aGlass dev kit, and is presently said to work on any application with no modifications, so long as the computer is equipped with an NVIDIA GPU.“
Es wird aber sicherlich eine Einschränkung geben ab welcher Serie es unterstützt wird. Übertrieben gesagt wird das eine 10 Jahre alte GPU wohl nicht unterstützen.
Ich bin wirklich gespannt wie der Eindruck von Eye-Tracking + Foveated Rendering sein wird. Ich dachte auch dass es rein vom Algorithmus her relativ einfach ist sobald Eye-Tracking gut genug funktioniert.
Anscheinend steckt da aber doch mehr dahinter:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Simpler Gedanke: kommt nicht lowres input in der Blickperipherie noch auf die organische lowres ontop? In der Realität trifft nämlich ein highres input auf die lowres Rezeptorfläche des Auges. Und wenn der input dann noch lowres ist, könnte der Eindruck trotzdem eine gewisse Matschigkeit in der Peripherie sein. Muss man testen.
Eye Tracking bringt ein doch aktuell eh nix außer man ist nen Entwickler.
Games müssen es ja explizit unterstützen.
Solang noch kein großes Headset EyeTracking gleich ab werk dabei hat, wirst auch kein Game dafür sehen.
Aktuell hält man als dev doch eher den aufwand so gering wie möglich bei der VR Game entwicklung
Anscheinend ja eben nicht, das aGlass Dev Kit 2 bringt wohl ne proprietäre Softwareschnittstelle mit welche, solange ne Vive oder Vive Pro und ne NVIDIA GraKa im Spiel ist, foveated rendering Anwendungsunabhängig möglich macht. Das ganze zum Preis von 5ms höherer Latenz und dem Nachteil die IPD nicht mehr unterhalb von 65mm einstellen zu können.
Mich juckts gehörig in den Fingern, aber wie gesagt; Mit TPCAST kombinierbar wird es wohl eher nicht sein, ausserdem brauch ich für die Vive Classic kein foveated rendering, jedenfalls nicht mit ner 1080 TI im Rücken.
Mit 110° FOV ist Pimax Kompatibilität auch unmöglich, und gerade dort könnte man das ganze ja erst richtig gut gebrauchen. Das ganze macht aber auf jeden Fall Hoffnung.
Wenn es 200€ kosten würde und meine Lieblingsapp Performanceprobleme hätte, würde ich das erwägen. Aber im Moment läuft eher Beat Saber auf der Vive Pro. ))
glaub ich persönlich nicht dran dass es out of the box nur weil man ne nvidia karte drin hat magischerweise ne game engine dynamisches rendern von bestimmten bildausschnitten beherrscht.
z.b. nur das einbinden von vr works in der unreal engine kann dein projekt lahmlegen und man muss teils etliches anpassen und fixen damit dein build wieder funktioniert.
kann es sein dass die NUR VR Funhouse presentiert haben? einer der ganz wenigen titel die überhaupt VR Works nutzen.
Also wieder China Marketing das ganze
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Also lowres hast Du auch beim natürlichen Sehen. Beim Bogenschiessen merkt man das deutlich. Man kann entweder das Target oder die Pfeilspitze „scharf stellen“. Beides geht nicht. Wir fokussieren immer, den Rest macht das Gehirn.
Du redest aber von Entfernung. Das Ziel ist weiter weg als die Pfeilspitze. Deswegen kannst du nicht beides scharf stellen. Darum geht es bei der Diskussion um Foveated Rendering aber nicht.
So wie ich das verstanden habe, ist immer ein erheblicher Teil unseres Blickfelds unscharf und das Gehirn setzt aus den Einzelbildern unseren Seheindruck zusammen. Also sehen wir nicht immer alles scharf, sondern nur das was direkt vor uns liegt. Daher muss nur das scharf gerendert werden was wir direkt und nicht peripher sehen. Beim Bogenschiessen sehe ich daher entweder die Spitze vom Pfeil scharf oder das Ziel, je nachdem wo ich hinschaue.