News Virtual Reality: Nvidia führt „VR Ready“-Siegel ein

terraconz schrieb:
Crysis (Außer der erste Teil bis zu den Aliens!)
Musste lachen, da bist du nicht allein. :evillol:

noxon schrieb:
Also ganz so dramatisch sehe ich das Problem irgendwie nicht. Ich habe jetzt schon auf meinem stink normalen 2D Monitor die Anforderung an meine Spiele dreistellige Frameraten in UHD Auflösung zu erreichen und das klappt sogar mit meiner "alten" GTX 780 in Spielen wie Battlefield wunderbar.
Auf welchen Monitor ballerst du UHD mit >99fps?
Oder sprichst du einfach von Downsampling?
 
DonDonat schrieb:
Laut den letzten Gerüchten hat Playstation VR aber noch eine ominöse Box mit dabei, die wohl auch Teile der Berechnungen übernehmen wird ;)

Wobei die PS4 keinen brauchbaren Datenbus für ne externe GPU hat. Die Box wird also maximal Zwischenbilder berechnen können um die FPS künstlich zu boosten (so wie es auch bei den ganzen x-Hundert Hz TVs gemacht wird). Mal abwarten wie das wird.
 
Wa1lock schrieb:
Laut Nvidia sei für VR bis zu sieben Mal mehr Rechenleistung als bei normalen Spielen notwendig. Dabei geht das Unternehmen davon aus, dass normalerweise in 1.920 × 1.080 Pixeln bei 30 Bildern pro Sekunde gespielt wird, auf einer VR-Brille hingegen bei 1.680 × 1.512 Bildpunkten pro Auge und 90 Bildern pro Sekunde.
Sowas nennt man Bauernfängerei. Einfach mal irgendwelche frei erfundenen Werte zugrunde legen und damit dann rumprotzen. Klar benötigt man Mehrleistung für VR. Wer aber mit 120+ FPS oder 4k unterwegs ist, braucht sich da nicht soviele Gedanken drum machen.

Fakt ist, dass min. 60 FPS in FHD gespielt, bzw. hier von den Testern auf CB gefordert werden und nicht 30 und die Brillen haben (bisher) 1200x1080 Bildpunkte, also insgesamt 2400x1080 Bildpunkte. Geht man von diesen Werten aus liegt der Faktor bei der Mehrleistung viel niedriger.

Dazu kommt, das es noch keine Erfahrung gibt was Spiele anbelangt. Die "Techdemos" die es für VR gibt kann man auch mit einer Low-End Karte locker flüssig wieder geben.

@Samurai
ist mir auch gerade aufgefallen, habs geändert ;)
 
Zuletzt bearbeitet:
Hey, Schaby, du gehst von vier Displays aus? (2x1200x1080=|=2400x2160). Und richtig, gehst du von FullHd mit 60FpS aus, dann ist nur eine Mehrleistung mit Faktor von ca. 3,5 erforderlich.
 
Zuletzt bearbeitet:
Geht man von der Occulus Rift aus, also 1200x1080 ist der Faktor noch niedriger. Der Faktor liegt dann unter 2 bin zu blöd das auszurechnen...
 
Zuletzt bearbeitet:
Nur so nebenbei, der Faktor 3,5 dürfte ca. dem Unterschied zwischen einer GTX 750 Ti und einer GTX 980 Ti entsprechen.
 
@Schaby Du musst die Auflösung mit der Framerate multiplizieren. Bei Nvidias Beispiel sind das:
- PC: 1.920 x 1.080 x 30 = 62.208.000
- VR: 1.680 x (1.512 x 2) x 90 = 457.228.800
Der Faktor PC -> VR ist also in diesem Fall 7,35.

Bei der Rift sind es analog:
- Oculus VR: 1.200 x (1.080 x 2) x 90 = 233.280.000

Nimmt man nun an, dass man normalerweise bei 1080p und 60 FPS spielt, kommt man auf folgendes:
- PC: 1.920 x 1.080 x 60 = 62.208.000 x 2 = 124.416.000

Man benötigt also 1,875 mal mehr Rechenleistung, wenn man von 1080p bei 60 FPS auf Oculus Rift umsteigt und bei 90 FPS spielen möchte. Es gibt wohlgemerkt von Nvidia eine Technik, bei der die Randbereiche mit weniger Auflösung gerendert werden, wodurch der Rechenaufwand sinkt.
 
@Wa1lock
meine Reden, hab ja schon geschrieben das der Faktor unter 2 liegt...war nur zu faul das genau auszurechnen. Aber Danke (echt jetzt). Was hier noch fehlt, wieviel Leistung durch das seperate Berechnen für jedes Auge benötigt wird.
 
Dann könnte man als grobe Faustformel sagen, dass wenn man 1440p 63 FPS schafft, reisst man auch die geforderten 90 FPS im Oculus Rift:

2560*1440*63 = 232.243.200 ungefähr gleich 1200*1080*2*90 = 233.280.000

Ist dann schade, dass es keine höher aufgelöste RIft Version gibt. Dual 980 ti oc sollten locker 50% mehr Pixel schaffen. Und die neuen Grafikkarten die wohl auch in der 2ten Jahreshälfte kommen ebenfalls.
 
Zuletzt bearbeitet:
Zurück
Oben