Bericht VR Benchmarks: So viel Leistung benötigen Spiele für die HTC Vive

Tja, das war zu erwarten, wenn Topgrafikkarten heute schon teilweise Probleme mit 60FPS @ 1080p haben wie will man dann 90FPS @ 1200p schaffen?

Die Leistung reicht einfach nicht, ausser für so billiggames. Anspruchsvolle AA-Titel für VR kann man wahrscheinlich noch für viele Jahre vergessen, wahrscheinlich gibts bis dahin auch schon die nächste Generation an VR Brillen.
 
@Jan

Elite Dangerous nur mit "Ultra" und "High" getestet, ernsthaft? Ist doch klar, dass das nix wird... :/

Viel mehr hätte mich niedrig-mittel-hoch interessiert und ob man da überhaupt Unterschiede sieht. Die Ultra-Benches mit den Karten unterhalb der 970 waren Zeitverschwendung.. Meine OC-970 schafft ja nichtmal die 100fps auf Ultra im normalen 2D 1440p..

Naja, selbst ist der Mann - wenn meine Vive Anfang April kommt, hole ich die Tests für "low" und "medium" nach und poste sie hier im Forum :p
 
UltraWurst schrieb:
Eigentlich voll intelligent. Das Spiel nur in 60fps laufen lassen und dann jedes zweite Bild einfach durch simple Verschiebung anzeigen.

Wenn das korrekt und vor allem ohne nennenswerte Latenz passiert, dann ist das sicher ein guter Trick, um fehlende GPU-Leistung zu kompensieren. Aber besonders die niedrige Latenz wird sicher nicht einfach zu erreichen sein, weil man ja für das berechnete Zwischenbild eigentlich auch schon das darauf folgende vorhalten/buffern muss. Versucht man die Bewegungsrichtung und -geschwindigkeit nur aus alten Frames vorauszusagen und liegt daneben, macht man die Sache nur noch schlimmer.
Wird sich in der Praxis zeigen, ob die Rechung aufgeht.

drmaniac schrieb:
Ich glaube die einfachere Erklärung is die: das Display, also die Hardware der Brille, ist ein 90hz Display. Es braucht eben genau 90hz. Oder eben die Hälfte die man dann künstlich verdoppelt.

Deswegen sind "mehr" als 90 auch nicht = besser, aber weniger = echt übel

Die hohen Frameraten werden wirklich gebraucht, weil bei VR die Latenz, also der Zeitunterschied zwischen Input und Output, eine besonders große Rolle spielt. Aus dem Grund brauchen die VR-Headsets auch so schnelle und präzise Bewegungssensoren.
Zwischen der Bewegung des Kopfes und der Ausgabe des Bildes auf dem Display, das dieser Bewegung entspricht, darf nicht zu viel Zeit vergehen. Wird die Latenz zu groß, dann kann das wie gesagt Übelkeit erzeugen, weil die Sinneseindrücke von Augen und Gleichgewichtssinn nicht mehr zusammen passen. Das Innenohr sagt z.B.: "Wir drehen uns jetzt nach links!", aber das Auge meldet: "Nope. Wir stehen noch immer still."
Das war das große Problem, an dem ältere VR-Headsets vor der Rift gescheitert sind. Die waren sprichwörtlich zum kotzen. ;)
(Wobei es natürlich auch Unterschiede gibt, wie empfindlich die Nutzer auf sowas reagieren. Aber wenn man ein Consumer-Produkt für den Massenmarkt anbieten will, kann man nicht damit leben, wenn auch nur 1/10 der Kunden davon Brechanfälle oder Kopfschmerzen bekommt.)

Man kommt also nicht darum herum, dass der Brille von der GPU auch wirklich immer sofort aktuelle Bilder zur Verfügung gestellt werden. Man braucht schnelle Sensoren, ein schnelles Display und eine schnelle GPU, die es zuverlässig füttert. Tricks wie dynamische Synchronisation von Frames und Display-Refresh, um Ruckler durch Framedrops abzuschwächen, helfen bei dem Problem nicht wirklich. Bestenfalls mildern sie es etwas ab. Aber für ein perfektes VR-Erlebnis braucht man unweigerlich eine bestimmte Mindestframerate.

Wenn man diese Ziel-Minimal-Framerate nicht einhalten kann, hilft nur, die Darstellungsqualität entsprechend runterzuregeln, damit die GPU entlastet wird.
 
Zuletzt bearbeitet:
Darf man erfahren welche Treiberversionen ihr bei diesen Tests verwendet habt?

Gerade bei AMD gibt es aktuell den 16.3 Hotfix der zB in dem SteamVR Performance Test doch einige Punkte bei mir eingebracht hat (R9 390).

Würde mich interessieren ob man damit in manchen Games (Elite: Dangerous) doch spielbare Ergebnisse erzielen könnte.
 
Alternativ kann man auch sagen, dass hier ordentlich an der Performance bzw. Optimierung gearbeitet werden muss (worauf ich schon lange warte). Denn sehr offensichtlich schaffen es die zwei großen Konsolen von MS und Sony Spiele ziemlich schick darzustellen, wofür der PC mindestens die doppelt so teure Hardware benötigt... wenn sich das endlich mal angleicht, dann sollte alles weitere auch kein Problem sein!
Ich hoffe ja, dass hier viele Spiele auf Vulkan setzen werden, denn nicht jeder will Windows (10) nutzen.

Ebenso finde ich auch, dass man nicht mit teuren GPUs die Entwickler Defizite ausgleichen sollte - aber das sehen hier sicherlich einige anders.

@über mir:
Die Angaben findest du auf der 1. Testseite ;)...
 
fox40phil schrieb:
Ebenso finde ich auch, dass man nicht mit teuren GPUs die Entwickler Defizite ausgleichen sollte - aber das sehen hier sicherlich einige anders.

Das ist letztlich eine eiskalte Kosten/Nutzen-Rechnung. Bis vor ein paar Jahren hat sich alle paar Monate die GPU-Leistung nahezu verdoppelt. Unter solchem Umständen Feintuning an APIs oder auch Gameengines zu betreiben, um damit vielleicht bis zu 20% Mehrleistung rauszukitzeln, hat sich wirklich nicht gelohnt.
Erst als die große Stagnation bei den GPUs einsetze, bekam das Thema auf einmal eine ganz andere Priorität und letztlich musste sich sogar Microsoft selbst bewegen, nachdem AMD mit Mantle vorgeprescht ist.
Sollte VR sich durchsetzen, fällt auch das "gut genug (für FullHD)"-Argument endgültig weg. Bis GPUs rauskommen, die wirklich "gut genug" für VR-Spiele sind, werden selbst dann noch einige Jahre vergehen, wenn die GPU-Stagnation mit der nächsten Generation (und endlich neuem Fertigungsprozess) aufhört.

Ich denke also schon, dass sich einiges tun wird, unter anderem durch Vulkan und DX12. Außerdem ist VR sowieso Neuland und da wird noch einiges zu optimieren sein.
 
Ich hatte das Glück am Wochenende alles, was es aktuell bei Steam an Vive-Demos gibt mit meinem Rechner anno Mitte/Ende 2013 zu testen, der letzte Woche lediglich ein Upgrade in Form einer GTX 970 erhalten hat (AMD FX 8300@4.6Ghz, 8Gb RAM, Windows 10). Bis auf Minigolf war durch die Bank weg alles absolut gut spielbar. Ich gehe daher davon aus, dass Minigolf es einfach nur sehr schlecht programmiert ist und optisch jetzt auch nicht gerade Maßstäbe setzt.

Bei den VR-Demo-Versionen lassen sich (zumindest ohne Konsolenbefehle oder ähnliches) keine Details, Auflösung oder sonstwas verstellen. Das Starten von VR-Applikationen ähnelt dem einer Konsole. Starten, laden, spielen.

Bei "ausgewachsenen Spielen", die als mehr oder weniger Gimmik, VR-Unterstützung bieten, wird es allerdings vermutlich anders aussehen. Hier ist das getestete Elite ja bereits ein gutes Indiz dafür, dass VR verglichen mit Single-Monitor mehr Leistung benötigen wird.

Optische Meilensteine sind Valves Apperture Robot Repair und die Demo Rooms, die auch problemlos liefen. Da gab es eher Einschränkungen durch zu wenig Platz zum Rumlaufen. Dabei gilt definitiv: je mehr, desto besser.

Wer also mit VR liebäugelt, aber sich keinen komplett neuen Rechner zulegen möchte, muss dies vermutlich auch nicht tun. Ein Grafikkarten-Upgrade könnte für eine ganze Weile ausreichen. :)
 
Zuletzt bearbeitet:
DrToxic: Falsch, ich weiß nicht. Ich denke, es rüttelt einfach mal die wach, die sich solche Anforderungen nicht vorstellen können. Wird bei Assetto Corsa ja nicht anders sein. Auf dem Desktop-PC alle Regler hoch und VR? Huch! Wir werden weniger Details noch machen.
 
time-machine schrieb:
Ich hätte auch gerne die starbreeze weil diese von der auflösung noch besser als unsere beiden Kandidaten sein soll.

Ich glaube die Star Brille hat nur LCD Displays. War mein letzter stand. Solange kein OLED ist das Ding leider nicht tauglich.

Die puren Specs klingen allerdings verlockend ;) auch für mich
 
Habt ihr bei Elite auch die Planetenlandungen getestet? Die brauchen meiner Erfahrung nach nämlich bis zu 50% mehr Leistung.
 
Herdware schrieb:
Wenn das korrekt und vor allem ohne nennenswerte Latenz passiert, dann ist das sicher ein guter Trick, um fehlende GPU-Leistung zu kompensieren. Aber besonders die niedrige Latenz wird sicher nicht einfach zu erreichen sein, weil man ja für das berechnete Zwischenbild eigentlich auch schon das darauf folgende vorhalten/buffern muss. Versucht man die Bewegungsrichtung und -geschwindigkeit nur aus alten Frames vorauszusagen und liegt daneben, macht man die Sache nur noch schlimmer.
Wird sich in der Praxis zeigen, ob die Rechung aufgeht.
Also ich dachte, es geht jetzt eher wirklich um simple Verschiebung und nicht um Motion-Interpolation, und auch nur darum die Bewegungen des Kopfes vernünftig umzusetzen.
Das Spiel-Geschehen würde dann weiterhin nur in 60fps laufen (reicht ja erstmal, um nicht störend aufzufallen), aber das Headtracking eben mit 120fps.

Nun ist es bei Perspektiv-Verschiebungen nicht mit einer einfachen Verschiebung getan, wie Blaexe richtig feststellte.
Aber auch dafür gibt es eine recht simple Lösung, die bereits in der CryEngine für stereoskopisches 3D implementiert ist:
Es wird dabei der Tiefen-Puffer ausgewertet und die Bildpunkte entsprechend der eigenen Bewegung verschoben. Kostet kaum Leistung.
Nenne sie: Screen Space Re-Projection Stereo (SSRS)

Das Problem dabei ist natürlich, wenn aus der verschobenen Perspektive nun plötzlich Dinge sichtbar werden, die vorher verdeckt waren. Das gibt dann so hässliche Warp-Artefakte.
Allerdings könnte man das mit einer optimierten Engine eigentlich auch recht leicht beheben, wenn man intelligent auch schon verdeckte Objekte rendert, die nicht weit davon entfernt sind, sichtbar zu sein.

Mit einer wirklich darauf ausgelegten Engine, könnte man auf diese Weise Artefakt-frei stereoskopisch rendern und würde dabei vielleicht 10% mehr Leistung brauchen als wenn nur ein Bild gerendert wird (statt wie derzeit eher 90%).
Leider pennen die Entwickler hier seit Jahren und ignorieren 3D komplett.
 
Zuletzt bearbeitet:
Super Test - Danke.

Aber leider zeigt mir der Test dass meine 7950 Boost wohl - trotz OC - nicht ausreichen wird um mein Elite Dangerous richtig zu Zocken.

Klartext: Wenn die neuen Grakas da sind werde ich ein paar € in die Hand nehmen müssen.
 
Super Test, vielen Dank dafür! Endlich mal ein paar belastbare Zahlen :)

Kann mich immer noch nicht zwischen ner Geforce oder Radeon Karte entscheiden. So wie es aussieht hängt es stark vom Spiel ab ob jetzt die Radeon Karten vorne liegen oder doch die Geforce Karten.

Könnt ihr schon verraten ob die i7 Prozessoren im Vergleich zu den i5ern für die Leistung in VR einen großen Unterschied ausmachen oder muss ich mich noch bis zum nächsten Artikel gedulden? ;)
 
Im Test und im Fazit kein einziges Wort über Asynchronous Time Warp von Oculus... statt dessen wird so ne Propaganda zeugs von wegen 1:1 gelabert, wirklich lächerlich.

Und oben drauf, wurden damals bei der Vorstellung von Crescend Bay 2x980er in der Unreal Showdown Demo benutzt... wo waren denn da bitte die Microruckler?

Das neue Grafikkarten dieses Jahr rauskommen die bestimmt besser für VR geeignet sind, wird im Fazit auch nicht erwähnt.

Und wollte da nicht nvidia auch eine neue SLI Technik rausbringen? Ich hab den Namen vergessen...
 
Zuletzt bearbeitet von einem Moderator:
EchoeZ schrieb:
@VR kann nix, VR wird floppen.

Höhlenmensch 1: "Ey, guck mal, Feuer..awesome!"
[…]

Ich mag ja VR, aber es ist jetzt nicht unbedingt so bedeutsam wie die Entdeckung des Feuers oder die Relativitätstheorie. Letztere wurde und wird übrigens auch bis heute angezweifelt, was gut und wichtig ist.
 
Nochmal in Bezug auf die Playstation, ich habe auf der Gamescom letztes Jahr die VR-Variante der PS4 live gesehen und die HTC Vive ausprobiert, zudem eine Samsung Gear VR selbst zu Hause.
Das Ding von Sony konnte mich da aber leider überhaupt nicht überzeugen. Von der Anwenderfreundlichkeit sicherlich ganz vorne mit dabei, geschlossenes System, keine weiteren Anpassungen notwendig usw., aber die Tetris-Demo´s die gezeigt wurden waren wirklich nicht das gelbe vom EI. Vielleicht schaffen Sie es sich mit minderer Grafikqualität auf dem Markt zu behaupten, ähnlich wie es Nintendo die letzten Jahre gezeigt hat, aber bei VR erwarte ich irgendwie etwas mehr.
Soll nicht falsch rüberkommen, nicht jeder ist der Grafikjunkie schlechthin, aber zwischen den Systemen von Sony und HTC liegen schon Welten! Da bin ich wirklich mal gespannt mit welcher Software uns Sony da in Zukunft vom Hocker hauen will..
 
@m.Kobold

Ob ATW die Wunderlösung darstellt, muss sich erst noch beweisen. Momentan kann's ja kaum einer testen, und denjenigen, die es könnten, wurde von Oculus per NDA verboten drüber zu sprechen :p

Wenn das Feature wirklich so viel Mehrleistung gegenüber der Vive bringen würde, hätten sie das schon längst offiziell breit getreten. Ich bin mir aber sicher, dass CB das ausführlich testen und veröffentlichen wird, sobald sie können/dürfen - bis dahin weiß man leider nix genaues.

Mittlerweile gibt es aber massig Threads von Leuten, die auf Grund der ganzen fehlenden Infos lieber zur Vive wechseln. Mir fällt jetzt persönlich auch kein Beispiel ein, bei dem das NDA erst bei Auslieferung(!) fällt, d.h. man kauft bei der Rift die Katze komplett im Sack, ohne offizielle Specs. So restriktiv war ja nichtmal Apple bei der Apple Watch letztes Jahr...
 
Zuletzt bearbeitet:
Ich denke die diesjährige GDC (die heute startet) wird nochmal einen tiefen Einblick in die VR-Technologie geben.
Schon im letzten Jahr gabs einen sehr informativen Talk von Alex Vlachos (Valve-Entwickler für die Vive) zu Rendering für VR Geräte.
Youtube-Link: https://www.youtube.com/watch?v=JO7G38_pxU4

Die Anforderungen sind einfach enorm hoch, und wir kommen erst jetzt in Fahrwasser, in denen Grafikkarten zuverlässig diese Leistung werden bringen können.
 
Zuletzt bearbeitet:
DrToxic schrieb:
@m.Kobold

Ob ATW die Wunderlösung darstellt, muss sich erst noch beweisen. Momentan kann's ja kaum einer testen, und denjenigen, die es könnten, wurde von Oculus per NDA verboten drüber zu sprechen :p

Wenn das Feature wirklich so viel Mehrleistung gegenüber der Vive bringen würde, hätten sie das schon längst offiziell breit getreten. Ich bin mir aber sicher, dass CB das ausführlich testen und veröffentlichen wird, sobald sie können/dürfen - bis dahin weiß man leider nix genaues.

Falsch, SDK 1.0 konnten hier bereits einige user Testen und haben ganz klar über den Positiven effekt von ATW gesprochen.
 
Zurück
Oben