Bericht VR Benchmarks: So viel Leistung benötigen Spiele für die HTC Vive

ach leute - VR erscheint grade erstmal - wer kann sich noch an die Zeiten erinnern mit den ersten "3D Spielen" - die einzigen 3D Karten die funktioniert haben waren die extrem teuren 3D Karten.. da hieß es auch - wer braucht denn sowas - zu teuer für das was es bringt - in ein paar Jahren wird VR für die Grakas auch das kein Problem mehr sein da bin ich mir relativ sicher..

https://de.wikipedia.org/wiki/3dfx in Memoriam :D

Heiße 50!!! Mhz :D
 
Zuletzt bearbeitet:
EineErgänzung: Hover Junkers ist nicht das einzige Spiel, das sehr gut läuft. Der Artikel enthält einen guten Querschnitt durch das Angebot. Und warum E:D? Weil das hier die meisten gefordert haben. Wir werden weitere Spiele und Einstellungen testen.


Gruß von der CeBIT.
 
Ich glaube es ist jetzt Zeit für überteuerte VR Remakes ala Crysis 1 VR... :D
 
Ich sehe den Test sehr positiv aus meiner Sicht:
Der Markt bzw. VR schreit nach stärkeren Karten und evtl. kommen solche schon bald mit der anstehenden nächsten Generation von beiden Lagern bzw. dann mit der übernächsten Generation. Die Performancesprünge wurden in letzter Zeit immer kleiner und jetzt könnte sich das endlich mal ändern. Bleibt nur zu hoffen, dass die Preise nicht noch mehr explodieren. 300€ und mehr für eine GPU kann nicht jeder ausgeben...
 
Vielen Dank für den tollen Testbericht.
Demnach ist nicht nur potente Hardware nötig. Die Software muss auch noch deutllich optimiert werden. Das geht vor allem auch aus den Benchmarks für Elite:Dangerous hervor. Anders kann es nicht sein, dass NVidia im Gegensatz zu AMD so gut abschneidet.
 
Darksteve schrieb:
ach leute - VR erscheint grade erstmal - wer kann sich noch an die Zeiten erinnern mit den ersten "3D Spielen" - die einzigen 3D Karten die funktioniert haben waren die extrem teuren 3D Karten.. da hieß es auch - wer braucht denn sowas - zu teuer für das was es bringt - in ein paar Jahren wird VR für die Grakas auch das kein Problem mehr sein da bin ich mir relativ sicher..

https://de.wikipedia.org/wiki/3dfx in Memoriam :D

Heiße 50!!! Mhz :D

Jetzt muss ich wieder von meiner Millennium träumen, wie fies...

Spaß beiseite, für den Massenmarkt waren meiner Ansicht nach die Chips von S3, der Riva TNT 128 und die Entwicklung von D3D wichtiger als 3dfx an sich. Gerade glide hat den Markt gespalten, was zuweilen echt mies lief. Viele Spiele aus der Zeit können heute noch nicht in voller Graphikpracht gespielt werden ohne glide zu emulieren, da gerade 3D-Effekte wie volumetrische Nebel, alpha-blending etc damals nur per glide gelöst wurden.

Zum Thema VR:

ich finde es ist eine Fehlkonzeption auf Vsync zu setzen. Gerade solche Einsatzszenarien sind prädestiniert für adaptive sync!
Des weiteren zeigt es mal wieder die sehr "mutige" Aussage seitens nVidia man wäre mit einer GTX970 VR-ready.
Echte VR-GPUs bringt erst die 14nm-Generation mit sich, denn wer eine GTX980Ti kauft erwartet ein anderes Ergebnis als dass was diese derzeit liefert...
 
Wieso brauchen die spiele so viel Leistung, und müssen extra dafür entwickelt werden?
3d können doch die meisten aktuellen spiele.
 
Mein Dilemma ist es, momentan ne 290x zu haben und auf polaris/pascal warten zu müssen. Upgrade auf 390/980 lohnt nicht und AMD/nVidia lassen sich noch bis Q3/Q4 Zeit...

@cb: Danke für den Test. Mich würden in der Tat auch die Launch-Titel für die Vive interessieren, soweit vorhanden.
 
wahli schrieb:
Ich sehe den Test sehr positiv aus meiner Sicht:
Der Markt bzw. VR schreit nach stärkeren Karten und evtl. kommen solche schon bald mit der anstehenden nächsten Generation von beiden Lagern bzw. dann mit der übernächsten Generation. Die Performancesprünge wurden in letzter Zeit immer kleiner und jetzt könnte sich das endlich mal ändern. Bleibt nur zu hoffen, dass die Preise nicht noch mehr explodieren. 300€ und mehr für eine GPU kann nicht jeder ausgeben...

Preise werden immer steigen durch die Inflation. Derzeit sieht es so aus dass die CPU nicht mehr die Rolle spielt wie früher, insofern ist die GPU das aufwändigste und teuerste in einem Spielerechner.
Der fehlende Leistungszuwachs zuletzt liegt an einem einfachen Prinzip: man kann über eine Architektur nicht so riesige Leistungssprünge bewerkstelligen wie man es mit einem shrink kann. Im Endeffekt helfen bei allem nur: mehr Transistoren. Da rennt man irgendwann aber in eine Wand hinsichtlich yield, Abwärme, Energieverbrauch.
TSMC hat den 22nm-Prozess leider versemmelt, weswegen AMD und nVidia mit 28nm planen mussten.
Jetzt sind nicht nur mehr Kapazitäten für GPUs am Markt vorhanden (GF/Samsung) sondern mit aktuellen 14/16nm-Prozessen auch die Grundlage für echte Fortschritte.
 
Was machen jetzt die Leute die behaupten mehr als die "cineastischen" 30 fps kann man sowieso nicht wahrnehmen?
 
h00bi schrieb:
Ihr solltet lieber einen Artikel bringen wie man die Spiele anpassen kann dass VR auch auf der 200€-Graka-Klasse läuft und eine subjektive Einschätzung abgeben ab wann man das Spiel so weit runtergedreht hat dass es weniger Spaß macht als auf dem FullHD Monitor.

Ich finde es immer wieder spaßig, wenn man eine 800€ VR Brille an einer 200€ Grafikkarte betreiben will. VR befindet sich immer noch in der Early Adopter Phase, da kann man meiner Meinung nach noch nicht erwarten, daß so etwas sinnvoll funktioniert. Wer jetzt schon mitspielen will, der muss halt tief in die Tasche greifen, der Rest wartet bis die passende Leistung zu einem niedrigeren Preis verfügbar ist, was sicherlich in den nächsten 1-2 Jahren passieren wird.
Mich persönlich interessiert daher gar nicht, wie man die Darstellung verkrüppeln muss, damit etwas theoretisch möglich ist, daß derzeit für mich keinen Sinn macht. Aber das ist nur meine Meinung dazu, ich bin mit dem Test jedenfalls sehr zufrieden, er hat mir viele Fragen beantwortet die mich interessiert haben.

h00bi schrieb:
Da ist aber die Frage was stört mehr: Pixeltreppchen oder ein 800€ Loch im Geldbeutel?
Vielleicht stört beides gleichermaßen, weil die Pixeltreppen direkt vor dem Auge extrem viel problematischer sind als auf einem entfernten Monitor, wo es lediglich ein kosmetisches Thema ist.
Man kann nicht all die Erfahrungen von Gaming an einem Monitor einfach auf VR übertragen, so einfach ist das nicht. Ich vermute, daß ohne entsprechende Supersampling Kantenglättung die Probleme von VR noch viel stärker zum tragen kommen als ohnehin schon und das es daher Pflicht ist. Post-AA funktioniert dort auch nicht brauchbar nach meinem Kenntnisstand. Aber ich lasse mich da gerne durch entsprechende Experten korrigieren, ich bin keiner.
 
gokega schrieb:
Demnach ist nicht nur potente Hardware nötig. Die Software muss auch noch deutllich optimiert werden. Das geht vor allem auch aus den Benchmarks für Elite:Dangerous hervor

Elite ist ein Extrembeispiel.
Das Game braucht echt krass Leistung. Hatte es auch gekauft.

Ich frage mich nur wofür diese Leistung drauf geht.
Das Game sieht eher bescheiden aus.
In paar weiße Punkte im Weltraum zu rendern,
oder Raumstationen die aussehen wie in einen Spiel vor 10Jahren können nicht so viel fressen.
Auch das Planetendesign ist eher bescheiden.
 
IBISXI schrieb:
oder Raumstationen die aussehen wie in einen Spiel vor 10Jahren können nicht so viel fressen.

Da stimmt vermutlich etwas mit Deinem Monitor nicht, vor 10 Jahren habe ich keine derartigen Raumstationen in Spielen gesehen. Vielleicht vor 2 oder 3 Jahren. Besonders wenn man sehr dicht ran fliegt sieht man erstaunlich viele Details, besonders in UHD Auflösung. Aus der Entfernung mag das aufgrund des LoD Systems manchmal verbesserungsfähig aussehen.
Aber ich will auch nicht abstreiten, daß noch eine Menge Optimierungsbedarf besteht (besonders bei den Planetenoberflächen). Es handelt sich bei Frontier immerhin nicht um einen Entwickler, der einfach mal dreistellige Millionenbeträge verpulvern kann, damit gleich alles perfekt läuft. Es wird nach wie vor daran gearbeitet.
 
h00bi schrieb:
Da ist aber die Frage was stört mehr: Pixeltreppchen oder ein 800€ Loch im Geldbeutel?
Wie schon bei klassischen Games ist Grafik nicht alles, sondern Spielspaß ist das wichtigste. Wenn das Game und die VR Welt gut ist, schaut doch niemand auf Pixeltreppchen.
Doch. Denn die werden gerade in VR noch auffälliger und störender sein.

Aliasing ist eben auch nicht konsistent. Es flimmert und variiert vor allem zwischen verschiedenen Blickwinkeln.
Das rechte Auge sieht anderes Aliasing als das linke. Dadurch kommt es an Polygonkanten dann zu richtig störenden Artefakten ... fällt bereits bei stereoskopischem 3D auf.

Gerade für VR sollte man Aliasing möglichst vermeiden und dafür lieber eine etwas weniger realistische Beleuchtung und weniger Polygone hinnehmen.
 
Na da bin ich ja gut aufgestellt (Xeon 1231v3 & FuryX). Muss ich mich nur dazu durchringen mehr für die Brille auszugeben als für die GPU. Naja mal schauen, was bis Sommer noch so ist.
 
Kurze Laienfrage in die Runde. Wenn ich das richtig verstanden habe, sobald nicht genug Leistung anliegt, switchen die Brillen von 90Hz auf 45Hz runter? Gab es denn keine Möglichkeit Zwischenstufen einzubauen wie 72Hz oder dergleichen? Welchen Sinn macht es, so hart zwischen Alles-Tuti und Gleich-kotzt-Du zu unterscheiden? Im normalen Umfeld habe ich doch auch in der Regel eine Handvoll Optionen, um alles auf ein angenehmes Erlebnis einzustellen, ohne gleich von High-End Grafik in die Steinzeit switchen zu müssen?
 
tomasvittek schrieb:
1-2 jahre warten. neue high end GPU kaufen

Das wird wohl nicht funktionieren. Denn in 1-2 Jahren haben die Spiele wieder höhere Anforderungen. Dadurch bleibst du, wie immer schon, dazu gezwungen absolute Highend / Enthusiasten Ware zu Mondpreisen zu kaufen. Daher bleibt VR auch in der Enthusiastenklitsche hängen und wird die breite Masse nur in Form von abgespeckten Nichtskönnerablegern (PS4) erreichen. Das wird dann vom Erlebnis her wie ein schlechter Abklatsch wirken. Und das Interesse erlischt wieder (wie in den 90ern).
 
@Phoeni

Naja, die laufen eben mit festen 90Hz. Und sobald ein Frame nicht in 11,1ms gerendert werden kann, kommt die nächste Möglichkeit des Anzeigens erst wieder in 22,2ms. Die Bildrate halbiert sich somit.
Ist wie bei jedem anderen Monitor auch.

Deshalb gibt es ja nun seit einiger Zeit GSync und Freesync.
Diese Techniken erlauben es dem Monitor, einen Frame auszugeben, wenn er fertig ist, ohne auf den nächsten Anzeige-Zyklus warten zu müssen.

Frage mich allerdings auch, warum diese Techniken in den VR-Headsets keine Verwendung finden.
 
Fiji (Radeon R9 Fury X) schneidet dabei noch schlechter ab als Hawaii (Radeon R9 290 / 390X).
Wow, mal wieder beeindruckend was die Fury X hier abliefert. :rolleyes:

ps4 VR in 200 jahren nicht wen selbst eine 980ti grade so reicht für games von 2015
Zumindest wäre es ein ausgewachsenes Wunder, wenn die es schaffen das den Leuten nicht schlecht wird. Denn genau das ist mit aktuellen GPUs nicht möglich. Die 90FPS müssen immer gehalten werden. Da fehlt uns massiv Rohleistung, einzig SLI/CF könnte hier mal sinnvoll werden. Aber dafür braucht es massive Anstrengungen in Sachen Support und der wird nicht kommen. SLI/CF wird auf absehbare Zeit Nische bleiben. Da wird nicht viel Geld rein gepumpt werden.


Was machen jetzt die Leute die behaupten mehr als die "cineastischen" 30 fps kann man sowieso nicht wahrnehmen?
Zum Aldi fahren und einen Wagenladung Kotzkübel besorgen. :D
 
Zuletzt bearbeitet:
Zurück
Oben