News Virtual Reality: Nvidia führt „VR Ready“-Siegel ein

Cheetah1337 schrieb:
... wird so wie 3D an mir vorbeigehen ...

Als ich die Überschrift gelesen habe dachte ich das Gleiche....

Es wird ein Nischenprodukt für Nerds bleiben. Ist wie mit 3D, mittlerweile schaut kaum noch einer meiner Freunde oder Kollegen im Büro 3D Filme zuhause. Am Anfang war ja alles so klasse und nun liegen die 3D Brillen in der Schublade da sie doch beim schauen sehr nerven.
 
Das klingt alles außerordentlich Interessant, bin gespannt wie sich das ganze entwickelt, 20 Jahren gibt es dann genug Leistung für ne eigenständige virtuelle Fantasy Welt, in der sich die Quest selbst generieren.
Auch träum
 
Otsy schrieb:
Ergeht mir ebenso. Weder das Eine noch das Andere juckt mich in der aktuellen Form auch nur im Geringsten.

Dass es aber einen (verhältnismäßig) großen Markt dafür gibt kann ich mir schon vorstellen.

Für welche Spiele die 970 in der VR ausreichen soll, darauf bin ich mal gespannt. Und vor Allem wie die dann aussehen werden.

Nicht jedes Spiel ist ein AAA Grafikkracher! In Fakt die meisten sind es nicht.
Für games ala Telltale, Indie Games, Horror Games, Weltraumsims usw reicht es aus man wird halt nicht jedes neue AAA Grafikbrett zocken können. Aber das wäre für mich z.b. überhaupt kein Verlust, ich habe sogar von einer 970 auf eine 750TI downgegradet weil die für alles was ich zocke in Full HD und High Details ausreichend ist also games ala Fallout, Elder Scrolls, Witcher, GTA usw...
Dinge wie Ryze, Crysis (Außer der erste Teil bis zu den Aliens!),Battlefield usw interessieren mich z.b. überhaupt nicht und es gibt genug denen es ähnlich geht. Für alles andere braucht man keine High End Hardware, es reicht low Midrange aus der vorigen Gen und VR wird dann vermutlich mit einer 970er auskommen wenn man nicht alles auf Ultra (sondern einen Regler davor) stellen muss und oben genannte games nicht zocken muss bei release (oder überhaupt nicht!).

Mir fällt auf Anhieb jetzt nicht ein Game ein wo meine 750TI in 1080p zu schwach wäre es in schönen Details darzustellen. Und selbst eine 750TI ist für den Massenmarkt schon das gehobene Segment, da sprechen wir von Leuten mit Notebooks die meistens die Intel HD4xxx nutzen!
 
Bei manchen Spielen schaffst du nichtmal mit ner 980Ti 1080p@ 60FPS ka wie man da 1.680 × 1.512 @ 90 FPS befeuern soll, aber mit ner GTX970 ganz bestimmt nicht.
 
Der gleiche Quark wie GameWorks. Nvidia tut wirklich alles dafür ihren proprietären Müll unters Volk zu bringen.
 
terraconz schrieb:
[...] ich habe sogar von einer 970 auf eine 750TI downgegradet weil die für alles was ich zocke in Full HD und High Details ausreichend ist also games ala Fallout, Elder Scrolls, Witcher, GTA usw... [...]

Welche Framerate erreichst du denn bei welchen Einstellungen genau mit deiner 750ti unter 1920x1080 in beispielsweise The Witcher III?

Selbst für Titel mit moderaten Anforderungen, die tatsächlich von VR profitieren würden (also keine Wii-Verschnitte), dürfte die 970 grenzwertig laufen (in der VR natürlich).
 
Naja. Davon halte ich sowieso nicht viel. Das ist wie mit diesen THX Audio Gedöns oder der deutsche Lebensmittelpreis. Wahrscheinlich dürfen Hersteller noch Gebühren an NVidia abdrücken. Somit werden die ohnehin überteuerten fertig-PCs noch teurer. :D Meine Canton GLE klingen auch ohne THX Logo gut. ;)

Ist ja fein gedacht. So sehe ich, dass mein PC gerüstet ist. Aber in 1-2 Jahren ist das sowieso für die Tonne.
Spätestens wenn AMD Polaris vorstellt. :D

Man merkt NVidia wird langsam zu groß und das wird bald schief gehen. Wird Zeit sich short Aktien zu kaufen.
 
Zuletzt bearbeitet:
Das ist ja mal ein geiles Siegel. Hardware die bereits jetzt zu schwach für die meisten Techdemos ist.
Geschweige denn für echtes gaming, also z.B. Cockpittitel wie SC. Oder Panzer fahren etc pp...
 
Ich persönlich wollte halt auch bei witcher 3 nicht so runterstellen und hab es in fullhd mit Texturen max schatten mittel und der rest so gut wie alles auf hoch hoch gezockt. Und Hairworks war natürlich aus.

Naja es war etwas anstrengend ich habe es aber in den Settings mit ner Radeon 5850 durchgespielt. Da braucht man schon gute Nerven das kannst du mir glauben. Aber ich wollte halt wenig Kompromisse eingehen.
 
Flatan schrieb:
Der gleiche Quark wie GameWorks. Nvidia tut wirklich alles dafür ihren proprietären Müll unters Volk zu bringen.

Laber nich. Das Siegel ist nur für nvidia Grafikkarten damit kein Dau VR mit einer GTX 750 versucht.
 
Otsy schrieb:
Welche Framerate erreichst du denn bei welchen Einstellungen genau mit deiner 750ti unter 1920x1080 in beispielsweise The Witcher III?

Selbst für Titel mit moderaten Anforderungen, die tatsächlich von VR profitieren würden (also keine Wii-Verschnitte), dürfte die 970 grenzwertig laufen (in der VR natürlich).
Auf 1920x1200 komm' ich fast durchgehend auf 30fps auf hohen Details (ohne Hairworks). Hab Adaptive Vsync auf 30fps an. Grundsätzlich ist eine gute Faustregel, dass man eine leicht bessere Performance hat als die Konsolen. Was absolut ausreichend für mich persönlich ist.

Die meisten machen die Annahme, dass VR einfach die jetzigen Spiele mit jetzigen Detaillevel bloß mit Oculus/Vive sind. Dann kommt man natürlich nicht mit einer 970 hin. Siehe Elite: Dangerous. Das hat sehr moderate Anforderungen für normale Ausgabe und für VR wird eine 980GTX und i7 verlangt. Aber nach persönlicher Erfahrung würde ich ein Spiel wie Elite auf super niedrigen Details in VR der Version auf Ultra auf einem Monitor jedesmal vorziehen.
 
Wie wäre es mit "Hat kein GTX VR-Ready Siegel mit ne 3x stärkere AMD Karte, ich kauf mir die mit der 3x schwächeren Nvidia Karte, wegen des Siegels". Klar, wird nie so kommen. Aber wie du gesagt hast, allemal besser als sich ne nochmals 3x schwächere Karte zu holen die für VR nicht geeignet ist. Und später wird man nur so von Siegeln überrannt, dass man als stinknormaler Kunde wieder nicht zurechtfindet und man schlussendlich doch bloss nach den Namen, und somit Nvidia kauft. :D
Alles nur so ausm Po gezogen, das wird schon nicht so extrem sein. Nicht ernst nehmen, danke.

Aber jetzt mal etwas ernster hier:
VR-Ready hört sich erst mal billig an, wenn ne olle 970 die Vorraussetzung sein soll. Das macht man allerhöchstens noch so, damit man noch paar weitere Kunden melken kann mit Karten die von heute an nach ein halbes Jahr (14/16nm in der Pipeline) obsolet werden. Die 970 kann dann vielleicht mit paar Demos umgehen und später dann mit nichts? Beziehungsweise es reicht vielleicht mit low settings und macht schnell keinen Spass, weil die Auflösung zusammen mit FPS, was da so verlangt wird, einfach zu viel ist (zumindest für aktuelle Spiele. Es wird sicherlich ausreichend Spiele geben die keiner interessiert, jedoch auch mit ne olle Kartoffel laufbar wäre, sprich so Indiespiele und so)... Wie kann man das noch nennen... Early Adopter vielleicht? Ja, vielleicht... Viel interessanter wäre es wohl mit 2x980Ti die jeweils ein Auge berechnen. Damit kommt man vielleicht noch wo hin und wäre als Mindestvoraussetzung so nicht übel.
Irgendwie widerspricht sich Nvidia selbst mit "DIE PCS BRAUCHEN 7X MEHR LEISTUNG. Aber ne 970 reicht auch schon..."
 
Zuletzt bearbeitet:
Flatan schrieb:
Der gleiche Quark wie GameWorks. Nvidia tut wirklich alles dafür ihren proprietären Müll unters Volk zu bringen.

Ob sie damit auf dauer gut mit fahren werden wir sehen,
die 570 schließt für mich das Kapitel Nvidia ab.
 
Cool Master schrieb:
Hab schon bei LinusTechTips daüber was gehört und habe mich auch da gefragt warum man 7x mal Leistung benötigt? Im Prinzip ist es ja einfach nur zwei mal die "gleiche" Ausagbe mit einem etwas verschobenem PoV oder wird da wirklich für jedes Auge etwas gerendert?

Es ist nicht so als würde einfach nur der "2D" Bildschirmauschnitt verschoben sondern der "3D" PoV, daher wird es nicht ohne weiteres möglich sein dies ohne ein weiteres Rendering des Frames zu erreichen. Ich denke, dass es in Zukunft Optimierungen in den Engines geben wird, welche ray/path tracing für VR PoVs zusammenfassen können und somit Berechnungen einsparen.
 
Na ja, bei weiter entfernten Objekten könnte man sich die doppelte Berechnung eigentlich zum Großteil sparen und das Bild verschieben, fragt sich nur, ob das auffällt. Ebenso könnte man mit einem geometry shader in beide render targets (eins für links und eins für rechts) die gleiche Geometrie rendern und würde sich so doppelte Berechnungen im vertex shader sparen. Somit bräuchte man nicht die doppelte Leistung für beide Bilder, sondern nur die 1,7-fache oder so.
 
1,7 ist momentan etwa das was 3D Vision so verbrät wenn es die Bilder voll berechnet. vermutlich wird da also schon ein teil wiederverwertet. Das mit den Bilder verschieben ist halt so ne Sache, für weit entferntes könnte es klappen das man es nicht merkt, aber ist die Frage wie aufwändig es ist das so zu trennen und ob man dann schlussendlich noch einen Vorteil hat. Bei nahen Objekten erzeugt es wie gesagt einen unschönen Halo um das Objekt da Bildausschnitte die sich dahinter befinden schlichtweg fehlen.
 
Also ganz so dramatisch sehe ich das Problem irgendwie nicht. Ich habe jetzt schon auf meinem stink normalen 2D Monitor die Anforderung an meine Spiele dreistellige Frameraten in UHD Auflösung zu erreichen und das klappt sogar mit meiner "alten" GTX 780 in Spielen wie Battlefield wunderbar.

Für VR muss die CPU vielleicht noch ein paar zusätzliche Berechnungen anstellen, aber von der Grafiklast her sollte das nicht ganz so dramatisch sein wie nVidia das hier darstellt. Man muss ja auch nicht alles immer in bester Crysis-Qualität spielen.
 
Und ne AMD CPU kommt natürlich nicht in Frage?
Artikel schrieb:
auf einer VR-Brille hingegen bei 1.680 × 1.512 Bildpunkten pro Auge und 90 Bildern pro Sekunde. Insbesondere letztere Anforderung dient der Vorbeugung von Übelkeit.
Und um das in wirklich möglichst konstant in möglichst jedem Spiel zu erreichen, braucht es eben einen möglichst hoch taktenden Intel-Quadcore. Alles andere wäre quasi gesundheitsschädlich.

Bei AMD ist man von 90 FPS in der Regel weit entfernt und hat zudem ständig heftige FPS-Drops. Da merkt man vielleicht nicht viel von, wenn man ganz normal am PC spielt und nichts anderes gewohnt ist, aber die, die auf Intel gewechselt sind, sagen das immer, also wird es wohl stimmen.
 
Zuletzt bearbeitet:
Zurück
Oben