News Alex Vlachos von Valve: „Jedes VR-Spiel sollte Multi-GPU unterstützen“

Ewig hingen wir Spielqualitätsmäßig in Höhe von XBox360 und PS3 rum, auch die neueren Spiele danach sahen kaum besser aus als Crysis 1, aber schluckten erheblich mehr Power.

Mit VR ist es "endlich" wieder notwendig, neuere Hardware zu entwickeln und zu verkaufen. ;) Ich hab zwar ne OR DK2, aber "richtig" einsteigen werd ich wohl erst bei mindestens 1920*1080 pro Auge.
 
Sorry, aber Dual GPU ist der falsche Ansatz. Vielmehr wird es VR-GPUs geben, aber frühestens in 5-10 jahren .
 
Weil es zwar für jedes Auge ein Bild gibt, es letztendlich aber vom Gehirn zu einem 16:9-Bild zusammengesetzt wird. Pro Auge und damit insgesamt werden aber mehr Details sichtbar.

Frühere HMD's bzw. VR-Brillen hatten/haben für jedes Auge einen eigenen Bildschirm. Ich hatte einen emagin Z800, der hatte pro Auge 800*600 Bildpunkte.

Es wie bei 3D-Fernsehern, bei den Passiven hat man pro Auge nur die Hälfte der Auflösung (und fürs Gehirn damit auch), weil nur die Hälfte des Bildschirmes benutzt wird, bei Shutterbrillen hat jedes Auge die volle Auflösung/alle Details, da dort abwechselnd der volle Bildschirm benutzt wird.

Sieht man wunderbar an der Schrift in Spielen, bei 2 * FullHD gehen keine Details verloren, bei OR und HTC leider schon. Mit 2*1920*1080 hätte man eine bessere Sichtbreite, und nicht nur son "Kugelausschnitt" wie beim Rift.

Das Teil hier sollte beispielsweise 2*FullHD haben:

http://www.siliconmicrodisplay.com/st1080.html

siehe auch hier:

http://www.golem.de/news/silicon-micro-display-videobrille-mit-full-hd-1203-90650.html
 
Zuletzt bearbeitet:
Genau die richtige Lösung. Ich benutze schon seit der Diamond Monster 2 SLI.
Jeder der bisher in hohen Auflösungen mit max Details zocken wollte, benötigte ein SLI/Crossfire System.
Jetzt betrifft das auch eben VR, bis es Karten gibt, die die aktuelle VR Auflösung auch alleine spielend schaffen.

Bis dahin gibt es dann aber VR 2.0 was wieder eine höhere Auflösung hat und nach mehr Grafikpower verlangt. :)
Mich freut es, wenn meine Vive kommt und meine 2 Karten dann bald voll gefordert werden.
 
Tja, das ist ja theoretisch alles schön und fein, aber wenn sich die üblichen Verdächtigen (Ubiosoft, WB, etc.) nicht daran halten (weil es zu viel Aufwand, Kosten, etc,. verursacht oder man im Gegensatz zur Konkurrenz nicht fähig ist) und im VR Bereich genauso Ressourcen verschwendend wie bei normalen PC Spielen programmiert wird, dann wird man die hier dargelegten guten Vorsätze/Möglichkeiten zur Optimierung vergessen können und als Konsument wohl immer tief in die Tasche greifen müssen .... ich traue dem Braten daher noch nicht so ganz, erzählen kann man viel, aber was dann tatsächlich Anwendung finden wird, bleibt abzuwarten.

Das spielt natürlich alles nVidia und AMD in die Hände noch Hunderte bis Tausende für VR regelmäßig in PC Aufrüstung (GPUs und VR Brillen) zu stecken um als PCVR Spieler aktuell zu bleiben, aber einen Multi-GPU Aufrüstwahn (damit sich beide Unternehmen und die daran hängende Industrie gesund stoßen) werde ich gewiss nicht mitfinanzieren. Wenn das so kommen sollte, kann mir VR auf dem PC für ein Bisschen bessere Auflösung (aber bestimmt nicht unbedingt mehr Spielspaß) gestohlen bleiben und ich bin lieber langfristig/langlebiger mit etwas weniger aber bezahlbarer Leistung per Playstation 4, 5, etc. oder hoffentlich anderer Konsolenkonkurrenz unterwegs.

Das dürften auch die meisten anderen so sehen, die keine Enthusiastenkarten spätestens alle 2 Jahre kaufen und bisher auf dem PC eher in Ober- oder Mittelklasse-GPUs anlegen, denn da müsste ein großer Mehrwert von PCVR gegenüber PSVR momentan gegeben sein und den sehe ich bisher nicht (oder aber Geld keine Rolle für das "Hobby" spielen oder man ein PCVR (HTC Vive oder Oculus Rift) Fan sein das ist natürlich auch denkbar). Jedem wie es ihm eben gefällt, aber auf diese Marketingsprüche was denn möglich sei falle ich nicht herein, bevor ich nicht preislich gerechtfertigte Umsetzung/Anwendung bzw. Vorteile in Spielen sehe.

Der PC wird im Bereich VR-Spiele als Plattform m.E. kaum Vorteile gegenüber einer optimierten Konsole bieten (außerhalb von Spielen sieht das schon anders aus und wer VR professionell nutzt, für den sind die Überlegungen sicherlich andere, auch wenn dann evt. wieder AR die bessere Variante sein könnte), insbesondere, wenn die großen Entwicklerstudios (Ubisoft, EA, Activision-Blizzard, Sony, WB, Square Enix, etc.) für den Massenmarkt (also die PSVR) Spiele primär entwickeln werden und diese dann auf die PC VR Brillen mehr oder weniger gut portiert/aufgebrezelt werden.
 
Zuletzt bearbeitet:
Spiele sollten Qualität an Hardware anpassen x) Dann hiffentlich nicht wie Grid das mit aktuellen Karten nur Miniauflösungen anbietet ;)
 
Chismon schrieb:
Tja, das ist ja theoretisch alles schön und fein, aber wenn sich die üblichen Verdächtigen (Ubiosoft, WB, etc.) nicht daran halten
Dann werden die "üblichen Verdächtigen" eben keine Rolle in VR spielen. Wäre ja nicht das erste Mal, dass eingesessene Konzerne einen Technologieumschwung verschlafen und stattdessen von neuen Startups abgelöst werden. Man schaue nur mal auf Mobile Gaming.
 
Hmm.. Ich hab noch keinen Beitrag vom Zeter-Kobold hier im Thread gesehen. Komisch, dabei werden doch sonst direkt Propaganda-Vorwürfe gegen den Redakteur laut :p

m.Kobold schrieb:
Im Test und im Fazit kein einziges Wort über Asynchronous Time Warp von Oculus... statt dessen wird so ne Propaganda zeugs von wegen 1:1 gelabert, wirklich lächerlich.

Hoffentlich wird dann jetzt auch einigen hier klarer, dass ATW auf gar keinen Fall ein Wundermittel zum Performanceboost ist, sondern höchstens dazu geeigenet, einzelne kritische Frames abzufangen:
News schrieb:
Bereits im März 2015 sprach Oculus deshalb lediglich von einem Sicherheitsnetz, das gegenüber dem Auslassen einzelner Bilder nicht einmal für eine bessere Wahrnehmung sorgen muss. Und von alten GPUs auch nicht unterstützt wird.
Der Ansicht schloss sich Vlachos zur GDC an.

ATW wurde im anderen Thread ja noch vor wenigen Tagen teilweise zum Killerfeature gegen Performanceprobleme aller Art hochstilisiert :freak:
 
Zuletzt bearbeitet:
@DrToxic:

2015 konnte ATW auch nur auf die Rotation angewendet werden. Mit der CV1 geht das auch mit Positional Tracking.

Und anscheinend hat es ja seinen Nutzen. Oculus hat da was gutes gemacht und Valve hat es aufgenommen - ich hab damit kein Problem.
 
Andy_O schrieb:
Genau die richtige Lösung. Ich benutze schon seit der Diamond Monster 2 SLI.
Jeder der bisher in hohen Auflösungen mit max Details zocken wollte, benötigte ein SLI/Crossfire System.
Jetzt betrifft das auch eben VR, bis es Karten gibt, die die aktuelle VR Auflösung auch alleine spielend schaffen.

Bis dahin gibt es dann aber VR 2.0 was wieder eine höhere Auflösung hat und nach mehr Grafikpower verlangt. :)
Mich freut es, wenn meine Vive kommt und meine 2 Karten dann bald voll gefordert werden.
Ich ahb genug Spiele auf max auch mit einer HD6970 lange zocken können. Bin nur umgestiegen weil ich viel in 3D zocke.
Ich glaub kaum das Deine Karten so schnell ausgelastet werden, laut den Artikeln hier nutzt kaum ein aktuell in der Entwicklung befindendes Spiel MultiGPU. Und ich kann Dir sagen in 2D ist ab und zu geflacker vom nichtoptimierten Treiber erträglich in 3d nicht, daher wird ein Erzwingen in wenigen Spielen Sinn machen.
 
Guest83 schrieb:
Dann werden die "üblichen Verdächtigen" eben keine Rolle in VR spielen. Wäre ja nicht das erste Mal, dass eingesessene Konzerne einen Technologieumschwung verschlafen und stattdessen von neuen Startups abgelöst werden. Man schaue nur mal auf Mobile Gaming.

Dass wird man eben am besten abwarten wollen, zumindest werde ich mir die Entwicklung anschauen. Es wäre ja nicht das erste Mal, dass man die vorhandenen Ressourcen nicht ausnutzt und dass sich die großen Publisher (spätestens wenn VR sich per PSVR im Massenmarkt durchsetzen sollte) den Kuchen bzw. die zusätzlichen Einnahmen und Marktanteile entgehen lassen werden, halte ich für unwahrscheinlich. Eventuell werden dann auch Stück für Stück jetzige VR Entwicklerstudios von den großen Publishern einverleibt (nicht unbedingt wünschenswert, weil oft die Kreativität/Innovation damit auf dem Strecke bleibt), aber warten wir's ab.

Ubisoft war ja bei der AMD Präsentation auf der GDC schon ziemlich präsent und ich denke EA/Dice, Square Enix und andere GDC Mitwirkende sind neben Sony etwa da mittlerweile auch schon hellhörig oder entwickeln gar schon insgeheim.
 
pixelfehler1996 schrieb:
Hmm... Also alles noch in den Kinderschuhen... Ich geb dem ganzen noch 5 Jahre, bis ich es nutze.

Justinjl schrieb:
In einem jahr gönne ich es mir vlt. Wenn die kinderkrankheiten beseitigt sind

SKu schrieb:
Schöne Entwicklung, nur leider noch weiter weg vom Massenmarkt als ohnehin schon.

Ihr drei seit echt typisch für die neue Spezies der VR Meckerfritzen. Eure Erkenntnisse haben andere vor euch schon tausendfach in diesem Forum gepostet. Ihr könnt euch sicher sein das wir eure Geschichten bereits gelesen haben. Ihr braucht sie nicht bis zum Ende aller Zeiten reflexartig unter jeden VR Artikel stumpf wiederholen.

Euphoria schrieb:
Na toll noch mehr Stromverbrauch und Abwärme. Es hat schon Gründe warum Multi GPU Systeme eine Nische waren.
Ich sehe das größere Problem, dass sich in letzten Jahren keiner mehr Gedanken um Optimierung gemacht hat. Es wird immer davon ausgegangen, dass die Rechner genug Leistung haben.
Vor paar Jahren konnte man mit 4GB noch alles problemlos nutzen und heute lastet ein lausiger Browser den RAM und teils CPU aus. Bei Spielen ist es auch nicht anders, lausige Spiele mit grausamer Grafik lasten teils High End Systeme aus.

Inwiefern wurde denn nicht optimiert? Selbst eine mittlerweile 2 1/2 Jahre alte R9 290 rendert die gleichen Spiele in etwas höherer Auflösung und besserer Optik mit doppelt so viel Frames wie eine Konsole. Das diese Karte dafür in etwa die vierfache Leistung wie die APU einer Playstation benötigt, sollte logisch sein.

Das soll jetzt kein Konsolen Bashing sein sondern ist ein Hinweis darauf das selbst auf angeblich so gut optimierte Systeme wie Spielekonsolen nur mit Wasser gekocht wird. Demzufolge ist für bessere Optik und FPS auch bessere Hardware nötig ;)

Ergo lässt sich meistens gar nicht so viel "optimieren" wie so manch einer glaubt.

BTW nimm doch einfach einen anderen Browser wenn deiner zu viel RAM schluckt und Flash Ads und Java Script die CPU zum schwitzen bringen.

[
 
@tek9
Worauf ich hinaus will war nicht, dass die Hardware doof ist, sondern dass die Software oftmals hinterher hinkt.
Statt die Software zu optimieren, wird einfach pauschal gesagt "wir brauchen einfach doppelte Leistung"

Während Programmierer früher auf Effizienz achten mussten, wird es heute nicht mehr gemacht. Das sieht man auch bei mobilen Geräten, immer mehr Kerne, immer mehr Takt, obwohl man mit Optimierung Akkulaufzeit und Speicherverbrauch optimieren könnte.

Das Problem zieht sich durch alle Bereiche und das finde ich nicht schön. Statt auch Software zu optimieren, wird einfach immer mehr Leistung geschaffen, was ja schön ist, aber es wird auch viel Leistung und auch Strom verschwendet.
 
News schrieb:
Für Vlachos ist das ein Versäumnis, das nachgeholt werden sollte. Ziel sei es dabei allerdings nicht, Spiele überhaupt erst lauffähig zu machen, vielmehr sollte die Mehrleistung dazu genutzt werden, die Darstellungsqualität gegenüber leistungsschwächeren Rechnern zu erhöhen.

Irgentwie erinnert mich das an AMD und ihre FX CPU's. Hätten schon damals alle Spiele mehr kerne nutzen können, hätte es für den FX auch wesentlich besser ausgesehen. Nur hat man das damals auch ein "Versäumnis" von seiten der Entwickler genannt und trotzdem ist da nicht sooo schnell was passiert. Mit den GPU's sieht das im grunde ganz ähnlich aus, die Entwickler wirken da auf mich immer ein bischen träge.
 
Das wirkliche Problem ist das Postprocessing, das sich je nachdem auf den Vorgängerframe bezieht. Hier gibt es aktuell mit den traditionellen Engines dann Probleme. Diese kann man unter 2D meist nicht wahrnehmen, aber in 3D stimmt dann die Positionierung nicht mehr. Das ist dann schlimmer als Latenz. Witcher 1 z.b. hat bei Wasserspiegelungen getrickst um Performance zu sparen, das ist selbst mit SingleGPU in 3D furchtbar, da helfen auch 90 fps nichts. Ich denke da müssen einige Entwickler noch umdenken und dazulernen. VR stellt einige Anforderungen außer FPS die es vorher nicht gab, wird auf jeden Fall spannend zu sehen wie schnell das dann geht und welche Tricks noch erfunden werden.
 
surtic schrieb:
Meine Radeon HD7970 hatte ich seit Februar 12 bis November 15 und musste Sie nur ersetzten weil sie den Geist aufgieb und nicht wegen der Performance.
Ähnlich bei mir, meine GTX570 hat auch sehr tapfer durchgehalten, bevor ich mir die R290 kaufte. Man muss nur lernen, intelligent die Grafiksettings je nach Spiel anzupassen, um auch neue Spiele auf alten Karten mit vertretbaren fps u. akzeptabler Grafik zocken zu können. So ist das auch mit vr. Wenn einem die fps nicht gefallen, schraubt man einfach Auflösung u./o. Grafikdetails runter. Ich werde warten, bis ne VR-Brille mit controllern u. headtracking u. 4k Auflösung für 400-500 Mücken erhältlch ist.
 
Ein guter versuch mit Multi gpu
 
Zuletzt bearbeitet:
pilzbefall schrieb:
Ähnlich bei mir, meine GTX570 hat auch sehr tapfer durchgehalten, bevor ich mir die R290 kaufte. Man muss nur lernen, intelligent die Grafiksettings je nach Spiel anzupassen, um auch neue Spiele auf alten Karten mit vertretbaren fps u. akzeptabler Grafik zocken zu können. So ist das auch mit vr. Wenn einem die fps nicht gefallen, schraubt man einfach Auflösung u./o. Grafikdetails runter. Ich werde warten, bis ne VR-Brille mit controllern u. headtracking u. 4k Auflösung für 400-500 Mücken erhältlch ist.
Wenig Geld für 4k und dann alles auf low stellen? Am besten noch 4k pro Auge? Und dann wirst Du noch merken das die FPS weder fürs Headtracking noch fürs Vsync irrelevant sind. Installier mal Tridef und zock was mit wenig fps ohne Vsync in 3D dann merkst Du schnell wie Deine Wünsche von der Realität abweichen.
 
Also die Spielerrei mit den VR Brillen hat einen gehörigen Satz nach vorn gemacht. Einzig negativ fällt mir persönlich noch die benutzung von komplexeren Eingabegeräten auf (wie zum Beispiel einem Verbund aus Tastatur, Joystick und Schubregler...die muss man dann ja quasi Blind bedienen. Für mich aber alles deutlich besser als jegliches "3D".
 
Zurück
Oben