News Nvidia Maxwell: Mehr Leistung in VR-Spielen durch weniger Rendern

Chismon schrieb:
Ja, mir geht diese nVidia Politik, nur noch auf Maxwell (2) zu setzen, gehörig auf den Senkel, als ob die etwas älteren Kepler Produkte es schon nicht mehr Wert seien und es nicht verdeint hätten (von wegen nicht leistungsfähig genug) auch für VR optimiert zu werden, ich hoffe da werden viele potentielle Kunden in Zukunft nVidia einen Denkzettel (Absage) verpassen. Anscheinend glauben Huang und Konsorten, dass ihnen schon der gesamte GPU Markt gehört, aber noch ist nicht aller Tage Abend.


Das ganze zeigt doch auch, wie der Markt aussehen würde, wenn es nur noch NVidia gäbe. Das NV dann die Vorgänger-Generation beim erscheinen einer neuen Generation wohl nicht mehr vollkommen supported bzw. nur noch unter Druck, wobei dass mit dem Druck dann fraglich ist. Siehe The Witcher 3/PCars und Keppler bei den Treibern.


@ Topic:
Ich persönlich halte gar nichts davon, dass jeder sein eigenes VR Süppchen kochen will. Dadurch ist man einfach zu Abhängig von einem Hersteller.
Und was den technische Ansatz angeht: es ist zwar recht clever gelöst, aber was ist, wenn ich mein Auge in den Bereich verschiebe, in dem das Bild weniger hochauflösend berechnet wird, ohne meinen Kopf zu bewegen, dann dürfte ich ja unscharfe Außenbereiche des Bildes haben?
 
liquid crystal display display - und das von einem Grafikkartenhersteller :freak:
 
Toll, durch die properitäre Softwarelösung wird die PC Gaming Community noch einmal gespalten. Nicht dass VR für sich allein schon einen schweren Stand hätte, jetzt setzt man hier nochmal einen drauf.

Vermutlich gibts nächstes Jahr das Update für GameWorks, natürlich für Pascal exklusiv. Maxwell gehört ja dann schon zum alten Eisen. :)
 
Chismon schrieb:
Ja, mir geht diese nVidia Politik, nur noch auf Maxwell (2) zu setzen, gehörig auf den Senkel, als ob die etwas älteren Kepler Produkte es schon nicht mehr Wert seien und es nicht verdeint hätten (von wegen nicht leistungsfähig genug) auch für VR optimiert zu werden, ich hoffe da werden viele potentielle Kunden in Zukunft nVidia einen Denkzettel (Absage) verpassen. Anscheinend glauben Huang und Konsorten, dass ihnen schon der gesamte GPU Markt gehört, aber noch ist nicht aller Tage Abend.

Genauso sehe ich das auch. Ich drücke AMD die Daumen für die kommenden Karten damit ich auch gute Leistung für mein Geld bekomme. Ich WILL als nächstes wieder eine AMD Grafikkarte allein schon um die ganze Politik nicht zu unterstützen. Gameworks geht mir immer mehr auf die Nerven und entwickelt sich zu einem richtigen Feindbild bei mir- OBWOHL ich eine GTX 680 habe!
 
Bei Multi-Res Shading wird das Bild in neun verschiedene Bereiche geteilt, die separat gerendert werden. Jeder Bereich weist eine eigene Größe auf, je nachdem, welche Auflösung für den darzustellenden Bereich notwendig ist.
Ja. Das was AMD bei Splitframe-Rendering (SFR) macht unter Mantle. Alter Hut und schon lange unter DX12 für alle nutzbar mit GCN und Maxwell 2.0. Ohne Mixed Compute/Render Threads eben nicht machbar. Nvidias Technik bleibt daher eben nur den Maxwwell 2.0 vorbehalten, doch darauf ist ja GameworX sowieso ausgelegt, von daher konsequenter Weg den Nvidia da eindeutig weiter geht. Wer das mag, kauft sich sicher diese besser vermarktete, doch kaum neue, propriätere Technik.
 
johnieboy schrieb:
Na dann hoffe ich dass das eine Totgeburt wird und sich nicht am Markt durchsetzen wird.

Proprietärer Dreck ist und bleibt Dreck!

Open Standards FTW

Ganz genau. Das ist mal wieder ein typischer nVidia-Schachzug:
Proprietär, kein Zugang für die Konkurrenz - und an der Leistungsfähigkeit der Karten ändert sich eigentlich nichts - sie kosten nur mehr und man braucht eine neue. Stattdessen kann man wieder auswählen was man an Qualität "freiwillig weglassen" kann.

Auf solche "Verbesserungen" kann ich verzichten.
 
Daedal schrieb:
Ja. Das was AMD bei Splitframe-Rendering (SFR) macht unter Mantle. Alter Hut und schon lange unter DX12 für alle nutzbar mit GCN und Maxwell 2.0.
Also ich lese was SFR macht und ich stelle fest, die einzige Gemeinsamkeit ist das aufteilen von einem Bild. Bei der von Nvidia angestrebten Technik wird das ganze dann doch etwas komplexer und zielgerichteter angewandt und hat als Ziel nicht einfach nur Multi-GPU-Systeme. Gerade so zu tun als hätte AMD das erfunden ist schon recht dreist und zeigt wenig Objektivität.
 
PiPaPa schrieb:
Haltlose Behauptung. Ohne Standards wären wir im Jahr 1970 und müssten uns fragen ob alles miteinander kompatibel ist.

...

Wer würde denn noch Kohle in R&D stecken (softwareseitig) wenn er das Ergebnis nicht schützen kann? ^^
Offene Standards sind gut und schön aber nur offene Standards und die R&D Investitionen in diesem Bereich würden sich auf einem Schlag in Luft auflösen da kein incentive mehr da ist.

@topic:
Schön zu wissen das Nvidia auch an VR dran ist aber für mich ist VR frühestens 2020 ein Thema und ausgereift. Bis dahin sollen die early adopter dafür bezahlen das sie meine spätere VR Technik Betatesten dürfen und ich werde dann 2020 rum zuschlagen wenn es läuft und günstig ist.
 
War mir eh klar, als ich die News schon auf anderen Seiten gelesen hatte, dass auf CB die News auch gleich kommen mag. Über LiquidVR hat man bis heute nichts berichtet, aber scheinbar soll NV den Ruf auf CB bekommen, die Karten für VR zu sein.
 
Zuletzt bearbeitet:
Was ist daran jetzt dreist?
Split Frame Rendering (SFR) (mit "Load-Balancing" von ATI als Scissor-Mode bezeichnet) ist ein Render-Modus, der bei Multi-GPU-Verfahren eingesetzt wird.
Sogar S3 GPUs konnten das und nannten es MultiChrome:
http://de.wikipedia.org/wiki/MultiChrome

Das ist ein alter Hut. Wie meistens wenn Nvidia was ganz tolles vorstellt. Es ist eher dreist wenn Leute meinen besseres Marketing hat Vorrang vor technischen Innovationen.
 
@M-X
Nein eigentlich nicht. Mir wäre bisher noch keine sinnvolle VR-Lösung bekannt die mit einer GPU klar kommt.
Erst jetzt durch deinen Hinweis sehe ich, dass hier wohl nicht ganz klar ist ob das auf einer GPU statt findet. Zumidnest ist das für mich nicht eindeutig. Kann das jemand bestätigen mit einer Quelle, dass dies auf einer Single GPU durch Nvidia berechnet wird?
 
Hab mich damit nicht wirklich befasst, aber das würde doch heißen, dass die Hardware Informationen bräuchte wo man denn gerade hinschaut (wirklich mit den Augen und nicht nur durch Kopfbewegung). Dieser Bereich wird dann mit allen Details gerendert und im peripheren Blickfeld wird die Detailstufe reduziert, evtl. auch die Auflösung?
 
Chismon schrieb:
Ja, mir geht diese nVidia Politik, nur noch auf Maxwell (2) zu setzen, gehörig auf den Senkel, als ob die etwas älteren Kepler Produkte es schon nicht mehr Wert seien und es nicht verdeint hätten (von wegen nicht leistungsfähig genug) auch für VR optimiert zu werden, ich hoffe da werden viele potentielle Kunden in Zukunft nVidia einen Denkzettel (Absage) verpassen. Anscheinend glauben Huang und Konsorten, dass ihnen schon der gesamte GPU Markt gehört, aber noch ist nicht aller Tage Abend.

Für mich ist die "Eigenes-Süppchen-Kocherei" jedenfalls, neben dem stark nachlassendem Support für Kepler-Generation Grafikkarten, ein klarer Grund beim nächsten Mal zu AMD zu greifen. Es bliebe zu hoffen, dass AMD den Spieß umdreht und Exklusiv-Allianzen oder proprietäre Lösungen zusammen mit den vielversprechendsten VR Brillen-Herstellern (Oculus, HTC, Sony und Valve) eingeht, dann kann nVidia alles für sich und deren ultratreue Klientel alleine entwickeln oder Marktanteile stark bröckeln sehen. Vielleicht taucht ja ein noch relativ außenstehender Entwickler auf, der eine ähnliche, hoffentlich bessere, Variante allen zugänglich macht, dann wäre nVidias Aktion im nachhinein vergebliche Mühe.

Dann bist du bei AMD aber noch schlechter dran. Dort unterstützt nicht einmal die aktuellste Generation vollständig die neuen Features. (FreeSync, VSR)
 
AMD bearbeitet das Thema schon länger für den Bereich RT- Raytracing. Es gab letztes Jahr im Dezember (Siggraph ASIA) eine Präsentation zu Foveated Raytracing von Takahiro Harada. (Hier findet man das Abstract)
Das Thema spielt für AMD also durchaus auch eine Rolle.

Schon 2013 hat Johan Andersson was dazu auf dem AMD Developer Summit gesagt. Das ist der Typ bei EA/DICE der kürzlich die Fiji geteasert hat und der einer der wichtigsten AMD-Partner für Mantle ergo die ganzen NextGen APIs war.

Ich gehe mal davon aus, dass der kommende VR-Treiber von AMD das auch für Rasterisierung unterstützen wird und dann alle sagen: AMD hat ja nur von Nvidia geklaut.
 
Zuletzt bearbeitet:
Mr.Smith schrieb:
Das ganze ist relativ einfach, keine nVidia Karte kaufen, sondern ne AMD.

Dazu muss AMD mal brauchbare Karten zu einem vernünftigen Preis liefern, so einfach ist das.
 
R9 290X - gibts überall zu kaufen. Definitiv eine brauchbare Karte zu einem vernünftien Preis, zumindest nach den Reviews die man so lesen kann. Das zweite Kriterium mit dem vernünftigen Preis, müsste dir ja demnach jede Nvidia GPU zu einem No-Go machen. Man sieht ja wie schnell selbe Leistung für 300$ weniger verfügbar wird bei Nvidias Titan-Demontage.
 
Zurück
Oben