News DirectX 12: Disput zwischen Oxide und Nvidia geht weiter

Limit schrieb:
Ich persönlich würde es davon abhängig machen, ob es etwas bringt. Bei AMD scheint es auf jeden Fall zu höherer Performance zu führen. Bei der Tesselation-Geschichte lag das etwas anders. Wenn die hohen Tesselation-Stufen einen sichtbaren Vorteil gebracht hätte, wären die beiden Geschichten gut vergleichbar, so wie es im Moment aussieht eher nicht. Natürlich kann sich das noch ändern, wenn mehr DX12-Tests erscheinen.

Wir wissen (bzw. vermuten), dass "Async Compute" bei Nvidia zu Leistungseinbrüchen führt, wenn es auf eine bestimmte Weise genutzt wird.
Wir wissen aber nicht, ob es denn wirklich etwas für das Spiel bringt. Die "Problemlösung" besteht ja nach Aussage des Entwicklers erstmal darin, das Feature auf Nvidia-GPUs schlicht zu deaktivieren und schon sind die Leistungseinbrüche Geschichte bzw. zumindest reduziert.
Ob und welche Nachteile die Deaktivierung von "Async Compute" für das Spielerlebnis hat, wissen wir nicht. Wir wissen auch nicht, ob eine komplette Deaktivierung wirklich nötig ist, oder ob es nicht reichen würde, es für Nvidia etwas anders zu implementieren (z.B. weniger Threads).

Und ich gebe offen zu, ich weiß nicht mal wirklich wofür "Async Compute" gut ist. (Da muss ich mich erst noch einlesen.)

Soll es nur die GPU-Leistung optimieren? Oder vielleicht die CPU entlasten? Wenn ja, dann wäre es ja kein Beinbruch es bei Nvidia wegzulassen, wenn es da einen kontraproduktiven Effekt hat.
Oder kann es wirklich genutzt werden, um grafische Effekte zu realisieren, die ohne nicht (oder nur mit viel Leistungsverlust) möglich wären, ahnlich wie Tessellation. Und wenn das so wäre, ist wie gesagt noch die Frage, ob man es nicht doch auch auf eine "Nvidia-freundliche" Art umsetzen kann.
Für Tessellation wird inzwischen ja auch bei vielen Spielen ein spezieller "AMD-Modus" genutzt, der Rücksicht auf die Beschränkungen der GPUs nimmt und trotzdem ein gutes Ergebins liefert.

Insgesamt will ich jedenfalls erstmal nicht sagen, dass das Tessellation-Thema zu Unrecht ein Aufreger war und das hier zu Recht. Dafür wissen wir längst noch nicht genug.
 
Zuletzt bearbeitet:
max_1234 schrieb:
Es geht um falsche Aussagen und Erpressung, nicht um Benchmarks.

Was noch zu beweisen wäre und reine Spekulation von dir ist. Denn aktuell sieht man nur das nvidia bis 31 Queues deutlich schneller und effizienter arbeitet als AMD. Erst wenn nvidia's Queues ausgehen, steigen langsam die Latenzen - aber noch deutlich weniger Latenz haben wie AMD. Die können soweit abgefedert werden, dass erst ab 127 Queues so schnell/langsam wie AMD agiert. Passend zu sehen wäre dann was bei beiden bei 512 oder 1024 Queues wäre.

Wie wird es wohl ausgehen, einfach IFDEF per Architekturprüfung und setzten der Queue-Anzahl auf nativ verfügbaren Queues. In diesem Szenario bietet dann nvidia deutlich geringere Latenzen.
 
Verschwörungstheorie on/
@ChrisMK72@Strikerking:
Aber vielleicht sind es gerade diese Spiele, die zeigen können, wenn von "Dritten" kein Druck auf die Entwicklung ausgeübt wird.
Vielleicht arbeiten die Grünen ja jetzt im Hintergrund bereits mit den "großen" Publishern, um die zukünftige Performance einer mangelhaften Hardware unter DX12 zu retten.
off/


Wir werden sehen, was die nächsten Monate bringt.
Mehr Spiele mit DX12, mehr Benchmarks, mehr Daten, mehr Rückschlüsse.

Mir tut nur jetzt schon das Base-Team leid, das bald die ganze GPU-Rangliste auf DX12 neu gemacht werden muss O.o.
[https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/]
 
Prozessor Knox schrieb:
Bei PC ist AMD irgendwann mal eingeladen worden, hat die ganze Sache dann aber offenbar nicht mehr konsequent weiterverfolgt. Das ist schon ein deutlicher Unterschied zum jetzigen Fall. Und die DX12 Unterstützung für ARK sollte bereits letzten Freitag erscheinen, ist dann aber wohl wegen Performanceproblemen verschoben worden. Also irgendwie kann ich mir schon denken, wer von diesen Problemen besonders betroffen gewesen sein dürfte.

Das stimmt auch wieder bei PC. Aber auch da kennen wir sicher nur die halbe Wahrheit, nachdem sich die Leute auch in der Öffentlichkeit gefetzt hatten. Das sich so ein Kindergarten-Schauspiel binnen weniger Wochen wiederholt hätte ich nicht gedacht.

Klar ist ARK auch wieder nur so ein Early-Access-Titel, aber den spielen schonmal Millionen Menschen - deutlich mehr als Ashes wohl je spielen werden. Insofern betrifft es trotz dieser frühen Entwicklungsphase viele User, die davon profitieren können. Wie genau bleibt abzuwarten und ich stimme auch zu, dass es einige echte Triple-A-Titel braucht, um wirklich finale Aussagen treffen zu können. Denn es wurde ja bereits mal gesagt, dass man in DX12 verdammt viel Arbeit stecken muss und es sich kleinere Studios nicht unbedingt leisten können, dies komplett umzusetzen.
 
Volker schrieb:
ARK kommt ja noch diese Woche und auch noch einw eiteres Spiel in ein paar weiteren. So kann man der ganze Sache mal auf den grund gehen. Aktuell ist es stochern im Nebel.

So Gerne ich dir auch zustimmen würde was ARK betrifft.
Nach der Veröffentlichung des DX12 Benches von Oxide und der nun sehr spontanen Verschiebung des Ark Updates für DX 12, sehe ich Nvidia unter Zugzwang, schließlich hat AMD Bereits den neuen Catalyst 15.8 veröffentlicht und Nvidia hat im Aspekt DX 12 bisher nur Kritik einstecken müssen.

Da Ark ein Vertreter des Gameworks Programm ist, bin ich da nicht allzu optimistisch gestimmt, was da bei rauskommen wird.
Schließlich wollte Nvidia dass die ACEs auch bei AMD deaktiviert werden, nur weil Nvidia diese Einheiten nicht vernünftig umgesetzt hat oder ansteuert.

Allzu viel Objektivität kann man da nicht erwarten, Stichwort: Batman Cape/ Tesselation :D
 
Wir wissen auch nicht, ob eine komplette Deaktivierung wirklich nötig ist, oder ob es nicht reichen würde, es für Nvidia etwas anders zu implementieren (z.B. weniger Threads).

Wer will sich denn den zusätzlichen Aufwand machen? Microsoft hat die ganze Sache schon so geschickt eingefädelt, dass deren Konsole von DX12 am meisten profitieren dürfte.
 
Volker schrieb:
Klar ist ARK auch wieder nur so ein Early-Access-Titel, aber den spielen schonmal Millionen Menschen - deutlich mehr als Ashes wohl je spielen werden. Insofern betrifft es trotz dieser frühen Entwicklungsphase viele User, die davon profitieren können.

Und wer sagt uns, dass sie es in ARK nicht nur irgendwie nachschieben, wie ne Flickschusterei(nennt sich update), um es marketing-technisch auszunutzen ?

Wenn die nächsten AAA-Titel, die von Anfang an mit DX12 inkl. programmiert wurden eintreffen, sind wir schlauer.
Nicht durch EA-Titel, die da irgendwie an DX12 rumgefrickelt haben, damit sie sagen können, wir haben jetzt auch DX12 support.

Aber das wird eben noch dauern.
 
Prozessor Knox schrieb:
Wer will sich denn den zusätzlichen Aufwand machen?

Wie gesagt, für Tessellation haben sich inzwischen einige Entwickler diese Mühe gemacht und das Thema ist weitgehend in Vergessenheit geraten. Vielleicht läuft es hier ja ähnlich?

Ich habe mir jedenfalls längst abgewöhnt, mir wegen solcher Horrormeldungen Sorgen zu machen. Wir hatten solche Sachen doch schon so oft. Mal war es Nvidia, mal AMD, die vermeintlich irgendein ach so wichtiges Feature vermasselt hatten. Z.B. 2D-Beschleunigung unter DX10/Vista bei AMD, oder fehlende 11_1/2-Feature-Sets bei Nvida, oder besagte Tessellation-Geschichte.
Am Ende hielten sich die Vor- und Nachteile für die Anwender/Spieler doch immer sehr in Grenzen und das alles ist längst weitgehend in Vergessenheit geraten.

Am ehesten inetressieren mich als Computer-Begeistern noch die technischen Hintergründe. Was hakt warum? Wie wird das Problem gelöst oder umgangen?
Aber ich werde mir da niemals selbst graue Haare wachsen lassen oder meine Grafikkarte in die Tonne kloppen bzw. den Kauf bereuen.

Wobei jemand, der sich jetzt schon eine neue Grafikkarte nur wegen (laut PR-Aussagen mehr oder weniger guter) DX12-Unterstützung gekauft hat, sowieso Lotto gespielt hat.
 
aivazi schrieb:
So Gerne ich dir auch zustimmen würde was ARK betrifft.
Nach der Veröffentlichung des DX12 Benches von Oxide und der nun sehr spontanen Verschiebung des Ark Updates für DX 12, sehe ich Nvidia unter Zugzwang, schließlich hat AMD Bereits den neuen Catalyst 15.8 veröffentlicht und Nvidia hat im Aspekt DX 12 bisher nur Kritik einstecken müssen.

Da Ark ein Vertreter des Gameworks Programm ist, bin ich da nicht allzu optimistisch gestimmt, was da bei rauskommen wird.
Schließlich wollte Nvidia dass die ACEs auch bei AMD deaktiviert werden, nur weil Nvidia diese Einheiten nicht vernünftig umgesetzt hat oder ansteuert.

Allzu viel Objektivität kann man da nicht erwarten, Stichwort: Batman Cape/ Tesselation :D
Das fürchte ich leider auch. Nvidia wird die ARK Entwickler momentan wohl massiv unter Druck setzen. Man stelle sich vor, ARK bekommt DX12 und auch hier ist AMD plötzlich im zweistelligen Bereich vorn. Das wird Nvidia vermutlich nicht zulassen. Stichwort: Bündel mit Dollarscheinen im Aktenkoffer. ;-)
 
poi schrieb:
Die Nvidia Karten brauchen für gleichzeitig Compute+Graphics zufällig ziemlich genau "Compute only"+"Graphics only" was auf serielles und nicht paralleles arbeiten schließen lässt.

Das bedeutet nur, das ein Switch zwischen Compute Mode und Graphics Mode durchführt. Beides nicht gleichzeitig berechnet, jedoch Compute Tasks asynchron bearbeitet - eben nur nicht unterschiedliche Art der Modes. Je Mode kommt es dann zu einem Sync so, dass die Tasks eines Modes komplett abgeschlossen werden müssen, bevor Tasks des anderen Modes beginnt. Sprich, nvidia arbeitet jedoch die Queues (Compute Tasks) auch asynchron ab entscheidet jedoch beim Typ des Tasks und dies in nativer Form deutlich effizienter als AMD.
 
@Herdware

Nvidia hätte dann durch DX12 nichts gewonnen. Keine Ahnung, ob man einen Schalter für async compute einbauen kann, den dann der NV-Besitzer auf "Aus" stellen kann, um wenigstens keinen Leistungseinbruch mit DX12 zu erleben, während die Konkurrenz vollständigen Profit aus DX12 ziehen kann und um Nvidia Kreise dreht.
 
Prozessor Knox schrieb:
Keine Ahnung, ob man einen Schalter für async compute einbauen kann, den dann der NV-Besitzer auf "Aus" stellen kann, um wenigstens keinen Leistungseinbruch mit DX12 zu erleben, während die Konkurrenz vollständigen Profit aus DX12 ziehen kann und um Nvidia Kreise dreht.

Die Engine muss nur entscheiden welcher Architekturtyp vorhanden ist und die native Anzahl an Queues ansteuern und die entsprechende Compute Tasks mit Graphics Tasks abstimmen. Dann ist nvidia deutlich schneller fertig.

Sieht ma ja schön hier: https://www.reddit.com/r/pcmasterra..._to_conclusions_and_crucify/cumlmwv?context=1
 
Zuletzt bearbeitet:
Und darauf sind Nvidia und Oxide nicht von selbst gekommen? Wenn das doch so einfach ist...

PS: Ich vermute mal, dass das schon so implementiert worden ist und Nvidia trotzdem nichts reissen kann
 
Zuletzt bearbeitet:
@Prozessor Knox

Das kann bedeuten das Oxide die Engine umbauen müssen, dass wollte ich auch nicht. Dann hätte man halt vorher in die Dokus geschaut oder mit nvidia gesprochen.

Prozessor Knox schrieb:
PS: Ich vermute mal, dass das schon so implementiert worden ist und Nvidia trotzdem nichts reissen kann

Das sehen die Benchmarks aber anders. Einfach mal in die Links schauen.
 
Prozessor Knox schrieb:
@Herdware

Nvidia hätte dann durch DX12 nichts gewonnen. Keine Ahnung, ob man einen Schalter für async compute einbauen kann, den dann der NV-Besitzer auf "Aus" stellen kann, um wenigstens keinen Leistungseinbruch mit DX12 zu erleben, während die Konkurrenz vollständigen Profit aus DX12 ziehen kann und um Nvidia Kreise dreht.
Ja, aktuell wurde es mit einem automatischen "Schalter" gelöst. Ich zitiere:

"Personally, I think one could just as easily make the claim that we were biased toward Nvidia as the only 'vendor' specific code is for Nvidia where we had to shutdown async compute. By vendor specific, I mean a case where we look at the Vendor ID and make changes to our rendering path."
http://www.guru3d.com/news-story/nv...12-benchmark-to-disable-certain-settings.html


Man kann also genauso einen manuellen Schalter einbauen.


Ob nun die "Spezielle" (oder nicht vorhandene) AS von Nvidia ebenfalls DX12 Spezifiziert ist, keine Ahnung. Oxide wird wohl das implementiert haben, was laut DX12 eben vorgesehen ist. Wenn Nvidia eine Extrawurst braucht, soll Nvidia sich eben darum kümmern. Aber bitte keinen Druck um DX12 Features abzuschalten bzw. gar nicht erst zu implementieren, weils der eigenen Hardware nicht schmeckt.
 
Zuletzt bearbeitet:
Kann durchaus sein. Da wird es hinter den Kulissen deutlich mehr Knatsch geben, als wir erfahren. So einen "Krieg" mit Nvidia bricht man in der Öffentlichkeit (in einem außenstehenden Forum mit möglichst vielen Lesern) nicht los (und die so anzuschwärzen ist ja nun nichts anderes, als eine Kriegserklärung, alles andere zu vermuten wäre naiv), ohne einen Segen von ziemlich weit oben.
Kein Dev plaudert so unabgesegnet daher, ohne seinen Job auf's Spiel zu setzen.
Scheinbar hat die Kosten-Nutzen-Analyse ergeben: pissen wir mal eben Nvidia an. Das hilft uns.
 
Zuletzt bearbeitet:
Prozessor Knox schrieb:
Wer will sich denn den zusätzlichen Aufwand machen? Microsoft hat die ganze Sache schon so geschickt eingefädelt, dass deren Konsole von DX12 am meisten profitieren dürfte.

der Aufwand entsteht in erster Linie wohl durch Async Shader, sodass man sich schon genau überlegen muss ob man das implementiert. Wenn Nvidia auch heute schon selbe Szenarien über eigene Techniken vielleicht gut gelöst hat... zumindest das Multithreading bei DX11 scheint ja auch irgendwie "magic" gelöst worden zu sein bei NV.

Es ist wie bei allem eine Kosten / Nutzen frage. Wenn Async Shader vergleichsweise schwer zu implementieren sind, was gemäß UT so ist, dann lohnt sich das eben noch am ehesten bei Konsolen da diese wirklich nur begrenz Leistung haben und eine große Zielgruppe. Wegen +5% Performance würden die wenigsten Studios wohl viel Aufwand reinstecken...

Vor allem dann wenn nur 1/5 des Marktes oder weniger damit was anfangen können. Nvidia sitzt da meist leider am längeren Hebel.

AMD profitiert vielleicht davon dass die Konsolenports einfacher werden und schneller.
 
Prozessor Knox schrieb:
Nvidia hätte dann durch DX12 nichts gewonnen. Keine Ahnung, ob man einen Schalter für async compute einbauen kann, den dann der NV-Besitzer auf "Aus" stellen kann, um wenigstens keinen Leistungseinbruch mit DX12 zu erleben, während die Konkurrenz vollständigen Profit aus DX12 ziehen kann und um Nvidia Kreise dreht.

Nur wegen "Async Compute" wird ja nicht DX12 komplett deaktiviert.Das ist nur ein Feature unter vielen.
(Und es ist auch schon geschrieben worden, dass man für Maxwell "Async Compute" vielleicht auch nur etwas anders implementieren müsste, damit es nicht zu solchen Leistungseinbrüchen kommt.)
Der wesentliche Teil von DX12 ist eh unabhängig von der GPU-Hardware und speziellen Features. Das sind reine Software-Optimierungen in dem API. Deshalb werden auch reine DX11-Karten (bis zurück zu Fermi) davon mehr oder weniger stark profitieren.

Außerdem könnte man die Sache auch so rum sehen:
AMD legt durch DX12 hier so dramatisch zu und Nvidia nicht, weil Nvidias Treiber vorher schon besser optimiert waren und weniger am CPU-Limit hingen.

Damit will ich keine solche Behauptung aufstellen, aber es ist halt nichts rein Schwarz-Weiß. Treiber und GPU-Hardware von AMD und Nvidia haben unterschiedliche Stärken und Schwächen. Wäre ja auch traurig, wenn nicht.
Man wird deshalb niemals drum herum kommen, Spiele speziell zu optimieren und "Ausnahmeregeln" zu schaffen, wenn man das Optimum aus allen GPUs heraus holen will, bzw. nicht einige unnötig ausbremsen.
 
Zuletzt bearbeitet:
Zurück
Oben