News DirectX 12: Disput zwischen Oxide und Nvidia geht weiter

Auch wenn ich es von Nvidia Seite nicht gut finde, wie mit dem Thema wohl umgegangen wird, sehe ich es leider so:
Nvidia hat das Feature beworden... Aber nie gesagt, dass es schneller oder besser funktionieren würde, als ohne dieses.
Sprich genau genommen unterstützen sie es, wenn auch in einer (momentan?) recht sinnlosen Form.
 
Hagen_67 schrieb:
Habe ich das jetzt richtig verstanden? nVIDIA hat hier seine Karten mit einer DX12- Eigenschaft beworben, die so nicht vorhanden war/ ist?

Wenn ich das richtig mitbekommen habe, hat Nvidia immer nur sehr allgemein damit geworben, dass DX12 "unterstützt" wird. Und zwar von allen GPUs seit Fermi.
Genaue Details zu einzelnen Features haben sie öffentlich nicht genannt.

"Unterstützt" kann ja schon seit DX11 alles mögliche heißen. Letztlich bedeutet es nur, dass es entsprechende aktuelle Treiber gibt und die Karte damit unter der DX-Version überhaupt funktioniert.
Es müssen von Treiber und GPU aber keines der spezifischen Features einer DX-Version unterstützt werden. Es gibt ja sogar ein DX9-Feature-Level. So kann theoretisch eine uralte DX9-Karte mit DX12-Unterstützung beworben werden und es ist sachlich in Ordnung.
Das ist von Microsoft explizit so vorgesehen und ergibt mit Blick auf die verschiedenartigen Geräteklassen, auf denen Windows und DirectX heutzutage laufen können, auch durchaus Sinn. So kann theoretisch ein und das selbe Spiel nur einmal für die aktuellste DX-Version entwicklet werden und es läuft sowohl auf einem Smartphone mit minimalistischer Low-End-GPU im Atom-SoC, als auch auf einem dicken Gaming-PC mit topaktueller High-End-Grafikkarte. (Es nutzt nur entsprechend mehr oder weniger Features der API.)

In diesem Fall geht es aber auch weniger darum, was gegenüber Endkunden beworben wurde, sondern was der Treiber "intern" gegenüber den Spiel/der Entwicklungsumgebung/dem API als unterstützte Features angibt und Performanceeinbrüche, wenn der Entwickler sich blind darauf verlässt.
Ein bewusster Marketingtrick ist das sicher nicht, denn als Endkunde bekommt man von solchen internen Dingen ja eigentlich gar nichts mit und die Entwickler werden notgedrungen merken, dass etwas nicht stimmt.
Riecht für mich also eher nach einem unbeabsichtigten Fehler im Treiber. Entweder ist die ausgegebene Featureliste nicht korrekt, oder das Feature sollte eigentlich funktionieren, tut es aber (noch) nicht korrekt.
Außerdem ist auch nicht ganz auszuschließen, dass (auch) vom Entwickler Fehler gemacht wurden. Oder von DX12. Wir wissen es nicht.
 
Zuletzt bearbeitet:
Mimimi... Dieses "Spiel", das wohl kaum einer hier jemals spielen wird, erinnert mehr an einen Benchmark als was anderes. AMD holt unter DX12 in Sachen DrawCalls nicht nur auf sondern überholt NV gem. den bisherigen Tests auch... nun was? So wenig wie NV unter DX11 damit davonziehen konnte in der Praxis wird AMD mit DX12 sich wesentlich absetzen können in normalen Spielen.
Unglaublich was hier wieder abgeht zum Teil. Glaubt ihr ernsthaft dieser eine (unfertige) Titel mit dem einen Benchmark wäre eine Referenz? Bullshit, es reicht nicht mal zum begründeten Indiz.
 
Hagen_67 schrieb:
Habe ich das jetzt richtig verstanden? nVIDIA hat hier seine Karten mit einer DX12- Eigenschaft beworben, die so nicht vorhanden war/ ist?

Nein, das hast du falsch verstanden. Die Eigenschaft ist vorhanden, aber evtl. nicht performant nutzbar.
 
kisser schrieb:
Nein, das hast du falsch verstanden. Die Eigenschaft ist vorhanden, aber evtl. nicht performant nutzbar.

Doch, hat er richtig verstanden.
Diese Funktion ist nicht nativ auf der GPU vorhanden, allerdings wurde damit geworben.
Nun wird sie lediglich softwareseitig "emuliert".

Wenn Software Grafikfunktionen emulieren muss (CPU!), wieso spart man sich die Karte dann nicht gleich und spielt nur mit CPU.

mfg,
Max
 
Soll Nvidia halt endlich zugeben, dass sie Scheisse bauen. Echt jetzt... bin absolut kein ATI-Fan, aber durch den riesigen Performancesprung in DX12 bei AMD steht Nvidia vielleicht endlich wieder unter Druck sich mal anzustrengen, anstatt dauern Kundenverarsche zu betreiben.

Dieses Jahr ist grauenvoll...zuerst das mit der 3.5+0.5GB Grafikkarten, dann das billige Maxwell Rebranding im mobilen Sektor, und dann noch die halbgare Feature-Level Unterstützung vieler ihrer angeblichen DX12-Ready Grafikkarten. Nur noch ein schlechter Witz das Ganze.
 
SimsP schrieb:
Wer hat Sadam seine Massenvernichtungswaffen geliefert ... NVidia.
Aber, dass die Sonne jeden Morgen aufgeht hat AMD gemacht.
Das weiß ich alles von Richard Huddy.

Bei AMD gibts immerhin 4 Jahreszeiten .. bei Nvidia nur 3,5 ;)
Hier gehts nicht nur um Fankiddismus, viel mehr gehts darum wenn einer der beiden Konzerne was wesentliches verkackt, entweder unsere Geldbeutel oder die Entwicklung neuer GPU Generationen stark darunter leiden werden.

mfg,
Max
 
auch noch interessant:

https://docs.unrealengine.com/lates...ing/ShaderDevelopment/AsyncCompute/index.html

As more more APIs expose the hardware feature we would like make the system more cross platform. Features that make use use AsyncCompute you always be able to run without (console variable / define) to run on other platforms and easier debugging and profiling. AsyncCompute should be used with caution as it can cause more unpredicatble performance and requires more coding effort for synchromization.
 
Solange AMD nicht deswegen die Preise hoch hält sondern weiterhin P/L besser ist als NVidia soll mir das recht sein. Kein Bock das in der nächsten Generation die Karten nochmal um 100€ steigen und wir für Mittelklassekarten dann noch 500€ hinlatzen müssen und die HighEnde Teile erst ab 700€ anfangen.

Wer sich aktuell Karten für 600+ kauft hat eh nicht mehr alle Tassen im Schrank. Sowas zu unterstützen führt zu Steigerungen. Man ließt immer das die Speicherkosten fallen und und und aber im Euroraum bekommen wir davon nichts mit. Wir zahlen teilweise nicht nur 1:1 zu Dollar sondern sogar mehr.
 
Da wurdeim Treiber doch nur eine EINS mit einer NULL vertauscht! (irony)

Das ist bei Nvidia nie aufgefallen obwohl es alleine von Oxid bestimmt schon vor Monaten gemeldet wurde?
Das konnte man mit den letzten 5 Treibern nicht lösen?
Wie soll ein potenzieller Kunde dann noch Vertrauen haben in die Hardware, wenn die Software schon lügt?
​Hat Nvidia immer noch nicht genug Haue bekommen?
Ist die Sammelklage bereits im Keim erstickt worden mit kostenlosen 980ern?
 
Zuletzt bearbeitet: (Kaim? omfg)
Noch ist hier gar nichts fix. Erste Tests in Foren mit DX12 zeigen wohl auf dass die API hier Diskrepanzen zwischen Nvidia und AMD aufzeigen. Gut möglich dass beide Async Shader anders implementiert haben, Nvidia die Sache schlicht mit Fokus auf wenige Threads angeht und AMD vllt ganz anders. Ich denke da muss man noch abwarten und es gibt eh nur wenig Experten die sich da wirklich mit auskennen mit. So ganz trivial scheint die Sache nicht zu sein.
 
max_1234 schrieb:
Diese Funktion ist nicht nativ auf der GPU vorhanden, allerdings wurde damit geworben.
Nun wird sie lediglich softwareseitig "emuliert".

Nicht spekulieren und als Fakt darstellen, wenn es nicht so ist. Ist reine Spekulation von deiner Seite.

Interestingly enough, the GTX 960 ended up having higher compute capability in this homebrew benchmark than both the R9 390x and the Fury X - but only when it was under 31 simultaneous command lists. The 980 TI had double the compute performance of either, yet only below 31 command lists. It performed roughly equal to the Fury X at up to 128 command lists.

Das sehen die Tests bis jetzt nämlich nicht so. Bis zu einer Queue Depth von 31 ist sogar eine 960 schneller als Fury, erst wenn alle Queues ausgelastet wird ist GCN schnell da sie mehr Queues zur Verfügung stellt. Sprich beide Architekturen haben Vor- und Nachteile und je nachdem ich eine Menge an Queues fülle ist einmal die eine, einmal die andere besser.

Quelle: https://www.reddit.com/r/nvidia/comments/3j5e9b/analysis_async_compute_is_it_true_nvidia_cant_do/
 
SymA schrieb:
Als Besitzer einer GTX 980ti find ich die Angelegenheit absolut dreist. Selten so verarscht worden. Meine Wahl viel auf die Karte weil sie DX12 konnte und viel Power hatte - nicht weil sie nur ein Jahr halten soll, bis die ersten DX12 Games mit AMD mir davon ziehen.

so wird es wohl kommen, allerdings muß man sagen, dass das bei nvidia nicht so ganz neu ist. die 390 läuft derzeit super und ich denke, dass die karte p/l-top ist und gegen ende des jahres, wenn wir mehr erfahrungen und infos zu dx12 haben, der fokus noch stärker auf der 390 und der fury ohne x liegen wird beim grafikkartenkauf. wenn ich mir jetzt schon die benchs anschaue, verstehe ich die leute ehrlich gesagt nicht, die sich für 150 € aufpreis lieber ne 980 ti holen als ne fury ohne x.
 
@strex

Da muss wohl wieder Nai ran hrhr. So ähnlich hab ichs auch interpretiert, allerdings scheint hier AMD generell anders vorzugehen. Ich bin nich so tief im Fach, kaum einer hier. Umso lustiger wie der Shitstorm direkt losbricht und sich Seiten wie PCGH mit ihren News selber disqualifizieren, ich würde schmunzeln wenn sich Oxide hier nen Eigentor schießt. Aber naja, alles Marketing geblubber halt. Denk da muss man abwarten was bei rum kommt und selbst dann is noch unsicher ob es je auch nur den Hauch einer Auswirkung haben wird - oder läuft Thief mit Async Shadern auf GCN auf und davon?
 
Hier zeigt sich wieder das Stockholmsyndrom von vielen nVidia Fans. Sie wurden schon wieder hinters Licht geführt und verteidigen nVidia immernoch. Versteh das wer will. Meine letzte nVidia war die GTX570 und bisher gibt es keinen Grund von meiner 290 zu wechseln, offensichtlich werde ich sogar noch lange was davon haben mit Win10 + DX12.
 
kisser schrieb:
Bitte belegen, dass damit geworben wurde.

My bad, es wurde nie explizit damit geworben. Nur mit "voller DX12 Unterstützung".

kisser schrieb:
Nein wird sie nicht.

Doch, Nvidia Karten werden hierbei auf CPU Leistung zurückgreifen müssen ... z.b. wenn Async Computing neu prioritisiert wird (12.1 FL, von Nvidia "unterstützt").

Das + die Tatsache dass Nvidia Druck auf Spieleentwickler ausübt, um DX12 Funktionen zu streichen die sie nicht unterstützen, ja - das ist Aussage genug. ComputerBase hat hierbei extrem neutral reagiert, was in Anbetracht der Informationen (inzwischen Statement von AMD Mitarbeitern, Spieleentwickler, etc.) einer klaren Aussage nur aus dem Weg geht.

Selbst wenn man dabei nur eine News darüber schreibt - Nvidia hat Stardock unter Druck gesetzt damit etwas gestrichen wird, was sie selbst nicht direkt unterstützen, aber genau das behaupten.

mfg,
Max
 
Zuletzt bearbeitet:
Zurück
Oben