News DirectX 12: Disput zwischen Oxide und Nvidia geht weiter

max_1234 schrieb:
Nvidia Gameworks ist CLOSED SOURCE. AMD bekommt hierfür keine Einsicht. Entwickler bekommen hierfür keine Einsicht. Berhinderungen der Konkurrenz (AMD, Intel) sind nicht nur möglich sondern höchstwahrscheinlich.

mfg,
Max

Was auch egal ist da es von AMD Karten ja nicht verwendet wird und sowieso auf einen Fall Back Pfad zurück gegriffen wird.
Wenn Nvida Karte = Gameworks;
Wenn AMD Karte = Fall Back;
 
Und der Fallback pfad wird von wem programmiert ?

Vom Spieleprogger ? (zusatzaufwand...ergo, kaum)

Von AMD ? (wohl kaum, da AMD nicht weiss/sehen kann was ein Gameworks feature denn so machen soll da CODE-Einsicht nicht gegeben bzw. muss dann für JEDES GW spiel einzeln von AMD angepasst werden)

Fallbackpfad kann auch von und durch Gameworks gestellt werden ?
Wahrscheinlichchste lösung - denn dann hat der Spieleprogger keinen Aufwand damit...allerdings weiss dann immer noch weder der Spieleprogger noch AMD was für ein Fallback Code verwendet wird denn der GW-Code ist ja Closed Source)
=> Da lassen sich dann wunderbar ein paar "unnötige" schleifen oder IF(AMD) then wait 10ms einbauen...
 
Iscaran schrieb:
Fullquote entfernt

Ich glaube dass das nicht so einfach ist, dass du mal eben die gesamte Engine in den Abgrund reißen kannst - klar kann man bisschen Unsinn treiben, aber mit genügend Tests sollte sowas eigentlich auffallen ;) - außer bei WB die verkaufen die Brötchen direkt aus dem Ofen kommend :)
 
Zuletzt bearbeitet von einem Moderator: (Fullquote entfernt)
SymA schrieb:
Fullquote entfernt

Man muss die Engine nicht in den Abgrund reissen...es reicht wenn alles ein bisschen länger dauert...10% FPS und schon flamen alle rum wie schlecht AMD hardware doch ist. So was geht ganz leicht...Einfach statt 1+1 immer 1+2-1 rechnen lassen und schon hast du 33% "performance" vernichtet da du 1 Schritt mehr brauchst.
 
Zuletzt bearbeitet von einem Moderator: (Fullquote entfernt)
Mhh kaum läuft es mal nicht macht NV ein fass auf. Selber ist NV aber wohl nicht besser. Ich sag nur Project Cars....
Hat AMD da ein fass aufgemacht. Also bitte berichtigt mich aber wäre mir neu. Mir wird NV immer unsympathischer. Erst die 3,5GB VRAM Aktion ohne eine Entschädigung zu leisten, dann die tollen Gameworks titel die auf AMD mal so schlecht laufen das man schon fast Absicht unterstellen könnte. Nun das...
Mir reicht es so langsam und ich bin echt froh das ich meine GTX970 zurückgegeben habe.
 
berkeley schrieb:
Ich zitiere extra für dich: " Maxwell is good at compute, that wasn't the point. Maxwell just cannot benefit from doing compute + graphics asynchronously. GCN can."

Dann solltest du auch einmal den Text ganz lesen und den Unterschied zwischen Compute und Graphics verstehen. Danach sprechen wir weiter.

Das Compute Tasks gleichzeitig bearbeitet wird sieht man ja auch schön mit HyperQ und Cuda: http://docs.nvidia.com/cuda/samples/6_Advanced/simpleHyperQ/doc/HyperQ.pdf

max_1234 schrieb:
...trotzdem bleibt es eine serielle Queue.

Das ist nicht Richtig, der Wechsel zwischen Compute und Graphics ist seriell. Maxwell kann jedoch mehrere Compute Tasks gleichzeitig bearbeiten. Kommt dann aber in der Queue ein Graphics Task, muss er warten bis alle Compute Tasks abgeschlossen sind. Wie man sieht, klappt das bis zu 31 Queues ziemlich gut und sogar besser als bei AMD, da AMD immer einen Overhead von 50ms erzeugt egal wie viele Queues genutzt werden. Das zeigen ja auch die Tests, woher der kommt kann aber nur AMD sagen - ich spekuliere hier mal das alle Queues iterativ geprüft werden egal ob belegt oder nicht (Vorsicht, alles hinter dem Bindestrich ist meine Interpretation der Ergebnisse).

SymA schrieb:
Ja und mit welchem Zaubertrick soll sie es in Zukunft können?

Der Zaubertrick ist es zu verhindern ständig zwischen Compute und Graphics zu wechseln, sondern die Queues mit genug Compute Tasks zu füllen bevor er wieder wechselt. Das dies nicht einfach ist bestreitet keiner, die Engine muss das eben beachten und schauen wie es das zustande bekommt.

Man sieht ja in dem unteren Bild schön, dass die Latenz bis zu 31 Queues schneller arbeitet bei Maxwell als GCN. Erst wenn Maxwell die Queues ausgeht gibt es Problem da nicht mehr da sind. Entsprechend fügt man ein IFDEF mit der Queue-Anzahl in der Engine ein und passt diese an so dass bei großer und kleiner Zahl an verfügbaren Queues entsprechend füllen kann. Das kann aber wieder bedeuten, dass man viel umbauen muss. Da hätte ich auch keine Lust drauf.



Viel interessanter ist es dann wie GCN und nvidia auch mit mehrere Tasks umgeht als den 128. Da wäre ein Test mit 512 und mehr sehr interessant. Da könnte es auch sein, dass beide ordentlich in die Knie gehen - oder GCN trotzdem nur mit einem Overhead 50ms regeln kann.
 
Zuletzt bearbeitet:
max_1234 schrieb:
Bei AMD gibts immerhin 4 Jahreszeiten .. bei Nvidia nur 3,5 ;)
Hier gehts nicht nur um Fankiddismus, viel mehr gehts darum wenn einer der beiden Konzerne was wesentliches verkackt, entweder unsere Geldbeutel oder die Entwicklung neuer GPU Generationen stark darunter leiden werden.

mfg,
Max

Kommt drauf an. Gut Betuchte haben bei NVidia sogar 12 ;)
Aber wo leidet jetzt mein Geldbeutel oder die Entwicklung neuer GPU Generationen darunter, dass NVidias Karten momentan in einem Benchmark eines DX12 Spiels, welches sich noch im Beta-Stadium befindet, abschmieren?

Ich meine ich könnte ja den Aufschrei ansatzweise verstehen, wenn das Spiel schon fertig wäre oder wenigstens ein paar weitere DX12 Titel da wären, die die schlechten Ergebnisse von GeForce Karten unter DX12 untermauern.
Aber das alles anhand eines Benchmarks fest zu machen, bei dem die AMD Karten in DX11 eine sehr bescheidene Leistung zeigen und dafür unter DX12 überproportional zulegen, halte ich für fragwürdig. Das hat für mich eher den Anschein als hätten die Entwickler geschlampt. Oder ist es seit Neuestem normal, dass eine Fury X in DX11 auf das Leistungsniveau einer GTX680 OC runterbricht?

Nächster Punkt ist, dass die Argumentation einiger Leute hier schon sehr einseitig ist.
Bei Benchmarks zu Vorserien Spielen wo AMD schlecht abschnitt hieß es "ist ja noch Beta, das wird noch besser". Bei Spielen wo die Entwickler eng mit NVidia zusammengearbeitet haben (was bei NVidia Gameworks heißt) und AMD schlecht abschnitt (siehe Project Cars) hieß es "NVidia manipuliert die Ergebnisse zum eigenen Vorteil".
Und jetzt wo wir in einer Situation sind, in der wir sogar beide Fälle vorliegen haben, nämlich ein Beta Spiel dessen Entwickler nachweislich eng mit AMD und deren Mantle Platform zusammengearbeitet hat, drehen entsprechende Leute die Argumentation wieder gegen NVidia. Was ist das bitte anderes als Fankiddismus, wenn man seine Position um 180° dreht sobald der Kontrahent des Lieblingsherstellers durch die eigene Argumentation begünstigt wird?

Genauso die Haltung zu Mantle und den Einfluss auf Vulkan. Das feiern alle AMD Jünger als Erfolg, ok meinetwegen ... aber ich bin mir sicher hätte NVidia sowas gemacht, wäre wieder ein Aufschrei durch die Menge gegangen, dass das ein absolutes NoGo ist und NVidia den ganzen Markt korrumpieren würde - man erinnere sich bloß mal an die PhysX Unterstützung von 3DMark oder die Gameworks Effekte bei Far Cry 4 & Co. Das Witzige an der Sache ist aber ... die Gameworks Effekte, in die von Seiten Nvidia einiges an Arbeit geflossen ist, kann ich auch mit einer AMD GPU ruckelfrei nutzen, die Mantle Renderpfade in Spielen wie Battlefield oder TressFX in Tomb Raider sind hingegen AMD exklusiv und werden es voraussichtlich auch bleiben.
Damit will ich nicht gegen AMD wettern, kann ja jeder mit seinem geistigen Eigentum machen was er will und es ist in meinen Augen durchaus legitim sich mit eigener Arbeit einen Vorteil vor der Konkurrenz zu verschaffen.
Aber einige erwarten offenbar, dass NVidia Features entwickelt, die sowohl für die eigene, als auch für Konkurrenz-Hardware optimiert wurden, wohingegen es völlig legitim und fortschrittlich ist wenn AMD die eigenen Technologien wie TressFX oder TrueAudio nur für die eigene Kundschaft zur verfügung stellt und sich dann wundert warum sich das ganze nicht durchsetzt.
 
Ist doch einfacher als ich dachte. GCN kann eben gleichzeitig Compute und Graphics abarbeiten und NV kann das nicht, sondern muß zwischen den beiden immer wechseln. AS ist Bestandteil von DX 12 Tier3, wenn ich mich recht erinnere. Da NV maximal DX 12 Tier 2 unterstützt, ist die Erklärung gefunden oder nicht?
 
Na gut, aber was wissen wir denn genau über DX-12. Eigentlich hat man sich auf bestimmte mögliche technische Eigenschaften, die man von den Firmen wie AMD oder Nvidia bröckchenweise bekommen hat zusammenreimen können was die Karten können müssten, gut, AMD hat mittlerweile bestätigt, sie können inzwischen 12.0 in Hardware. Ja gut Microsoft hat dann auch veröffentlicht, was da Stand der Dinge ist. Hat das aber Nvidia getan, gab es da eine offizielle Bestätigung dazu eigentlich , die sagt, wir können 12.1 in Hardware? Gut Nvidia schreibt DX 12 auf den Pappkarton, aber damit kann auch nur die Softwarekompatibilät gemeint sein, bzw. da reicht es anscheinend aus wenn auch nur Teile unterstützt werden. Als die Maxwell-2.0 seiner Zeit rauskam, so kam sie als 11.2 Karte auf den Markt, die Teile von 12 in Hardware konnte, von von voller 12.0ér Unterstützung in Hardware war bei der Vorstellung nicht die Rede; auch später nicht. Jetzt zu den AS-Shadern: Nvidia hat nie behauptet, das zu unterstützen, habe bis her nichts gefunden, ausser einigen Vermutungen von Andantech. Sollte das wirklich war sein, das die sogenannten AS-Shader ein wichtiger Teil bzw. ein wichtiger Teil von den sogenannten Binding Shader ist, die ja als Grundvoraussetzung für 12.0 gelten nicht hat; so sind alle 900 er als nicht DX-12 fähig in Hardware zu benennen, das schuldet Nvidia, zumindest den Maxwell-2.0 Kunden mit Titan oder 980 Ti Karte. Was auch Schade wäre, wenn DX12 praktisch nur aus AS-Shaderunterstützung besteht, sorry,fallen ja die anderen DX-12 Hardwaresachen weg, wie die ROVs z.B. die auch einiges reißen könnten; wenn das so ist, dann hoffe ich mal, das man bei DX-13 echt mal wieder eine gemeimsane Linie findet, die alle Karten gleichermaßen unterstützt. Sorry nochmal meine etwas umständliche Wortwahl es ist ja auch eine eher undurchsichtige Materie, bitte dafür schonmal um Entschuldigung.
 
loool ihr ganzen NVidia Jünger die ihr meintet NVidia hat mehr DX12 Features hrhrhr -> haben sich auch :P emuliert :P und zwar die wichtigen.
 
strex schrieb:
Dann solltest du auch einmal den Text ganz lesen und den Unterschied zwischen Compute und Graphics verstehen. Danach sprechen wir weiter.

Das Compute Tasks gleichzeitig bearbeitet wird sieht man ja auch schön mit HyperQ und Cuda: http://docs.nvidia.com/cuda/samples/6_Advanced/simpleHyperQ/doc/HyperQ.pdf
Soweit ich verstanden habe, geht es bei der Diskussion nicht darum, ob nun compute tasks parallel abgearbeitet werden können sondern compute + graphics. In den Benchmarks sieht man deutlich, dass sich die Bearbeitungszeit von compute und graphics bei Nvidia fast zu 100% addiert (mit zunehmenden compute kernels). Bei AMD addiert sich die Bearbeitungszeit bei gleichzeitigen compute + graphics hingegen nicht/kaum.
 
Zuletzt bearbeitet:
SimsP schrieb:


Genauso die Haltung zu Mantle und den Einfluss auf Vulkan. Das feiern alle AMD Jünger als Erfolg, ok meinetwegen ... aber ich bin mir sicher hätte NVidia sowas gemacht, wäre wieder ein Aufschrei durch die Menge gegangen, dass das ein absolutes NoGo ist und NVidia den ganzen Markt korrumpieren würde - man erinnere sich bloß mal an die PhysX Unterstützung von 3DMark oder die Gameworks Effekte bei Far Cry 4 & Co. Das Witzige an der Sache ist aber ... die Gameworks Effekte, in die von Seiten Nvidia einiges an Arbeit geflossen ist, kann ich auch mit einer AMD GPU ruckelfrei nutzen, die Mantle Renderpfade in Spielen wie Battlefield oder TressFX in Tomb Raider sind hingegen AMD exklusiv und werden es voraussichtlich auch bleiben.
Damit will ich nicht gegen AMD wettern, kann ja jeder mit seinem geistigen Eigentum machen was er will und es ist in meinen Augen durchaus legitim sich mit eigener Arbeit einen Vorteil vor der Konkurrenz zu verschaffen.
Aber einige erwarten offenbar, dass NVidia Features entwickelt, die sowohl für die eigene, als auch für Konkurrenz-Hardware optimiert wurden, wohingegen es völlig legitim und fortschrittlich ist wenn AMD die eigenen Technologien wie TressFX oder TrueAudio nur für die eigene Kundschaft zur verfügung stellt und sich dann wundert warum sich das ganze nicht durchsetzt.

haaaaaalt Stop!!!!!
NVidia hätte vollen Zugriff erhalten! Aber sie wollten nicht.
AMD hingegen bekommt von ALLEM PROPRIETÄREN TOLLEN ZEUG von nVidida NICHTS.

Danke. Ende.
 
berkeley schrieb:
Soweit ich verstanden habe, geht es bei der Diskussion nicht darum, ob nun compute tasks parallel abgearbeitet werden können sondern compute + graphics.

Was schreibt denn DX12 vor? In der Dokumentation konnte ich dazu nichts finden, welche Parts alle asynchron laufen müssen. Wenn man den Name der Spezifikation als bare Münze nimmt wird nur von asynchronous compute gesprochen was die Compute Tasks beschreibt. Aber wie gesagt klare Antwort habe ich dazu nicht gefunden.

berkeley schrieb:
...(mit zunehmenden compute kernels)...
Bis das Queue-Limit erreicht ist hat hier nvidia eine gute Skalierung. Sprich mehr Queues und Switches führen nicht zur Steigerung (sieht man ja am Treppeneffekt). Erst bei einem Vielfach des Queue-Limits steigen die jeweils, um eine Switch-Zeit an.

berkeley schrieb:
In den Benchmarks sieht man deutlich, dass sich die Bearbeitungszeit von compute und graphics bei Nvidia fast zu 100% addiert. Bei AMD addiert sich die Bearbeitungszeit bei gleichzeitigen compute + graphics hingegen nicht/kaum.

Das ist korrekt. Wobei dieser so schnell geht, dass alle native Queues schneller bearbeitet werden können als bei AMD bei selber Queue Depth und warum hier GCN min 50ms Overhead benötigt. Deshalb wäre es auch hier interessant was DX12 vorschreibt, wie viel Queues (min) vorhanden sein müssen. Sonst würden ja schon zwei dafür reichen.

Was GCN aber besser macht ist, dass es bei mehr als die verfügbaren Queues besser skaliert und der fixe Overhead ausreicht. Das kann Maxwell nicht, entsprechend werden die Latenzen schlechter - bei geringer Queue-Größe aber besser..
 
Zuletzt bearbeitet:
@Mr.Smith

Niemand hätte vollen Zugriff erhalten. Man hätte Nvidia wie Intel aber die Möglichkeiten gegeben, ihre Treiber problemlos an Mantle anzupassen. Die haben dankend abgelehnt.
 
Grauenhaft finde ich, wenn Leute mit null Ahnung etwas von DX12 Features Level schreiben. Hauptsache etwas in den Raum geschrien.

@Husker-07
Sag mal kannst Du auch Absätze schreiben? Ist ja grauenhaft zu lesen.
 
Zuletzt bearbeitet:
Hammer wie sich die Fanboys wieder bemisten. :evillol:

@topic: Wäre ein ziemliches PR-Desaster für Nvidia wenn das so zutrifft. Dann hätten sie aus der Nummer mit der 970 entweder nichts oder zu spät gelernt. Am liebsten habe ich schönen, sauberen Wettbewerb mit zutreffenden Aussagen zur Technik. Und eh jetzt das Gejaule wegen meiner Signatur los geht - es ist meine zweite AMD-Karte nach 2x GTX7800, 2x GTX280, 1x GTX580. Und ich hab sie gekauft bevor die 970 raus war.
 
oldmanhunting schrieb:
Grauenhaft finde ich, wenn Leute mit null Ahnung etwas von DX12 Features Level schreiben. Hauptsache etwas in den Raum geschrien.

Ich erinnere mich nur daran, wie in einigen Threads doch ständig geschrieben wurde, wie wichtig das Feature Level ist, aber zeitgleich wie egal doch ACE und Resource Binding Tier 3 doch ist.
So wurde doch das Feature Level von NV groß als das "must have" beworben.
Naja, vom Tegra hatten wir aber auch gehört, dass das die Zukunft ist und jeder sich die Finger danach schlecken werden. Das selbe mit den Konsolen. Da wurde ja gesagt, damit macht man kein Geld und die Titan ist sowieso schneller.
Grauenhaft ist es nur deshalb, weil doch die Version des Feature Level den Leuten hier im Forum ein komplett anderes Bild übermittelt hatte, denn das DX12 das NV Feature sei. Da durfte man oft genug von Ahnungslosen lesen, dass AMD überhaupt doch kein DX12 kann.


Moon_Knight
Wurde auch von niemanden behauptet. Nur hat AMD wieder alles korrekt angegeben, was man unterstützt und nicht. Kann gut sein, dass es daran liegt, weil das AMD Marketing einfach nicht einfallsreich genug ist. Des weiteren kommt noch hinzu, dass wie oben vermerkt, offensichtlich gewisse Features/Techniken sehr gut emulieren lassen, andere wieder nicht. Die oben genannten Effekte des Feature Levels, das NV nativ unterstützt, können per Software offensichtlich performant emuliert werden.
Wie sieht es mit Ressource Binding Tier3 (dessen Ausbaustufe) und mit ACE aus. Kann das auch so easy per Treiber ect optimiert/emuliert ect. werden ?

PS: Die NV Karten werden mit Sicherheit dadurch nicht schlechter. Nur werden die AMD Karten eventuell effizienter. Das ändert lediglich das Argument "Stromverbrauch", das GCN immer so sehr angelastet wird.

Spannend wird es dann, wenn mehrere Games auf "physikbasierte Engine" also Compute Shader basieren. Weil dann könnten Karten wie die Fury dann eventuell noch mehr davon profitieren.
Ist natürlich meine Vermutung.
 
Zuletzt bearbeitet:
Zurück
Oben