News DirectX 12: Disput zwischen Oxide und Nvidia geht weiter

Faust2011 schrieb:
Die DrawCalls waren bisher der Hemmschuh, dass man Szenen in Spielen nicht so detailreich gestalten konnte, wie man das gerne hätte. Auf einer vor kurzem stattgefundenen Spieleentwickler-Konferenz wurde ein bisschen aus dem Nähkästchen der Macher von AC:Unity gesprochen und welche Probleme sie eben hatten, detailreiche Szenen (Paris mit all seinen Gebäuden und den Menschenmassen) performant zu rendern.

richtig, auf lange Sicht und künftige GPU Generationen war deswegen auch eine Änderung an DX notwendig. Dennoch ist ein Game nicht direkt wieder über DrawCalls limitiert. Beide Parteien stellen unter DX12 dermaßen viele Draw Calls bereit dass die Unterschiede in Games gegen 0 werden gehen da keine Engine diese (außer man legt es drauf an und will das so) direkt wieder voll ausfahren wird. Deswegen ist der 3DMark API Test vielleicht nett anzusehen, aber seine Aussagekraft geht gegen 0.
Ergänzung ()

deo schrieb:
Entweder es wird richtig unterstützt oder gar nicht. Halbe Unterstützung bringt dem Spieler nichts.

richtig unterstützt wird es erstmal sogar dann, wenn du parallele Aufrufe machen kannst, im Hintergrund aber alles über Fallback sequentiell abgearbeitet wird und vielleicht gar mit schlechterem Resultat.

Bin selbst auch mal gespannt ob es irgendwann Korrelationen zu dem hier gibt

 
Zuletzt bearbeitet:
Sag mal, lieber Krautmaster, kann es sein, dass Du Ende 2014 eingeschlafen und erst gestern wieder aufgewacht bist? ;) Ich habe den Eindruck, dass Du viele Trends und Tendenzen in den letzten Wochen kommentiert hast, jedoch nicht verstanden.

Krautmaster schrieb:
das kann durchaus sein ja, genauso könnte man Tessellation/ Computing usw. vielleicht komplett weglassen oder nur über CPU berechnen.

Tessellation und Computing waren Kern-Features von DX 11 und OpenGL 4. Die AsyncShader sind etwas, die man erwartet hat und auch nutzen möchte, denn nun hat man die Daten dort, wo man sie ganzheitlich manipulieren kann (--> verändern (computing!) als auch rendern (graphic!)). Vorteil dabei: man spart den langsamen Austausch der Daten über den PCIe-Bus. Und genau deshalb möchte man sowas ja nicht mehr auf der CPU berechnen.

Krautmaster schrieb:
Unterstützt wird Async Shaders sicherlich, wie gut oder schlecht obliegt dem Hersteller. Wenn Nvidia vorhandene HW schon auf klassischen Weg so gut nutzt, dass der Vorteil durch Async Shader unwirtschaftlich zu implementieren ist, dann ist es vollkommen legitim hier nur rudimentären Support zu bieten

Aha, interessante Darstellung... und mal wieder pure Spekulation. Kennst Du denn das genaue Problem bei Nvidia? Nein! Hat demgegenüber Nvidia die AsyncShader ab Maxwell-2 angekündigt? Ja!

Krautmaster schrieb:
Der Heilige Gral wird es kaum sein da ich mir nicht vorstellen kann, dass jetzige GPUs nur zu 70% ausgelastet sind.

Du hast es mal wieder nicht verstanden. Bei AsyncShader geht es primär um die Priorisierung von Aufgaben. Erst an zweiter Stelle (bzw. als Konsequenz daraus) erreicht man eine bessere Auslastung.

Erinnerst Du Dich (scheinst ja auch nicht mehr der Jüngste zu sein) an die Einführung von Unified Shader? Da ging es um Auslastung. Warum? Nun, man hatte Shadergruppen, die sehr spezialisiert waren, u.a. Vertex-Shader und Pixel-Shader. Auf dem Weg des Renderns eines Pixels durchliefen diese zuerst die Vertex-Shader, mit der Konsequenz, dass die Pixel-Shader (fast) nichts zu tun hatten. Und anschließend dann das Spiel anders rum.

Oder schau Dir die Terrascale-Architektur von AMD an (HD 2000... bis HD 6000). Dort hatte man die Shader als VLIW4/5 designed, d.h. jeder Befehl musste immer 4 bzw. 5 Daten bearbeiten. Nun hatte man jedoch oft nur 3 oder 4 Daten zur Hand, die man parallel bearbeiten konnte und erreichte man bei weitem nicht die Peak-Performance der Chips. Das hat man mit der GCN-Architektur gelöst.
 
Die Tabelle ist Irreführend und der Text erst :headshot:... kein Wunder, Kraut wieso einiges so nicht passt was du zu denken weißt.. ( spiegelt es jedenfalls gut dar )

8 Compute = 64 Compute Commands.
 
Zuletzt bearbeitet:
hab ich was verpasst? Das ganze Thema ist bisher generell Spekulation, von dir wie von mir ^^

Hier Vergleiche über VLIW4/5 / GCN usw herzuführen bringt wenig, bis GCN wirklich Vorteile brachte gingen auch Jahre ins Land (wie schnell wäre VLIW heute in Games...?). Bezogen auf Leistung / mm² und Transistor ist VLIW bombig. AMD hat GCN vor allem durch die größere Flexibilität im Computing Umfeld gebracht. Die HD7970 performte in Games eher schlecht in Relation zu ihrem Monster Chip im Vergleich zur Vorgängergeneration.

Naja, da jetzt irgendwelche Parallelen zu der hier genannten Asyc Shader Sache aufzuführen is schon etwas weit hergeholt, da hat wohl jemand eher verpasst wie einseitig der Markt die letzten Monate war.

Edit:
Mit Mantle steht Async Shader ja heute schon bereit.

Thief, via its Mantle renderer, is the only PC game currently using async shaders, while on the PS4 and its homogenous platform there are a few more titles making using of the tech.
Ergänzung ()

BlauX schrieb:
Die Tabelle ist Irreführend und der Text erst :headshot:... kein Wunder, Kraut wieso einiges so nicht passt was du zu denken weißt.. ( spiegelt es jedenfalls gut dar )

8 Compute = 64 Compute Commands.

ist die Tabelle von mir? Wie wärs mit klaren Quellen um zu zeigen, dass Anandtech hier Müll postet und BlauX Recht hat? Ich hab oben den Link ergänzend aufgeführt da es wenig Seiten gibt die das wirklich erläutert haben, aber du darft Anandtech und mich gern produktiv erleuchten ohne persönliche Anfeindung. :rolleyes:
 
Zuletzt bearbeitet:
Informiere dich doch selbst. Irreführendes verlinken kannst du doch auch, wieso auch nicht gegenrecherchieren?

Both GPU’s ACE units can 8 compute queues, and so total that gives 64 compute commands (using the math of 8 compute queues * 8 ACE = 64 compute commands).

asynchronous-compute-engines-radeon-r9-290x-volcanic-island-1024x547.jpg


Interessiert denen nicht. Die Kommentare sind voll von Korrekturen und Hinweisen. Also trage die Irreführende Aussage/Tabelle nicht noch weiter rum.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Hier Vergleiche über VLIW4/5 / GCN usw herzuführen bringt wenig, bis GCN wirklich Vorteile brachte gingen auch Jahre ins Land (wie schnell wäre VLIW heute in Games...?). Bezogen auf Leistung / mm² und Transistor ist VLIW bombig. AMD hat GCN vor allem durch die größere Flexibilität im Computing Umfeld gebracht. Die HD7970 performte in Games eher schlecht in Relation zu ihrem Monster Chip im Vergleich zur Vorgängergeneration.

Naja, da jetzt irgendwelche Parallelen zu der hier genannten Asyc Shader Sache aufzuführen is schon etwas weit hergeholt, da hat wohl jemand eher verpasst wie einseitig der Markt die letzten Monate war.

Machst Du das eigentlich mit Absicht, dass Du alles falsch verstehst? :rolleyes:

Mein Vergleich, den Du hier zitierst, war ein Beispiel für Auslastung. Bei AsyncShader geht es jedoch primär um Priorisierung!
 
hat mich eh gewundert, warum Ashes immer in den Vorab Versionen mit 2x290X das Spiel präsentierte. Jetzt weiß ich es. Als NV Besitzer könnte ich nat. meckern, aber Win10 kommt bei mir eh erst ins Haus wenn dort die Kinderkrankheiten weg sind und sich DX12 etabliert haben. Von daher ist es mir relativ egal, solange die Leistung unter DX11 stimmt.

Abgesehen davon ist das von NV nat. wieder eine "Sauerei". Erst die 970 Geschichte, dann jetzt vollen DX12 Support der irgendwie nicht so funktioniert...

AMD machts aber auch nicht so viel besser...wen ich da an den Auswurf decke "Overclockers Liebling" bezügl. der Fury....

Muss wohl irgendwo ein Handbuch existieren, "wie verarsche ich die Kunden"...
 
Rollensatz schrieb:
hat mich eh gewundert, warum Ashes immer in den Vorab Versionen mit 2x290X das Spiel präsentierte. Jetzt weiß ich es. Als NV Besitzer könnte ich nat. meckern, aber Win10 kommt bei mir eh erst ins Haus wenn dort die Kinderkrankheiten weg sind und sich DX12 etabliert haben. Von daher ist es mir relativ egal, solange die Leistung unter DX11 stimmt.

Abgesehen davon ist das von NV nat. wieder eine "Sauerei". Erst die 970 Geschichte, dann jetzt vollen DX12 Support der irgendwie nicht so funktioniert...

AMD machts aber auch nicht so viel besser...wen ich da an den Auswurf decke "Overclockers Liebling" bezügl. der Fury....

Muss wohl irgendwo ein Handbuch existieren, "wie verarsche ich die Kunden"...

Ich frage mich ja immer von welchen Kinderkrankheiten ihr sprecht, ohne es mal probiert zu haben. Seit Tag 1 Benutzer von Windows 7,8 und 10 - bisher wenig bis 0 Probleme. Wobei ich auch keine extra Soundkarte mehr habe und es mit jeder neuen Version + Previews deutlich schmerzbereiter wurde :)
 
@Krautmaster

es geht hier nicht um sinn oder Unsinn von Async Shaders sonder alleine darum das dies ein Teil von DX12 ist und Nvidia damit aktiv wirbt das alle Maxwell 2 also die GM20x full DX12 Supporten.

Das hat sich damit als falsch herausgestellt, ich als Interessierte Kunde möchte anhand von Specs. / Tests etc. meine Wunsch Produkte Vergleichen bevor ich etwas kaufe. Hier habe ich einen Hersteller NVIDIA der offenbar nicht in der Lage ist Fakten und Fiktion (Wunschdenken) auseinanderzuhalten und vom verschönern der Technischen Specs. hat der Kunde nicht viel. Letzten endes ist das ziemlich negative Publicity für NV.

Daher würde ich mich als Maxwell Kunde sprich Käufer eine 9XX GF verarscht fühlen da sicherlich nicht wenige diese Karte auch wegen der Zukünftigen DX 12 Supports gekauft haben.

Wenn man das ganze unterm stich betrachtet dann kann man Ihnen Kundentäuschung vorwerfen weil die Propagierte DX12 Support die Verkäufe der Karten verstärkt hat.
Daher erschließt sich bei mir die Frage wer kauft noch bei einem Hersteller ein Produkt (auch wenn es Effizienter ist) wenn man den Aussagen des Herstellers nicht vertrauen kann?

Vollmundige Versprechungen zu machen bevor ein Produkt am Markt ist auch nicht gerade fein allerdings bekommt der Hersteller die Rechnung bei den Tests Serviert, ein Produkt zu bewerben mit absichtlich Falschen Technischen Spezifikationen ist eine komplett andere Liega hätte man von Anfang an mit ehrlichen Karten gespielt und gesagt dies oder das wird nicht unterstütz wäre das ganze halb so schlimm.
 
Irgendwie werden wieder komische Schlüsse gezogen.
"AMDs Radeon-GPUs konnten zunächst besser mit der neuen API umgehen als Nvidias GeForce-Modelle und profitierten vom Wechsel von DirectX 11 auf DirectX 12 viel stärker."

1. AMDs Karten gewinnen in Spielen mit hohen DrawCalls unter DX12 überproportional hinzu, nicht weil ihre DX12 Treiber oder ihre Architektur so gut für DX12 sind, sondern weil ihre DX11 Treiber für solche Spiele grottenschlecht sind.
2. Auch in diesem getesteten Spiel stellte sich unter DX12 die gleiche EInordnung zwischen NV und AMD ein, die man auch von vorher kannte. Insofern ist die Behauptung, Radeons können besser mit DX12 umgehen, als Geforces, etwas merkwürdig.
 
Wums schrieb:
Wen interessiert DX12 denn jetzt schon? Jeder der hier ne GPU im 200+ Euro Bereich hat wird doch eh umsteigen bevor DX12 relevant wird.

Reds dir ruhig ein ^^. Meine GPU bleibt solang bis sie stirbt oder zu schwach wird. ob das 2 oder 6 Jahre sind wird sich zeigen.
 
Cherrycoce schrieb:
"konnten zunächst" erweckt für mich den Eindruck als hätte Nvidia bereits wieder aufgeholt. Sehr unglückliche Wortwahl imo.

Ist inzwischen leider usus geworden, dass in Nachrichten das Wort "zunächst" benutzt wird, obwohl "bislang" die bessere Wortwahl gewesen wäre.
Der geneigte Leser stellt sich dann die Frage was sich geändert hat um zu merken - die Qualität in den Redaktionen. Schade.
 
Faust2011 schrieb:
Und ja, AMD hat bereits vor Jahren erkannt, dass GDDR5 bzw. das Speicherinterface am meisten Energie schluckt und genau deshalb ist es beim Fiji nun auch HBM-Speicher geworden.

Alles klar, man schreibt wieder Sachen die gar nicht stimmen. HBM verbraucht mehr! Und AMD hat vor Jahren angefangen zu forschen, dass man Speicher aufeinander setzen kann usw.
 
Haste da mal ne Quelle das HBM mehr verbraucht als GDDR5?
 
Benji18 schrieb:
Vollmundige Versprechungen zu machen bevor ein Produkt am Markt ist auch nicht gerade fein allerdings bekommt der Hersteller die Rechnung bei den Tests Serviert, ein Produkt zu bewerben mit absichtlich Falschen Technischen Spezifikationen ist eine komplett andere Liega hätte man von Anfang an mit ehrlichen Karten gespielt und gesagt dies oder das wird nicht unterstütz wäre das ganze halb so schlimm.

Aus Sicht des Kunden völlig verständlich und nachvollziehbar. Da bin ich ähnlicher Meinung.

Die traurige Wahrheit aber ist: Um das Feature bzw. die Bedingung zu erfüllen reicht es aus, dass es vorhanden ist und verwendet werden kann, auch wenn es bedeutet, dass es sogar die Leistungsfähigkeit beeinträchtigt ( Negative Scaling )

Gleiche auch mit der GTX 970 - die 4GB sind durchaus verbaut, nur 0,5GB eben entsprechend langsam und führt bei Nutzung ebenfalls zu einem Negative Scaling ( mal mehr mal weniger )

Was sagt uns das, wenn es im Vorfeld nicht so Kommuniziert wurde? Genau: Kommunikationsproblem.
Was macht man als Kunde dagegen? Soll sich jeder selbst beantworten.



@karamba,

dein Verständnis hinsichtlich GCN IST merkwürdig.
Aber da kannst du nur bedingt etwas für, GCN wurde nie im Detail genau erklärt ( Presse ) - das müsste man eben selbst in Angriff nehmen. Doku darüber führt AMD genau wie Intel über ihre Produkte sehr ausführlich, um nachzuvollziehen wieso GCN das Problem hat.
GCN ist eben weniger gut geeignet für DX11. Da hat AMD zu früh damit begonnen. Aufgrund dessen altern die Karten nicht so schnell bzw. man kann sie länger verwenden ohne gezwungen zu sein auf was neues umzusteigen. Für den Kunden ist das toll, aber bringt AMD kein Geld. Würde DX12 erst wie NV es selbst eingeplant hat, 2016/17 erscheinen, hätte GCN ein ähnliches Schicksal erleidet wie BD. Mit DX12, was AMD und Dice mit Mantle mindestens um 1-2 Jahre beschleunigten, kann AMD nun seine ganze Arbeit voll ausspielen und auf der Entwicklerseite ( Konsolen ) auch noch den Vorteil, dass sie bereits Erfahrung mit GCN machen konnten.


Das ganze aber auf den Treiber abzuschieben ist fatal. Es zeigt nur eben, dass man sich nicht allumfassend damit beschäftigt hat. Dabei führt AMD gute Dokus.
 
Zuletzt bearbeitet:
Seltsam... erst die Geschichte mit DX 11.2 (Tiled Resources), welches -soweit mir beakannt- bis heute von keiner NV-Karte unterstützt wird, jetzt fehlende Unterstützung für Kernbestandteile von DX 12. Der Schwenk mit Pascal zu mixed Precision (vom Prinzip her GCN-Nachbau).
Scheinbar orientiert sich NV vollständig neu. Kann uns Kunden nur recht sein, wenn der Marktführer aus seinem Winterschlaf erwacht.
 
Faust2011 schrieb:
Mein Vergleich, den Du hier zitierst, war ein Beispiel für Auslastung. Bei AsyncShader geht es jedoch primär um Priorisierung!

ich würde mal frech behaupten es geht schlicht um beides.

1.png

-> GPU Ressource fully utilized
-> Latency

Letzteres wohl eher aus dem VR Argument heraus. In ihrem Beispiel Rendering + AA und bis 46% gain gehts ja auch nicht um Priorisierung sondern die generelle bessere Nutzung der verfügbaren Ressourcen, das wofür Multithreading idR eben auch erstmal da ist.

Oder wo sind deine Quellen die Priorisierung >> Auslastung beschreiben?
 
hardwareguru schrieb:
Das Spiel wurde mit AMD für Mantle entwickelt.Knick knack......Kostenlose Presse für einen Titel der keinen interessieren wird.Bis heute kein Gameplay und nur eine Techdemo.

Zusätzlich werden Spiele im Normalfall nicht für AMD entwickelt sondern für alle Grafikkartenhersteller.

Interessanter werden Dinge die auf Unreal 4 Engine laufen.Hier wird es wenigstens Titel geben.

In 6-12 Monaten werden echte DX12 Spiele kommen die auch AA Titel sind dann werden wir sehen wie sich AMD gegen Nvidia schlägt.

Und mal unter uns was nützt ein Spiel das nur auf AMD´s aktuellen Karten läuft weil ein Feature bis zum Umfallen gepuscht wird und bei 70% der Steamuser auf Nvidia nicht anständig rennt.Das kann sich keine Spieleschmiede leisten.....

Ich find´s schon lustig, bei Project Cars baut SM außerhalb des Standards DX11, was auf Nvidias nur aufgrund eines Treiber-Workarounds läuft und die AMD´s in den DX11-bedingten Drawcall-Tod stürzt. Da wird dann die Schuld auf die Radeons geschoben.

Jetzt sieht es nach Aussage von Oxide so aus, als hätte Nvidia (mal wieder) zu Gunsten des Marketings die Käufer verarscht. Da ist dann natürlich Oxide Schuld, weil die gefälligst auf die Geforces Rücksicht zu nehmen haben bei einem Feature, dass diese Karten laut Herstellerangaben eigentlich haben müssten...
 
neo243 schrieb:

Demnach liegen beim tatsächlichen Verbrauch HBM und DDR5 gleichauf? Performance per Watt interessiert ja nicht. Am Ende hat HBM den Vorteil der wesentlich höheren Bandbreite.

@ Topic

Mit Mantle war schon klar, wo es hingeht. Ich dachte aber ernsthaft, das nVidia mit den beworbenen Featuresets für DX12 AMD noch weiter davon ziehen wird. Sieht ja aktuell nicht so aus. Die Frage ist dann wohl, welche Features die Spieleschmieden hauptsächlich nutzen und da sieht man die Drawcalls schon weit vorne. AMD ist technisch "jetzt" vor nVidia. Pascal sollte besser die ACEs mitbringen, denn AMD kommt ja nächstes Jahr auch mit was neuem...

Am Ende kann es nur gut sein für die Verbraucher/Kunden. Die nVidia Fanboys sollten lieber froh sein, das AMD gibt. Ansonsten würde die Entwicklung stocken und noch mehr Krüppelhardware verkauft werden (RAM, nicht vorhandene Features trotz Werbeversprechen, ...)
 
Zurück
Oben