News DirectX 12: Nvidia-Treiber soll Async Compute nachreichen

kisser schrieb:
Die Anzahl an Shadern spielt nur eine untergeordnete Rolle. Entscheidend ist, wie gut die Shader ausgelastet werden.

Das habe ich auch beschrieben. AMD setzt traditionell auf mehr aber simplere Shader, wenn ich es so bezeichnen kann. Da sieht man durchaus noch parallelen zu VLIW. Auch hat AMD meist den kleineren Chip mit der deutlich höheren Packdichte.
GCN kann unter DX11 nicht optimal ausgelastet werden, da der Fokus bei der damaligen Entwicklung bei AMD für GCN eventuell anders verteilt war. Man kann durchaus annehmen, dass bei Bulldozer das ähnlich war und AMD eventuell damit gerechnet hatte, dass eine API wie DX12 wesentlich früher auf den Markt gekommen wäre. Denn dann ist durchaus verständlich, wieso AMD Bulldozer und GCN auf den Markt bringen wollte. Hier wären Bulldozer und GCN wenn es ums Gaming geht wesentlich besser abgeschnitten, hätte es zur Einführung von Bulldozer bereits DX12 gegeben. Deshalb gab es auch die damalige Aussage von AMD, dass es kein DX12 geben wird. Das war zu teils auch eine Begründung, wieso man den Markt so schlecht eingeschätzt hatte. (Bzw gibt es auch einige Features die DX11 kann aber nie genutzt worden sind. Compute Shader soll ja auch mit DX11 bereits möglich sein. AMD hat vieles mit DX11 bekanntlich nicht durchsetzten können, allein weil NV jene Features auch nicht unterstützen wollte. Deshalb ist ja auch egal ob NV DX11.1 und DX11.2 unterstützt.Mit einer neuen API DX12 ändert sich aber die Sachlage und NV muss mitziehen)

Natürlich habe ich keine Belege dafür, sondern ist lediglich eine Einschätzung von mir, aber diese Ansicht der Dinge erklärt durchaus wieso AMD einige Entscheidungen so getroffen hatte.
Wieso sonst, hat AMD so sehr auf Multithreading gesetzt und GCN AS so früh spendiert ? Weil man vllt der Meinung war, dass der Markt mit DX11 so lange stagnieren wird ?
(Man bedenkt, man muss sich heute entscheiden, auf welche Feature man setzt, die in 10 Jahre wichtig sein könnten. Man siehe Beispiel HBM, dass 8 Jahre benötigt hatte).
DX11 ist ja auch schuld, wieso viele keine neue Hardware kaufen, oder wieso viele bei Windows 7 bleiben. NV hat den Markt somit besser eingeschätzt, da sie eher aktuelle APIs optimiert haben und weniger Risiko auf neue APIs eingegangen sind. Da kommt eventuell der Vorteil, dass NV sich nur GPUs widmen muss und keine Sorgen über die CPU sparte machen muss.

Beispiel Zen. Nur weil AMD hier wieder zurückrudert, heißt das lange nicht, dass AMD oder Intel in 10 Jahren nicht wieder CMT einführt. Das selbe gilt für HBM. Nur weil NV jetzt auf HBM setzt, heißt das nicht, das in einigen Jahre, AMD und NV auf HMC oder eine Weiterentwicklung davon setzten. Dann ist auch verständlich wenn beide Firmen, AMD und NV abkommen schließen, dass beide von jeweiligen Technologien profitieren können.
Für AMD und NV sind solche Entwicklungen ein großes Risiko. Wenn man gewisse Technologien/Forschungen teilt, reduziert man für beide Risiken, also Win Win Situationen.

Und wenn AS vergleichen möchte, dann nehme ich eher OoO. Da brauche ich nur ein Bobcat mit einem älteren Atom vergleichen.

kisser schrieb:
Den größten Hersteller von GPUs vergessen? ;)
Ja habe ich vergessen. Wenn Intel Grafikkarten einführen würde, wäre es durchaus interessant. Dann würden sie nicht nur AMD Marktanteile rauben, sondern auch NV. Eventuell letzteren mehr.
 
Zuletzt bearbeitet:
pipip

Gar nicht mal so eine abwegige Theorie man hat bei Bulldozer damals auch gesagt das er zu sehr seiner Zeit voraus war und damit am Markt vorbei entwickelt hat.
Na ja es bleibt spannend sobald die ersten DX12 spiele dieses Jahr rauskommen wird man es ja sehen wobei
Herr Hallock heute verkündigt hat das die schon viele Spiele Partner für sich gewonnen haben soll die mit AMD entwickeln bzw. Optimieren was davon stimmt werden wir ja dann bei Tests sehen.
 
pipip schrieb:
GCN kann unter DX11 nicht optimal ausgelastet werden, da der Fokus bei der damaligen Entwicklung bei AMD für GCN eventuell anders verteilt war. Man kann durchaus annehmen, dass bei Bulldozer das ähnlich war und AMD eventuell damit gerechnet hatte, dass eine API wie DX12 wesentlich früher auf den Markt gekommen wäre. Denn dann ist durchaus verständlich, wieso AMD Bulldozer und GCN auf den Markt bringen wollte. Hier wären Bulldozer und GCN wenn es ums Gaming geht wesentlich besser abgeschnitten, hätte es zur Einführung von Bulldozer bereits DX12 gegeben. Deshalb gab es auch die damalige Aussage von AMD, dass es kein DX12 geben wird. Das war zu teils auch eine Begründung, wieso man den Markt so schlecht eingeschätzt hatte.

Absolut richtig. AMD hätte gerne einiges, was erst mit DX12 in die API Einzug gehalten hat, schon mit DX11.2 gehabt. (Ich habe vor längerer Zeit mal dazu etwas zur Entstehungsgeschichte von mantle geschrieben.) Das hat MS aber abgelehnt. Was Bulldozer betriffr, so mangelt es hier schlichtweg an Single-Thread Leistung. Man kann dieses "Problem" nicht in allen Fällen durch Erhöhen der Core-Zahl erschlagen. Eine multithrading-fähige DX-API kommt aber definitiv den AMD CPUs zugute.

pipip schrieb:
Natürlich habe ich keine Belege dafür, sondern ist lediglich eine Einschätzung von mir, aber diese Ansicht der Dinge erklärt durchaus wieso AMD einige Entscheidungen so getroffen hatte.

Mit der Einschätzung triffst du voll ins Schwarze.

pipip schrieb:
Und wenn AS vergleichen möchte, dann nehme ich eher OoO. Da brauche ich nur ein Bobcat mit einem älteren Atom vergleichen.

Passt als Vergleich auch sehr gut!
 
kisser schrieb:
Es macht wohl keinen Sinn, mit jemandem, dem der technische Sachverstand fehlt, darüber zu diskutieren.

Nochmal, Nvidia unterstützt kein Asyncrones Computing per Hardware.
Das haben Seiten wie Beyond3D und auch das 3D Center schon herausgestrichen.
Nvidia versucht jetzt eine Unterstützung hinzubekommen, damit, wenn das Feature eingesetzt wird, keine Leistung verloren geht und es gleichwertig ist, wie wenn es nicht eingeschaltet wird.
Offenbar kannst du das nicht raffen und meinst wohl Hardwarefeatures können genauso mit Emulation und Tricksereien gelöst werden.


Nvidia unterstützt mit ihrer Hardware kein Asynchronous Shader Computing und wenn sie es tun, dann nur mit einem Workaround.

Async Compute ist kein optionaler Bestandteil. Jede GPU muss es irgendwie beherrschen, zumindest es "emulieren" können um sich 12.0 Featurelevel auf die Fahne schreiben zu können.

Und da kann man jetzt diskutieren ob das eine Unterstützung ist oder nicht.
Jedenfalls schreibt sich AMD kein Directx12.1 Featurelevel auf die Fahne, auch wenn sie ROVs mit Sicherheit bei OIT emulieren werden müssen, falls es denn mal eingesetzt wird, bisher gibt's dazu nix im Netz zu finden.


Tatsache ist Nvidia unterstützt Async nicht mit ihrer Hardware, für mich bieten sie deshalb auch nicht mal Featurelevel 12.0

Bisher hat Nvidia das wahrscheinlich nur als Checklistenfeature emuliert und es funktioniert gar nicht, wie an der Leistung ablesbar.:rolleyes:

""Async compute" and execute indirect are not optional, are part of the API. You cannot query the GPU to know if they are supported or not. What is optional is if the hardware takes advantage or not of them. we can call them "implementation defined" by the hardware/driver. "

Wenn man keine Ahnung hat, einfach mal Füße stillhalten.

Vielleicht glaubst du ja Andre Lauritzen ( Intel ).

"When someone says that an architecture does or doesn't support "async compute/shaders" it is already an ambiguous statement (particularly for the latter). All DX12 implementations must support the API (i.e. there is no caps bit for "async compute", because such a thing doesn't really even make sense), although how they implement it under the hood may differ. This is the same as with many other features in the API."
 
Zuletzt bearbeitet:
@Pipip

Ich denke die Einschätzung ist sehr realistisch.

Nur was das auch im Umkehrschluss bedeutet stört mich etwas.

Mit den selben Argumenten könnte man behaupten das NV den Markt
stark ausgebremst hat.
Und das nehme ich selbst auch wirklich so wahr.

AMD hat in den Letzten Jahren wirklich viel dafür getan die Industrie vorran
zu treiben wie eben Mantle, TressFX, FreeSync oder auch die Vulkan (OpenGL Next) API.
Alles freie Software, wo im Gegenzug nVidia nur ihre geschlossenen APis und
Techniken durchdrücken will. (G-Sync, Dieser Hairworks Blödsinn usw..)

Ich denke das sich diese Investition in die Zukunft jetzt einfach auszahlt.
Und gerade Mantel war wichtig um DX12 ENDLICH auf den weg zu bringen.
 
Zuletzt bearbeitet:
Nana seid mal friedlich hier . Da herrscht ja ein Krieg zwischen AMD Fans und Nvida Fans :)
Aso bei mir könnte auch ALDI auf der Karte stehen wenn die Leistung stimmt .
Im Moment habe ich eine Gigaybyte 980 Ti G1 und die ist unter DirectX 11 Hammer was wir ja alle wissen .
Und ja Nvidia hat sehr wohl die 900 Serie mir voller DirectX 12 Unterstützung beworben und bestätigt hier nasch zu lesen :

http://www.hardwareluxx.de/index.ph...erstuetzung-fuer-eigene-grafikkarten-auf.html

Also sollte es wirklich stimmen das Nvidia die wichtige DirectX 12 Funktion Asynchronous Compute nicht Hardware seidig unterstürz werde das gelinde gesagt die gleiche Schweinerei wie das mit der 970er . Wenn sich das heraus stellen sollte geht meine 980 i zurück das habe ich mit meinem Hersteller schon aufgemacht. Das wäre ein Sachmangel .
Denn es kann dann nicht sein das mich eine 400€ Karte von AMD überholt unter DirectX 12.
Aber noch ist nicht bewiesen und keiner weiß wirklich ob die 900 Serie das kann oder nicht .

Was lesen wir jetzt aus der letzten Meldung heraus ? Ja das Asynchronous Compute in denn Aktuellen Treiben noch nicht richtig Freigeschaltet ist . Und Aktuell daran Gearbeitet wird das in denn Treibern freizuschalten . Also es ist die Rede davon das es eine Treiber Problem ist. Die Hardware könne das aber . Das ist es was mir die Meldungen sagen .

In diesen zwei Meldungen heißt es sehr wohl das die 900 Serei Asynchronous Compute Hardware seitig beherrscht .

http://www.gulli.com/news/26496-nvi...gen-fehlendem-asynchronous-compute-2015-09-07

http://www.pcgames.de/Ashes-of-the-...uld-an-mieser-DirectX-12-Performance-1170481/

Ma sehen wie es weiter geht :)

LG
Andy

Rechtsschreibfehler bitte ich zu entschuldigen :)
 
Wow das heisst nvidia könnte auch Autos ohne 4x4 herstellen und per Software Update hat man Allrad? Nice :lol:
 
pipip schrieb:
Dem glaube ich ihm mehr als dir, weil es seine Aufgabe ist, solche Projekte zu kommunizieren.
Nein. Die Aufgabe von PR-Mitarbeitern ist es die eigene Firma und deren Produkte nach Außen hin gut zu verkaufen.
Das sind die Leute, die dir erzählen GTX970 hat 4GB RAM oder Mantle wird auf jeden Fall opensource.
Ob man solchen Leuten wirklich blind vertrauen möchte, weiß ich nicht - unabhängig von welcher Firma sie kommen.

Mich wundert nur , dass alle gerade wissen, dass Maxwell Karten keine AS in Hardware können und das Feature deswegen jetzt per Software emuliert wird. Woher nehmt ihr diese Information? Aus Spekulationen diverser Webseiten, die Benchmarks durchgeführt haben auf Basis eines Treibers, der dieses Feature - laut Aussage des Herstellers - bislang nicht richtig unterstützt hat?
Woher wisst ihr, dass die Probleme in der Hardware zu finden sind und nicht im Treiber und dementsprechend auch nicht mit einem Update behoben werden können?

Übrigens sagt auch die PCGH nichts anderes als CB. Klar muss es das kleinste Ziel sein zumindst genauso schnell zu sein, als hätte man das Feature nicht aktiviert. Das impliziert aber, dass das größere Ziel sein wird einen Performance Gewinn herauszuziehen. Und was anderes steht letztlich auch hier nicht. Alles was darüber hinaus geht ist momentan reine Spekulation und wird sich aufklären, sobald NVidia einen entsprechenden Treiber parat hat, der die Probleme dann entweder lösen kann oder eben auch nicht.

Hier war AMD diesmal anscheinend schneller, wohl auch weil man das Feature softwareseitig bereits durch das Mantle Projekt schon früher angegangen ist. Allerdings sehe ich hier erst einen Vorteil für AMD, sobald die ersten fertigen DX12 oder Vulkan Spiele da sind und NVidia bis dahin das Problem nicht zufriedenstellend lösen konnte.
 
Warum schreibt ihr nicht dass es mit an Sicherheit grenzender Wahrscheinlichkeit eine Software-Lösung sein wird?
 
Meiner Meinung nach ist das alles eine komplett sinnlose Diskussion.

Für Leute mit Mittelklassehardware spielt es keine Rolle, da diese die ersten DX12 Spiele eh nicht in vollen Details genießen können.
Und Enthusiasten... die kaufen sich nächstes Jahr einfach eine neue Grafikkarte der nächsten Generation die DX12 im vollen Featureset unterstützt.

Und wenn man sich die laaange Geschichte des DirectX und der dafür gebauten Grafikkarten anschaut lief es jedes Mal genauso ab.
Erst die nächsten 2 Folgegeneration werden Spiele in reinem DX12 in anständiger Qualität und vor allem Geschwindigkeit berechnen können.
 
Nein es wurde anscheinend nur der DirectX 12 Funktion Asynchronous Compute in der Aktuellen Treibern wenig Beachtung geschenkt .
Weil sie unter DirektX 11 keine Bedeutung hat . Was habe nicht heiß das die 900 Serie das nicht Hardware seitig kann nur der Treiber kann es nicht ansteuern . Und nein nvidia könnte keine Autos ohne 4x4 herstellen und es dann mit Treiber nachreichen . Denn das wäre ein Sachmangel . Nur so neben bei auf keine Verpackung von AMD steht vorne drauf DirectX 12 nur hinten klein als directx 12 feature level. Aber bei jeder Nvidia der 900 Serie steht es vor ganz groß drauf . Von wegen nicht beworben .
 
Moriendor schrieb:
Die Hersteller haben ihre letzten Karten ja eher mit "4K Gaming", "Overclocker's Dream" (und dann nach +20MHz abkack.exe :lol: @ Fury) und "King of the Hill" (wohl eher King of the Maulwurfshügel :lol: ) usw. angepriesen.
Tja und da sieht man sofort, dass man es mit einem Nvidia Fanboy zu tun hat. Willst du nach so einem lahmen Trollversuch wirklich ernstgenommen werden? ;)

Es ist schon lächerlich, wie man versucht sich das Ganze schön zu reden. Nene, bis es zählbare DX12 Spiele gibt, habe ich schon meine nächste Nvidia Karte, das würde Jen Hsun Huang auch begrüßen! :lol:
Dass AS eher irrelevant/optional bleiben, glaube ich nicht, weil 1. die Konsolen auf ähnlicher Hardware basieren und 2. AMD eine DX12 Offensive plant:

You will find that the vast majority of DX12 titles in 2015/2016 are partnering with AMD. Mantle taught the development world how to work with a low-level API, the consoles use AMD and low-level APIs, and now those seeds are bearing fruit.
https://www.reddit.com/r/AdvancedMi...lock_oxide_games_made_a_post_discussing_dx12/
Hitman, Deus Ex, Tomb Raider und Star Citizen sind schon 4 Brocken, die AS unterstützen werden, weil AMD Partner.

Auch interessant zu lesen:
Oxide effectively summarized my thoughts on the matter. NVIDIA claims "full support" for DX12, but conveniently ignores that Maxwell is utterly incapable of performing asynchronous compute without heavy reliance on slow context switching.

GCN has supported async shading since its inception, and it did so because we hoped and expected that gaming would lean into these workloads heavily. Mantle, Vulkan and DX12 all do. The consoles do (with gusto). PC games are chock full of compute-driven effects.

If memory serves, GCN has higher FLOPS/mm2 than any other architecture, and GCN is once again showing its prowess when utilized with common-sense workloads that are appropriate for the design of the architecture.

Wie Nvidia mit der ganzen Sache umgeht, finde ich einfach schwach. Erst behauptet man, AotS sei kein guter DX12 Benchmark und verbuggt, dann stellt sich heraus, dass Maxwell kein Asynchronous Compute in Hardware unterstützt und nun fährt man anscheinend eine "no comment" Taktik. Warum nicht einfach klar stellen, was Sache ist? Warum meldet sich stattdessen sogar AMD und nimmt Nvidia in gewisser Weise sogar in Schutz, als man erklärt hat, dass eigentlich keine aktuelle GPU vollen DX12 Support bietet. Und nun darf Nvidia sogar weiterhin eng mit Oxide, einem Partner von AMD, an einer Lösung zusammen arbeiten. Es wäre schön, wenn es umgekehrt genauso wäre. Aber wir wissen ja, wie es bei Nvidia's Game Partner abläuft. Stichwort Ubisoft, pCars, Witcher usw usf.

off-topic:
der erste Nano PC :D
267FF24B55ED1A860AD8DC

http://iyd.kr/766
Ich finds sehr sehr nice.
 
Zuletzt bearbeitet:
Zumindest Tomb Raider und Deus Ex werden Async Shader sicher verwenden:

http://gearnuke.com/deus-ex-mankind-divided-use-async-compute-enhance-pure-hair-simulation/
http://gearnuke.com/rise-of-the-tom...breathtaking-volumetric-lighting-on-xbox-one/

Hitman denke ich auch wird auch ein AMD Game werden und bei Battlefront bin ich mir auch recht sicher, da die Frostbyte Engine Technologierträger ist und man schon eng bei Mantle mit AMD zusammengearbeitet hat. Bei allen anderen habe ich jetzt keine spezifischen Aussagen dazu gefunden.

@Andy1978

Soweit ich das laienhaft mitbekommen habe kann Maxwell Asnyc Compute nur dann wenn ein Software Scheduler die Aufgaben (mithilfe der CPU?!) verteilt was zu höheren Latenzen führt und zu bis jetzt negativen Performanceffekten führt. GCN kann das vollständig hardwareseitig und ohne Umwege und erhält somit einen Performanceboost.
 
Zuletzt bearbeitet:
Komm mal runter er hat nur das gesagt was mehr oder weniger in der kryptischen Mitteilung stand. Im Endeffekt ist noch gar nix klar.

Habe mir grade die Meldung auf Gulli durchgelsen. Der Autor hat Phantasie und davon ne Menge oder kann schlicht kein Englisch.
 
Zuletzt bearbeitet:
Ich hab das auch so verstanden das Async Compute nicht das Problem ist. Eher die Fütterung dieser Einheiten muss per CPU ausgeführt werden wo AMD das in der Hardware selbst macht. Das kostet natürlich Zeit die Daten über die CPU laufen zu lassen.
 
Ganz genau das sind nur Ausschnitte von Meldungen . Nicht davon kommt von mir .
Aber so eine Meldung gegen mich kommt ja von einen AMD Nutzer . Naja egal die
Zukunft wird Klarheit bringen .

Ich zertiere von Computer Base :

Künftig soll Async Compute mit einem neuen GeForce-Treiber nachgereicht und im Spiel auch für Nvidia-Grafikkarten freigeschaltet werden.

Ich zertiere von PCGH :

Nvidias DirectX 12-Riege soll das optionale Feature Asynchronus Shading durchaus unterstützen. Problem sollen die Treiber sein, wie ein Oxide-Entwickler nun verriet: "Wir haben gerade mit Nvidia über Async Computing geredet, in der Tat wird es vom Treiber noch nicht voll unterstützt, aber es sah so aus. Wir arbeiten eng mit ihnen zusammen, um Async Computing vollständig zu implementieren

LG
Andy
 
Zuletzt bearbeitet:
Vielleicht "zertierst" du mal etwas weniger und liest stattdessen zB die Kommentare auf den ersten paar Seiten...
 
Also gehen wir mal davon aus, das die Karten (in meinem Fall 980Ti) nicht per Hardware kann, habe ich dann nicht das Recht, meine Karte zurück zu geben? Ist eh erst 2-3 Wochen alt.
 
Zurück
Oben