News DirectX 12: Nvidia-Treiber soll Async Compute nachreichen

Wirklich jetzt? Wenn eine Low Budget Karte bsp Asynchronous Shader in Hardware hat ist es kein DX12 Etikettenschwindel...
Wieo denn? Sie ist als DirectX12 spezifiziert und ich kann damit nicht alle DX12 spiele spielen, weil die Karte zu lahm ist und es zur Ruckelorgie verkommt? Ist doch auch eine Aufweichung der DX12-Spezifikationen und ein Etikettenschwindel, wenn ich mir eine DX12 Karte kaufe und damit nicht alle DX12 Spiele spielen kann?


Es geht darum das hier Spezifikationen aufgeweicht werden sollen.
Dann zeige mir bitte ein Dokument, in welchem Microsoft diese Fähigkeit dafür verlangt, dass eine GPU DX12 kompatibel ist. APIs wie Directx12 verlangen soetwas Implementierungsspezifisches nämlich nie.
 
Zuletzt bearbeitet:
Meine Meinung: (natürlich nur Annahmen und völlig frei erfunden)
Nvidia wurde durch die schlechte Presse und den entstandenen Wirbel erst so richtig auf Oxide aufmerksam. Davor beachtete man Sie nur geringfügig. Top Marketing von Oxide. Nvidia reagierte auf die Anschuldigungen nicht, auch Magazine bekamen auf Anfragen keine Stellungnahme. Wenn jemand behauptet ich kann etwas nicht, ist es doch nur logisch, das Gegenteil zu beweisen. Tut Nvidia mWn aber immer noch nicht.
Was macht Nvidia? Sie einigen sich mit Oxide, dass es mit dem nächsten Treiber besser wird. (Hinter geschlossenem Vorhang) Ist der Titel nun im TWIMTBP Programm? Werden nun Amd-Bremsen eingebaut?
Oxide verdient wahrscheinlich mit Amd und nun auch mit Nvidia. Zusätzlich gabs ordentlich Werbung. Toll gemacht. Verarscht wird der Kunde, vor allem wieder mal von Nvidia.
Kann maxwell 2.0 nun AsC? Ich tippe auf nein.
 
Nai schrieb:
Dann zeige mir bitte ein Dokument, in welchem Microsoft diese Fähigkeit dafür verlangt, dass eine GPU DX12 kompatibel ist. APIs wie Directx12 verlangen soetwas Implementierungsspezifisches nämlich nie.

Zeig mir ein Dokument welches besagt, dass ein Auto auch fahren können muss ... Wir hätten alle auch bei Mopeds stehen bleiben können.

Hier mal ein Zitat aus Wikipedia:
The primary feature highlight for the new release of DirectX was the introduction of advanced low-level programming APIs for Direct3D 12 which can reduce driver overhead, developers are now able to implement their own command lists and buffers to the GPU, allowing for more efficient resource utilisation through parallel computation. Lead developer Max McMullen, stated that the main goal of Direct3D 12 is to achieve "console-level efficiency on phone, tablet and PC".[37]
https://en.wikipedia.org/wiki/DirectX#DirectX_12

In Grün dazu noch das Ziel von DirectX12. Da sich die API an Konsolen orientiert ist es dann nicht selbstredend wie man gedenkt sie zu verwenden?

mfg,
Max
 
Zuletzt bearbeitet:
Naja, Wikipedia ist für mich keine Seriöse Quellenangabe da jeder Hinz und Kunz dort Beiträge verfassen/ändern kann und nicht nach Richtigkeit geprüft wird
 
Moriendor schrieb:
Interessiert mich persönlich mangels Praxisrelevanz alles überhaupt nicht. Bevor DirectX 12 Spiele auch nur annähernd relevant werden, sind wir schon längst bei Volta (Pascal-Nachfolger) oder noch weiter. Wen interessiert, ob die jetzt schon toten 28nm Karten wie Maxwell irgendwelche DirectX 12 Features können? 28nm ist schon jetzt (k)alter Kaffee. Da kommt nix mehr. Das sind alles Auslaufmodelle...
Außer Ashes of the Singularity wird in absehbarer Zukunft nur noch die Gears of War Neuauflage (*gähn*) sowie dieses billige Fable MMO (*kotz*) DirectX 12 supporten.
Und nächstes Jahr (geschätzt Q2) steht dann schon Pascal vor der Tür und die Karten werden komplett neu gemischt. Eventuell gibt es dann sogar eine Praxisrelevanz, wenn dann tatsächlich mal die ersten DirectX 12 Spiele raus sind. Aber zum jetzigen Zeitpunkt ist das doch alles bestenfalls höchst akademischer Natur.

loool, wen es interessiert? die aktuellen käufer evtl? oder die besitzer dieser ominösen karten, die sich auf dx12 hardwareunterstützung beim kauf verlassen haben?

aber sicherlich nicht die nvidia jünger und leute die immer sofort das neuste kaufen wie dich.

auf 3dcdenter war auch ein artikel, da haben einige grafikkarten von amd 10-20% leistung gewonnen über die letzten 2jahre.. bei nvidia leider nicht… eine 680 die davor vorne weg war ist nun gleichstand etc.pp. und mit dx 12 wird es sicher ned besser.

alle die nen i7 / vieele kerne haben, macht das mit dem a.compute deutlich weniger aus.

die titan x ist trotzdem ne nette karte, aber wäre mir zu teuer, da bleib ich lieber bei ner AMD 390-er, passt bei den meisten gamern perfekt als "maximum"
 
Zuletzt bearbeitet:
-Ernesto- schrieb:
Der Kunde würde nicht mehr bei mir einkaufen und das wars :)

Naja jetzt müssest du die Karte nicht umtauschen weil ja noch nicht bewiesen ist . Aber sollte sich das bewahrheiten das Nvidia wider mal falsche angaben gemacht hat und die Karte eben keine volle DirectX 12 Unterstützung hat wie beworben . Vor allem wenn sich das durch erste DirectX 12 beweißen lässt . Dann stellt das einen Sachmangel da und du wirst sie zurück nehmen müssen . Ob es dir passt oder nicht das ist Gesetzlich geregelt . Für dich selbst sollte das kein Problem sein weil du als Händler die Karten ja auch kalmieren kannst . Aber dann verstehe ich denn Kunden auch, die Nvidia Karten kosten ja nicht nur ein Butterbrot . Es kann ja nicht sein das dann eine AMD Karte die nur DirectX 12 FL hat bessere unter DirectX 12 läuft als eine echte DirectX 12 Karte von Nvidia.

LG
Andy
 
Nai schrieb:
Wieo denn? Sie ist als DirectX12 spezifiziert und ich kann damit nicht alle DX12 spiele spielen, weil die Karte zu lahm ist und es zur Ruckelorgie verkommt? Ist doch auch eine Aufweichung der DX12-Spezifikationen und ein Etikettenschwindel, wenn ich mir eine DX12 Karte kaufe und damit nicht alle DX12 Spiele spielen kann?
Kopf -> Wand.... Ne du, das was du hier jetzt versuchst ist ein Trollversuch, und nichts weiter.
Du weißt ganz genau was gemeint ist, aber du versuchst hier Nebelkerzen zu zünden. :rolleyes:
 
Wirklich sehr amüsant hier zu lesen. Echter Kleinkrieg hier. Vielen Dank an alle die versucht haben sachlich und technische Hintergründe zu vermitteln. Es bleibt spekulativ, das ganze. Um von Beschiss zu reden ist es doch noch zu voreilig. Selbst wenn Nvidia die CPU zur Hilfe nehmen muss, es wird sich zeigen welche Auswirkung auf die Performance das hat. AMD hat gut vorgearbeitet und holt auf Nvidia auf, was ist daran schlimm? Wenn ein DX12 Game nicht auf Nvidia läuft, das wäre Beschiss. Es gab schon so oft Spiele die ganz unterschiedlich auf AMD oder Nvidia in der Performance waren/sind. Wenn Nvidia wirklich 10-20% durch die Bank unter DX12 über alle (fertigen und zukünftigen) Spiele verlieren würde, haben sie halt Mist gebaut. Der vergrämte Kunde wird sich dann halt woanders umsehen..
 
Andy1978 schrieb:
Naja jetzt müssest du die Karte nicht umtauschen weil ja noch nicht bewiesen ist . Aber sollte sich das bewahrheiten das Nvidia wider mal falsche angaben gemacht hat und die Karte eben keine volle DirectX 12 Unterstützung hat wie beworben

Er müsste sie in keinem Fall zurücknehmen, jedenfalls nicht aufgrund von DX12 Inkompatibilität, weil das Vorhandensein oder Nicht-Vorhandensein von in Hardware realisierten Asynchronen Computingeinheiten nicht Gegenstand der DX12-Spezifikation ist.
Lediglich die Funktion muss realisiert werden, aber der Weg wie dies geschieht ist nicht vorgegeben. Aus diesem Grund gibt der Treiber übrigens auch die Fähigkeit zu Asynchronem Computing zurück. Täte er dies nicht, wäre er nicht DX12-kompatibel. Wie man sieht fehlt es aber noch an einer ordentlichen Implementierung dieser Funktionalität, auf welchem Wege sie auch immer realisiert wird.

Ist im Prinzip die gleiche Soße wie bei Adaptive Sync. Da ist auch nur vorgegeben dass ein variabler Refresh möglich sein muss, aber nicht in welchem Frequenzbereich. Kann bei 30Hz losgehen, bei 40Hz oder noch höher. Wichtig ist, dass die Funktion da ist. Mehr nicht.
 
Zuletzt bearbeitet:
So viel staub rund um ein buggiges pre-beta spiel.

Wozu? Marketing um das spiel besser zu verkaufen und das ganze internet voll mit diesen rausch ist?
Genial.

Und wann wird dieses spiel FINAL ? 2016 ?
Bis dahin kann Nvidia machen was sie will IMHO.

Mich hat noch nie im leben ein performance von pre-alpha und pre-beta spielen, die erst nach halben jahr final werden und keine driver optimisation haben interesiert.

Was es mich angeht, solten wir übed AotS reden wenns einmal fertig ist und auch die Treiber angepasst sind.

Monentan gibts 20-30 ausgezeichnete DX11 spiele, wo AMD mit seinen 2015 round up nicht gerade toll gegen Nvidias 2014 roundup ankommt, das stört niemanden?

Aber ein pre-beta spiel ist das großes problem und thema des Jahres? OMG.
 
Schnixus schrieb:
Simplified…

Maxwell 2: Queues in Software, work distributor in software (context switching), Asynchronous Warps in hardware, DMA Engines in hardware, CUDA cores in hardware.
GCN: Queues/Work distributor/Asynchronous Compute engines (ACEs/Graphic Command Processor) in hardware, Copy (DMA Engines) in hardware, CUs in hardware.

Fazit:

Maxwell2 => 5 Steps, davon 2 auf wesentlich langsamerer Software-Seite
GCN: 3 Steps, davon alle 3 auf wesentlich schnellerer Hardware-Seite

Mehr ist dazu nicht zu sagen...

Quelle: http://www.guru3d.com/news-story/nvidia-will-fully-implement-async-compute-via-driver-support.html

So einfach ist halt nicht, weil der Treiber eben auch beim AMD den Workload nach ACE, GCP oder DMA Engines schickt. das Context Switching ist auch bei AMD eben nicht reine Hardware.

Momentan ist es eher wie bei Tesselation und AMD, wenn man max. fährt, dann bricht die Leistung ein und so scheint es bei NV gerade auch bei zu vielen Command Lists (mehr als 32) auch zu sein. Hier muss man sehen, dass hier evtl. sehr geringe Unterscheide in der Programmierung massive Auswirkungen haben. Es kann zum Beispiel sein, dass es bei AMD besser ist viele Command Lists mit viel Switching zu fahren, während man bei NV lieber wenige Lists mit mehr Befehlen fährt. Durch die grundsätzlich höhere Shaderauslastung bei NV profitiert Maxwell weit weniger von der Möglichkeit Computetasks "zwischen zuschieben" als CGN, wenn es um die Auslastung der Einheiten geht.

Das Hauptproblem ist aber, dass der NV Treiber momentan nicht richtig schaltet wenn wenn der Workload von Graphics auf Compute umschaltet. Wenn Graphics Workload vorliegt wartet er bis zum letzten Drawcall bevor er wieder Compute macht, obwohl er das nicht tun sollte.
 
Zuletzt bearbeitet:
PiPaPa schrieb:
Das wäre ja der größte Witz....
http://blogs.nvidia.com/blog/2015/05/15/dx-12-game-ready-drivers/

Da Frage ich mich doch wie nvidia an ein WHQL Zertifikat kommt, für einen Beta Treiber der noch nicht alle Funktionen implementiert hat.
Da dies ein rein optionales Feature ist hätte das auch komplett fehlen können um die Zertifizierung zu bekommen und so lange es funktioniert ist es für einen Funktionstest eigentlich auch egal wie schnell es funktioniert. Von daher ist der erhalt des WHQL Zertifikats eigentlich nicht weiter verunderlich.

Ein Großteil der WHQL Tests werden übrigens auch von nVidia selbst durchgeführt. MS überprüft dann nur noch die Ergebnisse dieser Tests und führt dann eigene Kompatibilitätstests durch. Von einer schlechten Performance hat MS also eventuell noch nicht einmal etwas gewusst.


Hieran sieht man mal wieder welchen Wert das Marketing Gewäsch bzgl des WHQL Zertifikats dann hat.
Das Zertifikat garantiert dir auch eigentlich nur, dass der Treiber auf Kompatibilität mit einer breiten Software- und Hardwarebasis getestet wurde. Nicht dessen Funktionaliität.
 
Ich bin gespannt. Fähige Treiberentwickler haben sie ja. Wahrscheinlich ist das reale Problem bei richtigen DX12 Spielen am Ende nicht größer, als das ebenfalls für die meisten eher überschaubare 3,5+0,5 Problem der 970. Viel heiße Luft.
 
Volker schrieb:
Aber es ist ja auch Mode seit Fury rumzuheulen wenn man kein Sample bekommt. Ist ja nicht so, dass es alle Jahre wieder mal so ist und man auch mal nix bekommt - einfach mal seinen f***** Job machen. Und da gehört eben auch mehr dazu als 3 Tests im Jahr abzuliefern, sondern auch nicht jeden Bullshit zu schreiben (Kitguru) und mit Herstellern zusammenzuarbeiten und mit denen zu reden. Und genau die, die das nicht machen, beschweren sich zufälligerweise jetzt ja auch.

Keine Samples gabs auch bei der berühmten Dualchipkarte um 3.000,- von Nvidia.
 
Zeig mir ein Dokument welches besagt, dass ein Auto auch fahren können muss ... Wir hätten alle auch bei Mopeds stehen bleiben können.
Nocheinmal: API-Standards verzichten bewusst darauf, solche Performance-Only Features von der Hardware zu verlangen.

Kopf -> Wand.... Ne du, das was du hier jetzt versuchst ist ein Trollversuch, und nichts weiter.
Du weißt ganz genau was gemeint ist, aber du versuchst hier Nebelkerzen zu zünden.
Es war kein Trollversuch, sondern eine analoge Argumentationskette, wo ich dir noch einmal verdeutlichen wollte, aus welchem Grund DirectX 12 keine Vorschriften macht, wie performant die Hardware bei bestimmten Aufgaben sein muss. Analogerweise stellt der DirectX-Standard keine Voraussetzungen an Hardwarefeatures, die nur deren Performance und nicht deren Funktionalität beeinflussen.
 
Hab mir nun doch ne 960 4GB Karte geholt auch wenn mir AMD sympatischer ist und DirectX12 damit wahrscheinlich nicht so rund laufen wird, die R9 Nano ist mir einfach zu teuer und DirectX12 ist noch nicht so weit verbreitet. Schade das AMD erst wohl jetzt seine Leistung ausschöpfen kann. Freue mich schon auf die nächste Generation, sowohl von AMD als auch von Nvidia.
 
Nai schrieb:
Nocheinmal: API-Standards verzichten bewusst darauf, solche Performance-Only Features von der Hardware zu verlangen.

Na gut, dann zeig ihm halt das Dokument welches besagt, dass jedes Auto einen Turbolader (Hardwareeinheit für Performance) haben muss um eine Zulassung für den Straßenverkehr (DX12) zu bekommen :lol:

EDIT: Ach Mist, jetzt hab ich mich nicht an meine eigenen Posting-Regeln gehalten.
 
Zuletzt bearbeitet:
Mr_Tee schrieb:
Hab mir nun doch ne 960 4GB Karte geholt auch wenn mir AMD sympatischer ist und DirectX12 damit wahrscheinlich nicht so rund laufen wird, die R9 Nano ist mir einfach zu teuer .

Tja das eine 380 fürs gleiche geld leicht Schneller als eine 960 ist das war wohl ein Geheimnis,
btw. ist deine 4GB ebenso langsamer als die 2GB 960

:lol:
 
KLEMSI schrieb:
Keine Samples gabs auch bei der berühmten Dualchipkarte um 3.000,- von Nvidia.

Ja und den Grund kennen wir. Ob die Nano ähnliche Gründe hat? Das ist doch die Frage. Warum es nicht möglich ist, die größten Seiten/Zeitschriften zu beliefern...
Entweder hat man mit dem Thema 28nm abgeschlossen und weiß um die Schwächen dieser Karte (welche auch immer das sind) oder es fehlt dafür schon das Geld.
------
@Thread
P.S.: Autovergleiche mal wieder?! :lol:
------
@iAtNeH
Nur ist mit der 380 momentan auch nichts mit DX12. Warum auch immer. AMD sagt ja nichts.
 
Zuletzt bearbeitet:
iAtNeH schrieb:
Tja das eine 380 fürs gleiche geld leicht Schneller als eine 960 ist das war wohl ein Geheimnis,
btw. ist deine 4GB ebenso langsamer als die 2GB 960

:lol:

Es geht um die Kartengröße darum auch die Fury nano.
 
Zurück
Oben