News DirectX 12: Nvidia-Treiber soll Async Compute nachreichen

pipip schrieb:
Aber DX12 hat ja auch noch andere Vorteile, nämlich dass hier im Vergleich zu DX11 bis zu 6 Cores optimal ausgelastet werden können.

Merkst du langsam was?! :D
Ohne Async Computing wird hier das gesamte Scheduling dafür verworfen, back to seriell!
Da kann man gerne 6 Kerne in Serie benutzen ... oder bei einem bleiben - das Resultat ist dasselbe.

mfg,
Max
 
@Pipip
Alles klar, als gewisse Features eben das Feature Level sind genau spezifiziert ? Aber ACE ist zwar ein Bestandteil von DX12, aber ist in einer sogenannten Grauzone ?
Den ersten Satz verstehe ich leider nicht. Wie meinst du das?
 
max_1234

Achso meinst du das ^^ Naja aber zu einer anderen Frage, die ich schon gestellt habe. Selbst wenn NV Maxwell AS unterstützten könnte, wäre genug "Rohperformance" da, damit auch die Performance ansteigt ?
Weißt du was ich meine.
Die Maxwell GPUs sind doch für DX11 zugeschnittene Karten die überall so "beschnitten", (ja drastisches Wort für einige, aber wird ja auch oft genug deshalb gelobt) dass ich mich frage, ob man mit AS, wie es bei AMD der Fall ist, überhaupt mehr rausholen könnte.
Aber gut, wenn das mit der Methode zusammen hängt, den CPU Overhead zu verringern, dann hat nicht nur Maxwell ein Problem, sondern auch alle anderen Karten, Kepler ect. Da hat ja NV viele Folien gezeigt, dass es bei NV mehr Karten gibt, die DX12 unterstützen.
Bei AMD Karten wurde es ja bemängelt, dass die soviel Ballast mittragen. Dieser Ballast ist aber eventuell der Grund, wieso man jetzt so an Performance dazu gewinnt (Dass AMD Chips zu ihren Konkurrenzchips mehr Rohpower haben, GFLOPS, ist ja nichts neues).

Aber abwarten. Ich bin eigentlich schon überzeugt, dass die Karten alle den CPU Overhead irwie reduzieren.

Nagut, aber das ist alles nur Spekulation und Hinterfragen. Ich glaube nicht, dass man hier so schnell eine Antwort bekommen wird. Hier sollte man wirklich auf Tests abwarten. Ich finde nur, es braucht keiner verwundert sein, dass einige skeptisch sind. NV hat dafür schon einges getan.
Außerdem bedenke man, bei HDMI 2.0 wurde ein großes Fass aufgemacht, aber AS wird verharmlost. Dabei werden viele wohl mit Games die As unterstützten früher in Berührung kommen als mit HDMI 2.0.
Einfach weil ein Monitor mit 4k was kostet, eine DX12 Spiel unter Windows 10 nicht (speziell für alle ab Win7).

Nai
Naja offensichtlich sind gewisse Sachen genormt und genau geklärt. Andere aber nicht, da reicht eine Emulation per Software.
Mit ging es nur darum. Wenn die fehlenden Features, denen AMD für FL 12.1 per software emulieren kann, ob dann AMD auch sagen kann, dass man FL 12.1 unterstützt, da es ja bei AS auch funktionieren soll.

Sprich "Rasterizer Order Views". Zugegeben, ich weiß nicht wie das jetzt per Hardware umgesetzt ist. Aber wenn das jetzt per Software simuliert werden kann, dann dürfte laut Logik, was AS per Software angeht, ja AMD auch behaupten können, sie unterstützen Rasterizer Order Views.
Verstehst du was ich meine ?

PS: Was ich genau meinte. Offensichtlich ist es genauer definiert, eingetragen, was unter ein Feature Level fällt. AS selbst dürfte aber nicht darunter Fallen, somit sehe ich hier nichts. Aber es wird meist mit DX12 in Verbindung gebracht und auch von Kern-Feature ist die Rede. Aber eventuell ist man hier in einer Grauzone, wo eine Emulation per Software ausreicht. Aber egal.
Im Endeffekt wird man heute auf einer Verpackung eh nur mehr betrogen.
 
Zuletzt bearbeitet:
Moon_Knight schrieb:
Es dürften doch ein paar mehr als 50 sein (was btw schon ein 1/4 aller Fury x entspräche, die bei MF über den Ladentisch gingen).
Allein der russisch/asiatische Raum dürfte diese Zahl schlucken.
Insgesamt kann man das also durchaus merken, vor allem mit einer Marketingkriegskasse im roten Bereich.
Von besagten Seiten fällt mir jetzt spontan kein NDA-Bruch ein. Gab es da was?

Hört einfach auf euch Zahlen auszudenken. Die echten kommen eh nie ans Licht, auch die Shop-Angaben von Verkäufen hier und da würde ich nie für bare Münze nehmen. Trau keiner Zahl die du nicht selbst gefälscht hast.

Ich glaube nicht das es nur 50 Samples gibt, NDA spielt auch überhaupt keine Rolle. Allein in Deutschland haben wir schon einige und das nicht nur bei großen Seiten oder Print, die üblichen Verdächtigen aus Holland, Englad und Frankreich haben auch Karten. USA wird genug bekommen, von Asien gar nicht mal zu sprechen.

Ich versteh das Geheule nicht, ist echt lächerlich. Wir haben vor 10 Jahren auch mal keine CPU-Samples von AMD bekommen, aber aus gutem Grund: Weil wir nix gemacht haben^^ Doch dann haben wir die Ärmel hochgekrempelt und sind nun bei jedem Launch in der ersten Reihe, haben einige Sachen gar vor allen anderen usw. Arbeiten, schaffen, tun, ranklotzen! Bei AMD sind das aktuell eben auch nicht nur Grakas allein, du musst dir auch mal APUs, CPUs usw ansehen. Und das machen wir eben alles .. aaaallles. Und wer jetzt immer noch nicht gerafft hat warum man Samples bekommt oder nicht, dem kann man auch kaum noch helfen :D
 
pipip schrieb:
Es ging nur um die Aussage, falls es bei NV okay ist, ein Feature per Software zu emulieren und somit Unterstützung angeben darf, ob das bei AMD dann auch der Fall ist, wenn AMD die fehlenden Features für DX12.1 per Software emulieren kann.

Das ist eine allgemeine Frage fürs bessere Verständnis. Wenn das der Fall ist, hat dann eine AMD auch FL 12.1 auf die Verpackung schreiben ?

Ach so. Den Zusammenhang hatte ich nicht verstanden. Wenn AMD alles unterstützt was für DX12 oder ein Feature Level nötig ist, sehe ich keinen Grund warum man die Karte dann nicht auch entsprechend bezeichnen oder bewerben sollte.
 
Ich bin ein schlechter Erklär-Bär, deshalb mal ein Auszug ausm Wiki zu DX12:

Within D3D 11 the commands are sent from the CPU to the GPU one by one, and the GPU works through these commands sequentially. This means that commands are bottlenecked by the speed at which the CPU could send these commands in a linear fashion.
Die GPU sendet maximal eine Anforderung an die CPU.

Within DirectX 12 these commands are sent as command lists, containing all the required information within a single package. The GPU is then capable of computing and executing this command in one single process, without having to wait on any additional information from the CPU.
Mehrere Anforderungen werden auf ein mal an die CPU übertragen, wobei diese auf vorhandene Kerne aufteilt werden (z.B. 6 Operationen auf 6 Kerne o 12 auf 12 Threads) - hauptsache die CPU kann innerhalb kürzester Zeit antworten, ohne weitere Scheduling betreiben zu müssen - immerhin wartet die GPU auf ein Ergebnis und kann im schlimmsten Fall kurzzeitig nicht arbeiten -> Ruckler.

Quelle: https://en.wikipedia.org/wiki/Direct3D

mfg,
Max
 
@Volker
Eigenlob stinkt. ;) Aber ich weiß was du sagen willst und du widersprichst mir da auch gar nicht: 50 Samples sind viel zu tief gestapelt.
 
Danke für die Aufklärung Volker.
 
Naja was wissen wir garnix :) Ok das habe ich schon geschrieben aber es ist so .
Es ist ja sehr aussage kräftig wenn eine AMD User hier sagt er hält sich daran was AMD zum AC Geheimnis von Nvidia sagt .
Auf der eine Meldungen geht hervor das Nvidia AC eine Hardware seitig kann und auf eine andren Meldung wider nicht .
Wirklich wissen kann es nur Nvidia und wenn der Treiber mal da ist und es auf dem Spiel Ashes of the Singularity was ja bekannter weiße AMD bevorzugt ist getestet wurde . Bis dahin könne wir hier spekulieren so viel wir wollen . Aber eine kann ich verstehen Jahre lang war AMD jetzt die zweite Geige . Da kommt jetzt ein Spiel daher wo AMD mal die Nase vorhat . Das sich die AMD User dran hängen wie eine Ertrinkender an eine Strohalm kann ich nach vollziehen . Das war jetzt keinesfalls böse gemeint .

LG
Andy
 
Andy1978

Das ist nicht das erste mal, dass NV etwas angibt, was dann nur "alibi" mäßig vorhanden ist. Das selbe hatten wir mit dem VRAM der 970 und das selbe hatten wir mit DX11. Es hat schon ein Grund, wieso es hier Leute gibt, die skeptisch sind und davon ausgehen, dass das selbe Spiel gespielt wird. Wenn du das berücksichtigst, merkst du, dass das mit AMD selbst gar nichts zu tun hat, sondern eine NV-Geschichte ist.
Und vom ertrinkenden AMD user glaube ich nicht, denn bisher können alte AMD Chips mit den aktuellen Maxwell mithalten. Lediglich der Verbrauch wird als Manko angeprangert. Siehe R9 390 8GB vs die 970 GTX mit 4GB. Hier ist der Verbrauch der AMD höher. Aber wie verhält sich das unter DX12 mit AS. Wenn die AMD R9 390 abheben kann, dann könnte man die GCN Shader auch "untertakten" und man kommt zu einer besseren Effizienz. Das hat nichts mit "am Strohhalm" zu tun.
Speziell, aktuell hat AMD technologisch die Nase vorne, da sie bereits einen HBM Chips haben, wo AS bewiesen ist. Somit kannst du damit rechnen, dass Artic Island für DX12 gewappnet sein wird, wenn es bei Fury oder den meisten R9 der Fall ist.
Bei Pascal steht ein großes Fragezeichen, weil die bekanntlich auf eine neue Architektur setzten werden, welche GCN ähneln soll. Aber auch hier nehme ich an, dass Pascal AS unterstützt (allein wegen der Effizienz) und NV nur auf den Zeitpunkt wartet, bis es mehre DX 12 Games gibt um Pascal groß zu promoten. Denn das war die Strategie auch bei Maxwell über Gameworks (siehe The Witcher 3).
Natürlich muss man das alles verfolgen um die Aussagen/ ihre Eindrücke einige hier nachvollziehen zu können.
Also was ich sagen will, die Skepsis kommt doch nicht von irgendwo her. Genauso wieso einige gegenüber AMD skeptisch sind aus diversen anderen Gründen, siehe ZEN.

Aber mann muss eigentlich zugeben, man kann NV nichts vorwerfen, weil die User offensichtlich kein Problem damit haben, zu mindestens jene die Informiert sind. Jene die sich nicht informieren, sind, was Hardware angeht, sowieso immer die "Verlierer" (um das überzogen auszudrücken).
Man kann AMD vorwerfen, dass sie das nicht genauso machen, doch, wie ich schon wo anderes beschrieben habe, AMD hatte eventuell schon früher mit einer API gerechnet, die AS und Multithreading optimaler ausnützt als es bei DX11 der Fall ist.

PS: Intel beschneidet sogar absichtlich ihre Chips, damit man für Features mehr Geld zahlt. Wenn das für den Kunden okay ist, wieso nicht ? AMD geht anders heran und versucht Kunden zu gewinnen, indem alle Karten meist alle Features unterstützten (Siehe AMD CPUs mit AES)
 
Zuletzt bearbeitet:
pipip schrieb:
DocWindows

Es ging nur um die Aussage, falls es bei NV okay ist, ein Feature per Software zu emulieren und somit Unterstützung angeben darf, ob das bei AMD dann auch der Fall ist, wenn AMD die fehlenden Features für DX12.1 per Software emulieren kann.

Du kannst keine fehlenden Features per Software emulieren. Es ist ein Unterschied in der Frage, WAS eine Hardware berechnen kann oder WIE sie das tut.
Eine Anwendung, die z.B. das 12_1 Feature ROV verwendet ist auf AMD nicht lauffähig.
 
erstaunlich wie viel man mit Halbwissen um heiße Luft rum-diskutieren kann. ^^

Bevor nicht 3-5 DX12 Titel, normaler beliebter Genres draußen sind, ist die ganze Diskussion zu Async Shader oder gar DX12 selbst hinfällig. Was erwartet ihr von DX12? + 50% FPS?
DX12 als solches wird, sofern kein CPU Limit vorliegt, die Leistung auch nur geringfügig erhöhen - oder war das bei bisherigen DX Generationen anders?
Eine Engine besteht ja nicht rein aus Funktionen die nun mit DX12 dazugekommen sind, das meiste baut auf bisherigen auf. Wenn man will kann man mit DX12 "Engines" 5000% Leistungssteigerung zeigen (Siehe 3D API Test), im Normalfall aber wohl eher + 5-15% ... wenn überhaupt. Oft macht DX12 Funktionalität vermutlich sogar gar kein Sinn (außer zwecks Marketing).

Abwarten und Tee trinken ^^, scheiß egal ob rot blau oder grün. Aktuell viel Rauch um nichts.
 
Zuletzt bearbeitet:
pipip schrieb:
Ich glaube eher, AMD kann durch die bessere optimale Auslastung gegenüber aktuelle Karten deshalb punkten, weil AMD die Chips für DX11 anpassen musste. Das sieht man ja auch an den Taktraten.
Nehmen wir an, wir hätten bereits eine API die mit AS umgehen könnte, dann hätte AMD Hawaii auch mit einem niedrigeren Takt releasen können. Die Effizienz würde steigen und Hawaii wäre wesentlich kühler.

Man muss hier erst einmal abwarten, ob durch die bessere Auslastung der GPU nicht der Stromverbrauch sogar noch weiter steigt.
Einheiten, die idlen, weil sie auf etwas warten, sollten eigentlich kaum Strom brauchen.
Ergänzung ()

pipip schrieb:
Aber abwarten. Ich bin eigentlich schon überzeugt, dass die Karten alle den CPU Overhead irwie reduzieren.

Natürlich tun sie das, weil das Limit in DX11 ja durch die Draw-calls verursacht wird. Erstaunlicherweise redet von den um den rund Faktor 10 höheren Drawcalls in Dx12 nun keiner mehr.
 
kisser schrieb:
Du kannst keine fehlenden Features per Software emulieren. Es ist ein Unterschied in der Frage, WAS eine Hardware berechnen kann oder WIE sie das tut.
Eine Anwendung, die z.B. das 12_1 Feature ROV verwendet ist auf AMD nicht lauffähig.

http://wccftech.com/amd-full-support-dx12-today-fury-missing-dx12-features/

Dann habe ich die Aussage von AMD falsch interpretiert:
“Raster Ordered Views and Conservative Raster. Thankfully, the techniques that these enable (like global illumination) can already be done in other ways at high framerates (see: DiRT Showdown).”

Was die Steigerung der besseren Auslastung angeht. Hier wirkt aber die Taktanpassung wieder hingegen, indem man sich mehr zum Sweetpoint bewegt. Man weiß ja, dass der aktuelle Takt der Hawaii Karten nicht im Sweetpoint befindet.
 
kisser schrieb:
Du kannst keine fehlenden Features per Software emulieren. Es ist ein Unterschied in der Frage, WAS eine Hardware berechnen kann oder WIE sie das tut.
Eine Anwendung, die z.B. das 12_1 Feature ROV verwendet ist auf AMD nicht lauffähig.

Wenn das stimmen würde kann man auch kein Asyn Shader "emulieren" (wie hier ja diskutiert wird)...klar kann man nahezu alles in "software" emulieren. Stell dir einfach vor das ganze wird dann als "virtuelle Maschine" dargestellt mit allen simulierten Hardwareeinheiten.

Man kann heutzutage sogar grundsätzlich in einer VM alle Hardware emulieren....ist halt nur sehr langsam.
 
Also es ist wirklich noch viel Spekulation dabei, aber an sich könnte man sich als Hardwarekäufer doch freuen (wenn man nicht gerade eine aktuelle NV GPU gekauft hat). Denn theoretisch könnte dies bedeuten, dass AMD mal wieder etwas Boden gut macht und wir letztendlich davon profitieren, weil die Preispolitik und Entwicklung eher zu unseren Gunsten stattfindet. Derzeit steuern wir ja knallhart auf ein Monopol (in anderen Bereichen würde man von Alleinherrschaft oder gar Diktatur sprechen) zu. Und das kann für den Kunden nicht gut sein. Bei Intel beschweren sich ja auch viele über die mageren Zuwächse, die wir seit Jahren sehen.

Leider vermute ich aber, dass AMD daraus gar nicht wirklich Kapital schlagen kann, weil die nächsten Nvidiakarten das ganze mit Sicherheit voll hardwareseitig unterstützen und die dann gerade noch rechtzeitig kommen. Und als AMD User kann man sich ja über die (sollte sich alles bewahrheiten) plötzlich gestiegene Leistung freuen und braucht ja erstmal keine neue Karte. Ergo könnte AMD wieder in die Röhre schauen, wie man so schön sagt.
 
Zuletzt bearbeitet:
pipip schrieb:

Um den gleichen visuellen Effekt zu erreichen, muss dieser anders programmiert werden (ohne die Verwendung von ROV). Das ist nicht mit einer Emulation des HW-Feature ROV gleichzusetzen.
Ergänzung ()

Iscaran schrieb:
Wenn das stimmen würde kann man auch kein Asyn Shader "emulieren"

Emulation ist hier auch der falsche Begriff. Da wird nichts emuliert, die Hardware wird bei NV nur anders angesteuert als bei AMD und braucht dazu die Hilfe des Treibers.
 
Krautmaster schrieb:
erstaunlich wie viel man mit Halbwissen um heiße Luft rum-diskutieren kann. ^^

Bevor nicht 3-5 DX12 Titel, normaler beliebter Genres draußen sind, ist die ganze Diskussion zu Async Shader oder gar DX12 selbst hinfällig. Was erwartet ihr von DX12? + 50% FPS?
DX12 als solches wird, sofern kein CPU Limit vorliegt, die Leistung auch nur geringfügig erhöhen - oder war das bei bisherigen DX Generationen anders?

Abwarten und Tee trinken ^^, scheiß egal ob rot blau oder grün. Aktuell viel Rauch um nichts.

Es ist erstaunlich wie oft du über andere meckern kannst.
"und unseriös um nicht zusagen "Kindergarten" verhalten sich hier ganz schön viele", "Viel Rauch um Nichts",
"Für wilde Theorien und Flamewar ist es aber zum einen viel zu früh" , "Bleibt die Frage nach den Auswirkungen",
"aber je nach dem wie gut Nvidia bereits heute die Auslastung der eigenen GPU im Griff hat , durch ggf. andere Techniken und Architektur, sind dinge wie Async Shader natürlich bedeutend unbedeutender als bei AMD "
"zumal es eh ungefähr nur ein Promil der Käufer interessiert solange in Games keine verminderte Leistung sichtbar ist."
"herrlich dieses inhaltlose Rumflamen, ohne ein einziges "richtige" DX12 Game wenige Wochen nach Release DX12 gesehen und getestet zu haben. Sorry, aber die meisten hier machen sich einfach nur lächerlich"

und das sind nur einiger deiner Beiträge
Du wiederholst quasi die ganze Zeit, dass Async Compute bei Nvidia doch nicht so wichtig ist wie bei AMD, dass das Spiel nur eine Alpha ist, dass es für Spekulationen noch zu früh ist, dass DX12 Spiele noch nicht draußen sind usw.
Das nervt vielleicht einige genau so wie dich diskutierende Leute mit Halbwissen nerven, schon mal darüber nachgedacht?
Vielleicht hast du einfach nur Angst, dass deine GTX 980 Ti doch die schlechtere Wahl war, auch wenn du behauptest, dass du mit ihr zufrieden bist. Vielleicht willst du einfach nur dein Gewissen beruhigen? Ansonsten verstehe ich nicht wie man so viel Zeit und Energie in solche Beiträge stecken kann. Einige deiner Beiträge gehen ja klar, aber manchmal sind deine Beiträge einfach auch Gemecker über Leute die meckern.

Und was sollen deiner Meinung nach die Leute tun, die sich jetzt eine Grafikkarte holen wollen? Warten bis 3-5 DX12 Spiele draußen sind? Sich eine Nvidia Karte holen und hoffen, dass sie trotz fehlendem, nativem Async Compute keinen Leistungsverlust in Spielen haben werden die dies unterstützen. Die meisten DX12 Spiele werden zusammen mit AMD entwickelt. Die Unreal Engine soll wohl Async Compute unterstützen genau wie die CryEngine und die Frostbite Engine.
Da ist es doch berechtigt wenn man sich Gedanken darüber macht, ob die gekaufte Nvidia Karte vielleicht doch nicht die richtige Wahl war. Vor allem nach dem VRAM Skandal haben vielleicht einige Nvidia eine 2. Chance gegeben und jetzt nach dieser Async Compute Sache kann ich mir vorstellen, dass einige von Nvidia genervt sind und sie deshalb einfach meiden. Ein Forum ist zum diskutieren da, also lass die Leute doch ruhig diskutieren. Auch Leute mit Halbwissen oder Fanboys bringen ab und zu mal gute Argumente. Was glaubst du wie leer die Threads wären wenn nur Leute wie Nai hier diskutieren dürften.
 
Zurück
Oben