@BookerDeWitt
dazu braucht es keine Belege, das war logisches Denken. Was käme den deiner Meinung nach für einen Leistungverlust von 1-5% bei Tests wie Tomb Raider DX12 in Frage? Woran könnte es liegen?
Anders gefragt? Wieso sollte es es DX12 vollkommen umsonst geben? Meinst du DX11 war so schlecht umgesetzt dass DX12 in jederlei Hinsicht ein Leistungs Plus geben muss? Die CPU Operationen also vollkommen fürn Arsch? Mit Sicherheit nicht...
Mit DX12 / Vulkan wurden wie gesagt Flaschenhälse entfernt, ergo kann man nun zB deutlich mehr Draw Calls absetzen. Setzt man aber vielleicht exakt genauso viele ab wie unter DX11, kann die CPU Leistung zwar deutlich geringer sein, der einzelne Drawcall aber durchaus etwas mehr Rechenzeit auf der GPU benötigen da eben hier auch ein gewisser Overhead entsteht.
Ich sag nicht dass es so sein muss, ich sage nur dass die Rechenzeit beim Einsatz von DX12 ja schlecht einfach verpufft und einem geschenkt wird.
Im Gegensatz zu dir finde ich dementsprechend auch den 3D-Mark für komplett nichtssagend. Erstens wurde ein paar Seiten vorher schon dessen fragwürdige AC-Unterstützung erklärt und zweitens lässt sich ein Run, der immer genau gleich abläuft viel zu gut per Treiber optimieren als ein Spiel, oder wie bei AotS ein random-Bench aus dem man den Durchschnitt mehrerer Durchläufe bildet. Solche Praktiken in Benchmarks gab es auf beiden Seiten schon immer, selbst nVidias Absage für 3/4-way-SLI außer in Benchmarks zeigt doch, welche Wichtigkeit man diesem beimisst.
dass eine richtiger Parcour immer die bessere Wahl bleibt ist klar, aber das AoS Setting ist deutlich spezieller als ein 3D Mark der immer gleich abläuft. Die bisherigen 3D Marks skalierten immer recht gut mit der GPU Leistung und dem Parcour. Beide Ansichten sind sicher valide. Da scheiden sich wohl die Geister ob man mehr auf AoS oder zb TimeSpy gibt, das wird dann wohl erst ein Parcour aus 10-20 DX12 / Vulkan Spielen zeigen.
Laut mehreren Aussagen mancher Verblendeter ist AC-Untersützung für nVidia gar nicht notwendig, denn angeblich ist Maxwell und dem zu Folge auch Pascal als Shrink mit leichter Überarbeitung immer perfekt ausgelastet. Natürlich leicht gesagt, wenn man dafür keine Beweise hat, dennoch sollte dann aber Pascal unter DX12+Async nicht schneller werden. Nun sehen wir aber, dass Pascal also doch davon profitiert, ergo sollte es Maxwell auch, wenn man es dort unterstützen würde. Summa summarum:
Wenn man sagt, dass AMD eine DX11-Schwäche hat und Maxwell aufgrund seiner "perfekten" Auslastung in DX12 nichts gewinnen kann (sondern Leistung verliert), dann liegt man falsch. Maxwell hat eine DX12-Schwäche, wie es mit Pascal aussieht muss sich erst noch klären.
das kommt drauf an was man unter "Schwäche" versteht. Des einen Schwäche ist des anderen Gewinn. Aktuell sieht es für AMD rosig aus da deren DX11 Schwäche zunehmend verpufft ja, aber eine Fiji leistet in Relation zur Rohleistung sicher auch in DX12 nicht immer das was sie leisten müsste.
Wie hoch die tatsächliche Auslastung der GPUs ist ist schwer zu sagen - aber eine Skalierung von lediglich ~20% bei 45% (R9 390X -> Fury X) mehr Shadern ist eher schwach.
Vergleicht man mit einer GTX 980 -> GTX 980 TI (+25%) kommt das eher hin. Man hat zwar auch hier 37,5% mehr Shader, aber auch einen Mehrtakt auf seiten der GTX 980 von ~10% in Game. Man skaliert rein über die Rohleistung deutlich besser, wenn gleich nicht linear.
Bedeutet um Umkehrschluss natürlich auch dass AMD zb bei der Fury X vielleicht noch Potential nach oben hat, bei Doom sieht man das gut.
Auch werden die Nvidia Karten sicher nicht perfekt ausgelastet sein, nicht immer, wohl aber auf höherem Niveau als bei Nvidia gerade mit alten API üblich. Das ist auch kein Geheimnis, das zeigt einem schon Verbrauch, Rohleistung zu Gamingleistung usw...
Wie sehr viel eher das CPU Limit bei AMD greift sieht man zb hier bei einer 2 Ghz CPU und dem AoS Vorgänger Swarm.
http://www.tweakpc.de/hardware/test..._337_50/benchmarks.php?benchmark=starswarmfps
289.24 Batches/ms mit ner R9 290X auf 2Ghz CPU, eine etwa gleich schnelle GTX 780 TI auf 752.85 Batches / ms bei ebenfalls 2 Ghz. Da ging sehr viel über den Treiber. Nvidia schafft es also etwa doppelt so viel Batches aus der CPU zu pressen ohne den Einsatz einer Low Level API.
Nicht verwunderlich dass AMD also über einen Spieleparcour in ein massives Auslastungsproblem bei der Fury X läuft. Mit ebenfalls
21% in satten 4k (am wenigsten anfällig) keine gute Skalierung, in FHD sind es magere
12% die die R9 390X und Fury X bei gleichem Takt und 45% mehr Shadern trennen.
Selbst wenn AMD hier eine R9 390X zu 100% ans Limit auslastet läge die Fiji Auslastung bei ~ 67% = (100% - (45% mehr Rohleistung - 12% (Performance Unterschied)).
Zurück zu deinem Thema ob Maxwell nicht von AS profitieren würde: Mit Sicherheit, aber schon anhand der Rechnung oben wird klar dass wohl weit weniger als AMD (aber schon in etwa dem Umfang wie es Pascal aktuell tut).
Dass aber Pascal nie in diesem Ausmaß wie AMD profitieren wird ist einfach nur logisch und auch nicht weiter schlimm. Das könnte man erwarten wenn die Skalierung so unterirdisch wäre wie bei AMD ja, da sie das aber nicht ist muss auch die Auslastung der GPU höher sein und somit der potentielle Gain durch Async Compute kleiner.