Bericht Time Spy: 19 Grafikkarten im 3DMark für DirectX 12 im Vergleich

von Schnitzel schrieb:
OK, thx für den Hinweis. Dann geh ich mal schnell ein Technologie-Unternehmen gründen. Bis Mittwoch sollte ich dann drin sein. :evillol:

Dann wirst du dich hier aus dem Thema verabschieden dürfen, denn da wird dann eine Verschwiegenheitsklausel mit drin sein. :D
 
Ich habe mit meinem System die folgenden Punkte:

Gesamt: 5065

Graphics score: 5835
Graphics test 1: 38.55 FPS
Graphics test 2: 33.07 FPS
CPU test: 2900
CPU test: 9.75 FPS

Die CPU läuft mit 4,4GHz und die 980 Ti mit 1,5GHz.
Liegt also ziemlich genau auf dem Niveau von der 1070.
 
Folgendes Ergebnis:

Gesamt: 5896

• Graphics score: 6438
• Graphics test 1: 42.19 FPS
• Graphics test 2: 36.74 FPS
• CPU test: 3993
• CPU test: 13.42 FPS
 
@janeeisklar
kannst du bitte ein Screenshot von GPUView posten? Ich denke, wir alle sollten uns selbst mit den eigenen Augen von deiner These überzeugen können.

Des Weiteren ist eine technische Erklärung für die Behauptung, es würde "'nur' nVidias Preemption" Methode angewendet werden, sehr hilfreich. "To preempt" bedeutet auf deutsch "etw./jdm. zuvorkommen". Wie kann dies also dazu führen, dass die Verarbeitungszeit eines Frames sinkt?!
 
Halten wir doch einmal ein paar Gedanken fest:

- Maxwell verliert unter DX12+Async nur deshalb Leistung, weil die CPU-Entlastung ja irgendwie die GPU mehr belasten müssen (@Krautmaster)

- Im Time Spy verliert Maxwell mit Async keine Leistung, im Gegensatz zu bisherigen DX12-Spielen

- Ashes of the Singularity = Beta, Bechmark etc. pp. -> keine validen Ergebnisse

- 3D-Mark Time-Spy = synthetischer Benchmark, aber dennoch sind die Ergebnisse natürlich representativ für Spiele

- Async-Shader sind eine AMD-Erfindung, nVidia benötigt diese nicht, denn deren Architektur ist einfach beinahe immer maximal ausgelastet und deshalb zeigt Pascal auch Profit durch Async ;)

- DX12 und Vulkan sind unwichtig für die Zukunft

- Ein Benchmark, der immer genau gleich abläuft lässt sich nicht per Treiber aufs Maximum optimieren, mehr als die gleiche Architektur in Spielen jemals schaffen könnte

et cetera pp..

Nur mal so um einigen Leuten die eigenen paradoxen Aussagen entgegen zu halten.
 
BookerDeWitt schrieb:
Halten wir doch einmal ein paar Gedanken fest:

- Maxwell verliert unter DX12+Async nur deshalb Leistung, weil die CPU-Entlastung ja irgendwie die GPU mehr belasten müssen (@Krautmaster)

- Im Time Spy verliert Maxwell mit Async keine Leistung, im Gegensatz zu bisherigen DX12-Spielen

- Ashes of the Singularity = Beta, Bechmark etc. pp. -> keine validen Ergebnisse

- 3D-Mark Time-Spy = synthetischer Benchmark, aber dennoch sind die Ergebnisse natürlich representativ für Spiele

- Async-Shader sind eine AMD-Erfindung, nVidia benötigt diese nicht, denn deren Architektur ist einfach beinahe immer maximal ausgelastet und deshalb zeigt Pascal auch Profit durch Async ;)

- DX12 und Vulkan sind unwichtig für die Zukunft

- Ein Benchmark, der immer genau gleich abläuft lässt sich nicht per Treiber aufs Maximum optimieren, mehr als die gleiche Architektur in Spielen jemals schaffen könnte

et cetera pp..

Nur mal so um einigen Leuten die eigenen paradoxen Aussagen entgegen zu halten.

Mit 95% deiner Aussage hast du dich gerade selbst ins aus geschossen. Die anderen 5% sind Satzzeichen.... holy Crap is wohl schon zu spät für vernünftige Diskusionen hier
 
Sturmwind80 schrieb:
Nur wenn AMD nächstes Jahr was schnelles heraus bringt, hat nvidia schon wieder neue Karten auf dem Markt die noch schneller sind. ;)


...und noch teurer sind...:mad:
 
Sunjy Kamikaze schrieb:
Mit 95% deiner Aussage hast du dich gerade selbst ins aus geschossen. Die anderen 5% sind Satzzeichen.... holy Crap is wohl schon zu spät für vernünftige Diskusionen hier

Ironiedetektor defekt? Das sind alles keine Wahrheiten? Es ging in diesem Beitrag nur darum die unwahren Behauptungen mancher Leute aufzuzeigen..
 
ampre schrieb:
Tja der Benchmark ist schon interssant. Absoluter Verlier die 780ti absoluter Gewinner die 290x! Bei allen andern Karten Hmm geht so! Man sieht sehr schön das man von vielen Shadern Profitiert (GTX 1070 --> GTX 1080)

http://www.guru3d.com/articles-pages/futuremark-3dmark-timespy-benchmark-review,1.html

Bin ja mal gespannt zu was die 780ti wechsler jetzt greifen!

Bei den Preisen, die selbst für eine gebrauchte! gtx 780 ti in der Bucht immer noch erzielt werden (sooo viele dumme Menschen...), ist eine RX 480 eindeutig die Karte der Wahl.
 
@Zotac2012

Jede DirectX-11-Grafikkarte, die einen Treiber für DirectX 12 erhalten hat, kann den Benchmark damit wiedergeben. Die neuen Hardware-Features von DirectX 12 (FL 12_0 und 12_1) setzt der Benchmark weder voraus, noch testet er sie.

solange die Hardware-Features nicht getestet werden, ist dieser Test Schrott und bleibt Schrott, egal wie heftig Nvidia Fanboys das dementieren, denn der Test bevorzugt eindeutigt Nvidia Karten dadurch, weil er groß als DX12 Test ausgegeben wird.
 
Hier mein Ergebniss.
 

Anhänge

  • Benchmark.png
    Benchmark.png
    1,9 MB · Aufrufe: 542
BookerDeWitt schrieb:
Halten wir doch einmal ein paar Gedanken fest:

- Maxwell verliert unter DX12+Async nur deshalb Leistung, weil die CPU-Entlastung ja irgendwie die GPU mehr belasten müssen (@Krautmaster)

- Im Time Spy verliert Maxwell mit Async keine Leistung, im Gegensatz zu bisherigen DX12-Spielen

- Ashes of the Singularity = Beta, Bechmark etc. pp. -> keine validen Ergebnisse

- 3D-Mark Time-Spy = synthetischer Benchmark, aber dennoch sind die Ergebnisse natürlich representativ für Spiele

- Async-Shader sind eine AMD-Erfindung, nVidia benötigt diese nicht, denn deren Architektur ist einfach beinahe immer maximal ausgelastet und deshalb zeigt Pascal auch Profit durch Async ;)

- DX12 und Vulkan sind unwichtig für die Zukunft

- Ein Benchmark, der immer genau gleich abläuft lässt sich nicht per Treiber aufs Maximum optimieren, mehr als die gleiche Architektur in Spielen jemals schaffen könnte

et cetera pp..

Nur mal so um einigen Leuten die eigenen paradoxen Aussagen entgegen zu halten.

hm? was ist das für ne Ansammlung? Sinn und Zweck? :rolleyes:

- Maxwell verliert unter DX12+Async nur deshalb Leistung, weil die CPU-Entlastung ja irgendwie die GPU mehr belasten müssen (@Krautmaster)

steh ich nach wie vor zu der Aussage, wieso auch nicht? Je nach Umstand und Implementierung kann DX12 sicher auch das ein oder andere % kosten (nicht viel und eher im Rahmen der Messtolleranz) - eben auch gerade dann wenn man zB nicht exzessiv die API belastet (also eher ein DX11 Port macht). Dann tritt unter DX11 nicht zwingend ein Overhead Bound auf -> ergo ist es dennoch schnell. uU etwas schneller als dann im Port, gerade auch mit ner High End CPU.

Man löst mit den neuen APIs ja nicht einen CPU-Flaschenhals in Luft auf sondern verlagert die Funktionen von CPU auf GPU.

- Ashes of the Singularity = Beta, Bechmark etc. pp. -> keine validen Ergebnisse

hat das mittlerweile seinen Beta Status verlassen? Auch zu der Aussage steh ich, imho ist das AoS Genre valide, wenn gleich auf Computing ausgelegt sowie 1 Mrd Einheiten mit je einem Drawcall absetzbar... bietet sich also an um die "Low Level" Implementierung zu testen und Vorteile aufzuzeigen ja, aber einer durchschnittlichen Gaming Engine einspricht das nicht (außer man zockt nur Spiele wie Supreme Commander oder AoS). Ganz ehrlich, da ist der Time Spy Benchmark noch 100x aussagekräftiger und wohl eher mit angehenden DX12 Spielen vergleichbar ;)

- Async-Shader sind eine AMD-Erfindung, nVidia benötigt diese nicht, denn deren Architektur ist einfach beinahe immer maximal ausgelastet und deshalb zeigt Pascal auch Profit durch Async ;)

Zwar nicht so von mir aber im Prinzip scheint nVidia zumindest Async Shader in Pascal irgendwie umgesetzt zu haben. Ich habe nicht gesagt dass es keinen Vorteil bringt, der Vorteil aber je nach typischer GPU Belastung deutlich kleiner ausfallen würde als bei der Konkurrenz. Und das sieht man ja auch bei Pascal. Zuwächse sind da, aber im hohen zweistelligen Bereich wie teils bei den GCN Karten.
Gut Möglich dass sich ähnliche Resultate auch auf Maxwell umsetzen lassen würden. In wie fern die Zuwächse wirklich auf die Architektur gehen... schwer zu sagen. Maxwell und Pascal sind sich da ja eigentlich sehr ähnlich. Möglich das Nvidia das aber für Maxwell gar nicht umsetzen / aktivieren will.


@Async Compute

Muss es zwingend GPUComputing sein dass hier parallel ausgeführt wird? Es kann doch genauso gut Grafikberechnung quasi ein zweiter Thread aufgemacht werden oder? Läuft zb etwas wie TXAA als Computing oder Graphics?
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Man löst mit den neuen APIs ja nicht einen CPU-Flaschenhals in Luft auf sondern verlagert die Funktionen von CPU auf GPU.
Hast du dazu auch irgendwelche Belege dazu? welche Funktionen denn unter DX12 auf die GPU gelegt werden? Afaik geht DX12 nur effizienter mit den Draw-Calls um, die GPU übernimmt keine Aufgaben der CPU?



Krautmaster schrieb:
hat das mittlerweile seinen Beta Status verlassen? Auch zu der Aussage steh ich, imho ist das AoS Genre valide, wenn gleich auf Computing ausgelegt sowie 1 Mrd Einheiten mit je einem Drawcall absetzbar... bietet sich also an um die "Low Level" Implementierung zu testen und Vorteile aufzuzeigen ja, aber einer durchschnittlichen Gaming Engine einspricht das nicht (außer man zockt nur Spiele wie Supreme Commander oder AoS). Ganz ehrlich, da ist der Time Spy Benchmark noch 100x aussagekräftiger und wohl eher mit angehenden DX12 Spielen vergleichbar ;)

Das einzig fragwürdige an AotS ist wohl der Verzicht auf Instancing, denn dadurch wird die CPU-Last natürlich künstlich erhöht. Nur die Ergebnisse im GPU-Limit sind interessant und representativ. Dort bildet sich heraus, dass - wie in anderen DX12-Titeln auch- GCN sehr gut von Async-Shadern profitiert, Maxwell dadurch aber einen Performance-Hit bekommt (-> fehlende Unterstützung?) und Pascal entweder gleich schnell bleibt oder leicht zunimmt. Selbes sieht man auch unter Vulkan (bei guter Implementierung).

Im Gegensatz zu dir finde ich dementsprechend auch den 3D-Mark für komplett nichtssagend. Erstens wurde ein paar Seiten vorher schon dessen fragwürdige AC-Unterstützung erklärt und zweitens lässt sich ein Run, der immer genau gleich abläuft viel zu gut per Treiber optimieren als ein Spiel, oder wie bei AotS ein random-Bench aus dem man den Durchschnitt mehrerer Durchläufe bildet. Solche Praktiken in Benchmarks gab es auf beiden Seiten schon immer, selbst nVidias Absage für 3/4-way-SLI außer in Benchmarks zeigt doch, welche Wichtigkeit man diesem beimisst.

Krautmaster schrieb:
Zwar nicht so von mir aber im Prinzip scheint nVidia zumindest Async Shader in Pascal irgendwie umgesetzt zu haben. Ich habe nicht gesagt dass es keinen Vorteil bringt, der Vorteil aber je nach typischer GPU Belastung deutlich kleiner ausfallen würde als bei der Konkurrenz. Und das sieht man ja auch bei Pascal. Zuwächse sind da, aber im hohen zweistelligen Bereich wie teils bei den GCN Karten.
Gut Möglich dass sich ähnliche Resultate auch auf Maxwell umsetzen lassen würden. In wie fern die Zuwächse wirklich auf die Architektur gehen... schwer zu sagen. Maxwell und Pascal sind sich da ja eigentlich sehr ähnlich. Möglich das Nvidia das aber für Maxwell gar nicht umsetzen / aktivieren will.

Laut mehreren Aussagen mancher Verblendeter ist AC-Untersützung für nVidia gar nicht notwendig, denn angeblich ist Maxwell und dem zu Folge auch Pascal als Shrink mit leichter Überarbeitung immer perfekt ausgelastet. Natürlich leicht gesagt, wenn man dafür keine Beweise hat, dennoch sollte dann aber Pascal unter DX12+Async nicht schneller werden. Nun sehen wir aber, dass Pascal also doch davon profitiert, ergo sollte es Maxwell auch, wenn man es dort unterstützen würde. Summa summarum:

Wenn man sagt, dass AMD eine DX11-Schwäche hat und Maxwell aufgrund seiner "perfekten" Auslastung in DX12 nichts gewinnen kann (sondern Leistung verliert), dann liegt man falsch. Maxwell hat eine DX12-Schwäche, wie es mit Pascal aussieht muss sich erst noch klären.

Die größte Problematik liegt darin, dass nVidia bisher immer eine Extra-Wurst, sprich eigenen Renderpfad bekommen muss (wie in AotS oder DooM 2016). In diesem wird auf AC verzichtet (warum? Das muss man sich selber denken).
Technologisch stellt sich nVidia damit wieder ein bisschen als Bremse hin, auf Konsolen (GCN) optimierter Code muss bei der Portierung auf den PC extra noch einmal für nVidia angepasst werden, sonst passieren solche Dinge wie in Quantum Break (das zugebenermassen zum Start eine Katastrophe war und auf guten Stand gepatcht werden musste, auf nVidia-Karten aber immer noch nur mies läuft).

Siehe:

Hier

und

Hier
 
@BookerDeWitt

dazu braucht es keine Belege, das war logisches Denken. Was käme den deiner Meinung nach für einen Leistungverlust von 1-5% bei Tests wie Tomb Raider DX12 in Frage? Woran könnte es liegen?

Anders gefragt? Wieso sollte es es DX12 vollkommen umsonst geben? Meinst du DX11 war so schlecht umgesetzt dass DX12 in jederlei Hinsicht ein Leistungs Plus geben muss? Die CPU Operationen also vollkommen fürn Arsch? Mit Sicherheit nicht...

Mit DX12 / Vulkan wurden wie gesagt Flaschenhälse entfernt, ergo kann man nun zB deutlich mehr Draw Calls absetzen. Setzt man aber vielleicht exakt genauso viele ab wie unter DX11, kann die CPU Leistung zwar deutlich geringer sein, der einzelne Drawcall aber durchaus etwas mehr Rechenzeit auf der GPU benötigen da eben hier auch ein gewisser Overhead entsteht.

Ich sag nicht dass es so sein muss, ich sage nur dass die Rechenzeit beim Einsatz von DX12 ja schlecht einfach verpufft und einem geschenkt wird.

Im Gegensatz zu dir finde ich dementsprechend auch den 3D-Mark für komplett nichtssagend. Erstens wurde ein paar Seiten vorher schon dessen fragwürdige AC-Unterstützung erklärt und zweitens lässt sich ein Run, der immer genau gleich abläuft viel zu gut per Treiber optimieren als ein Spiel, oder wie bei AotS ein random-Bench aus dem man den Durchschnitt mehrerer Durchläufe bildet. Solche Praktiken in Benchmarks gab es auf beiden Seiten schon immer, selbst nVidias Absage für 3/4-way-SLI außer in Benchmarks zeigt doch, welche Wichtigkeit man diesem beimisst.

dass eine richtiger Parcour immer die bessere Wahl bleibt ist klar, aber das AoS Setting ist deutlich spezieller als ein 3D Mark der immer gleich abläuft. Die bisherigen 3D Marks skalierten immer recht gut mit der GPU Leistung und dem Parcour. Beide Ansichten sind sicher valide. Da scheiden sich wohl die Geister ob man mehr auf AoS oder zb TimeSpy gibt, das wird dann wohl erst ein Parcour aus 10-20 DX12 / Vulkan Spielen zeigen.

Laut mehreren Aussagen mancher Verblendeter ist AC-Untersützung für nVidia gar nicht notwendig, denn angeblich ist Maxwell und dem zu Folge auch Pascal als Shrink mit leichter Überarbeitung immer perfekt ausgelastet. Natürlich leicht gesagt, wenn man dafür keine Beweise hat, dennoch sollte dann aber Pascal unter DX12+Async nicht schneller werden. Nun sehen wir aber, dass Pascal also doch davon profitiert, ergo sollte es Maxwell auch, wenn man es dort unterstützen würde. Summa summarum:

Wenn man sagt, dass AMD eine DX11-Schwäche hat und Maxwell aufgrund seiner "perfekten" Auslastung in DX12 nichts gewinnen kann (sondern Leistung verliert), dann liegt man falsch. Maxwell hat eine DX12-Schwäche, wie es mit Pascal aussieht muss sich erst noch klären.

das kommt drauf an was man unter "Schwäche" versteht. Des einen Schwäche ist des anderen Gewinn. Aktuell sieht es für AMD rosig aus da deren DX11 Schwäche zunehmend verpufft ja, aber eine Fiji leistet in Relation zur Rohleistung sicher auch in DX12 nicht immer das was sie leisten müsste.

Wie hoch die tatsächliche Auslastung der GPUs ist ist schwer zu sagen - aber eine Skalierung von lediglich ~20% bei 45% (R9 390X -> Fury X) mehr Shadern ist eher schwach.

Vergleicht man mit einer GTX 980 -> GTX 980 TI (+25%) kommt das eher hin. Man hat zwar auch hier 37,5% mehr Shader, aber auch einen Mehrtakt auf seiten der GTX 980 von ~10% in Game. Man skaliert rein über die Rohleistung deutlich besser, wenn gleich nicht linear.
Bedeutet um Umkehrschluss natürlich auch dass AMD zb bei der Fury X vielleicht noch Potential nach oben hat, bei Doom sieht man das gut.

Auch werden die Nvidia Karten sicher nicht perfekt ausgelastet sein, nicht immer, wohl aber auf höherem Niveau als bei Nvidia gerade mit alten API üblich. Das ist auch kein Geheimnis, das zeigt einem schon Verbrauch, Rohleistung zu Gamingleistung usw...
Wie sehr viel eher das CPU Limit bei AMD greift sieht man zb hier bei einer 2 Ghz CPU und dem AoS Vorgänger Swarm.

http://www.tweakpc.de/hardware/test..._337_50/benchmarks.php?benchmark=starswarmfps

289.24 Batches/ms mit ner R9 290X auf 2Ghz CPU, eine etwa gleich schnelle GTX 780 TI auf 752.85 Batches / ms bei ebenfalls 2 Ghz. Da ging sehr viel über den Treiber. Nvidia schafft es also etwa doppelt so viel Batches aus der CPU zu pressen ohne den Einsatz einer Low Level API.

Nicht verwunderlich dass AMD also über einen Spieleparcour in ein massives Auslastungsproblem bei der Fury X läuft. Mit ebenfalls 21% in satten 4k (am wenigsten anfällig) keine gute Skalierung, in FHD sind es magere 12% die die R9 390X und Fury X bei gleichem Takt und 45% mehr Shadern trennen.

Selbst wenn AMD hier eine R9 390X zu 100% ans Limit auslastet läge die Fiji Auslastung bei ~ 67% = (100% - (45% mehr Rohleistung - 12% (Performance Unterschied)).

Zurück zu deinem Thema ob Maxwell nicht von AS profitieren würde: Mit Sicherheit, aber schon anhand der Rechnung oben wird klar dass wohl weit weniger als AMD (aber schon in etwa dem Umfang wie es Pascal aktuell tut).
Dass aber Pascal nie in diesem Ausmaß wie AMD profitieren wird ist einfach nur logisch und auch nicht weiter schlimm. Das könnte man erwarten wenn die Skalierung so unterirdisch wäre wie bei AMD ja, da sie das aber nicht ist muss auch die Auslastung der GPU höher sein und somit der potentielle Gain durch Async Compute kleiner.
 
Zuletzt bearbeitet:
MartinFerber schrieb:
...und noch teurer sind...:mad:

Eine normale Karte für Full HD mit allen Settings auf Max und genügend FPS reicht doch...wer mehr will, zahlt auch mehr, verstehe das Problem nicht...
Allein mindfactory hat bisher 3800 Karten der 1080 GTX verkauft....teuer ist also relativ und wird vom Käufer entschieden...
 
Weiß nicht ob's hier schon stand, aber für den CB-Test ist das ja auch nicht ganz uninteressant, da eben Maxwell mit AC @on/@off getestet wurde. Der Punkt ist allerdings, das AC unter Maxwell permanent deaktiviert bleibt. Also egal was getan wird, AC lässt sich nicht auf Maxwell aktivieren. Das funktioniert erst dann, wenn die ominöse Treiberfreischaltung 2020 vielleicht mal kommt...

The reason Maxwell doesn't take a hit is because NVIDIA has explictly disabled async compute in Maxwell drivers. So no matter how much we pile things to the queues, they cannot be set to run asynchronously because the driver says "no, I can't do that". Basically NV driver tells Time Spy to go "async off" for the run on that card. If NVIDIA enables Asynch Compute in the drivers, Time Spy will start using it. Performance gain or loss depends on the hardware & drivers.
http://steamcommunity.com/app/223850/discussions/0/366298942110944664/
 
ruegen1 schrieb:
Eine normale Karte für Full HD mit allen Settings auf Max und genügend FPS reicht doch...wer mehr will, zahlt auch mehr, verstehe das Problem nicht...
Allein mindfactory hat bisher 3800 Karten der 1080 GTX verkauft....teuer ist also relativ und wird vom Käufer entschieden...

Ich hab nie behauptet, dass das nicht reichen würde. Eine einzelne RX 480 wäre mehr als ausreichend für mich, ich hab' ja immer noch 'ne gtx 760 verbaut und eine GTX 480 als Physx-Beschleuniger... :-) Das läuft auch toll. Aber Preise von weit über 700 Euro sind für mich nicht drin, sorry, mit der Kohle weiß ich durchaus schöneres anzufangen als sie in eine Graka zu investieren. Natürlich gibt es immer Dummköppe, die der Meinung sind, sie müssten das Neuste uns Teuerste kaufen, weil das für sie grade gut genug ist, ohne zu realisieren, daß sie mit der halben Leistung bestens bedient wären. Mehr als Full-HD hab ICH noch nie gebraucht, aber das sieht halt jeder anders.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
dazu braucht es keine Belege, das war logisches Denken. Was käme den deiner Meinung nach für einen Leistungverlust von 1-5% bei Tests wie Tomb Raider DX12 in Frage? Woran könnte es liegen?

Logisches Denken und dann die proof-of-concept-DX12-Umsetzung in Tomb-Raider als einziges Beispiel nehmen..

Schon einmal daran gedacht, dass das an der Umsetzung liegen kann? Tomb-Raiders DX12-Patch hat nicht mit massiven Performancevorteilen geglänzt, dazu im Gegenzug stehen mehrere DX12-Games, die deutliche Performancevorteile zeigen. Wie erklärst du das? (Nur als Tipp: nicht Ergebnisse von Maxwell unter DX12+Async ansehen, damit kommt Maxwell nicht zurecht ;) )


Krautmaster schrieb:
Mit DX12 / Vulkan wurden wie gesagt Flaschenhälse entfernt, ergo kann man nun zB deutlich mehr Draw Calls absetzen. Setzt man aber vielleicht exakt genauso viele ab wie unter DX11, kann die CPU Leistung zwar deutlich geringer sein, der einzelne Drawcall aber durchaus etwas mehr Rechenzeit auf der GPU benötigen da eben hier auch ein gewisser Overhead entsteht.

Falls deine Aussage stimmen soll, dann müsste doch irgendwo dokumentiert sein, welche Funktionen jetzt die GPU übernimmt? Dazu ist nichts zu finden, weshalb ich deiner Aussage einfach nicht Glauben schenken kann. Kann sich dazu irgendjemand mit technischem Verständnis äußern? Nai oder noch lieber Ex3th? Bitte nicht kisser, ich will technisches Fachwissen, kein Pippi Langstrumpf.
Das einzige, was ich nachvollziehen kann ist, wenn man versucht Maxwell mit AC zu füttern, was dieser nativ nicht beherrscht und somit der Treiber (CPU?) mehr Arbeit leisten muss? Das ist auch der Grund, warum Maxwell Leistung verliert.

Krautmaster schrieb:
dass eine richtiger Parcour immer die bessere Wahl bleibt ist klar, aber das AoS Setting ist deutlich spezieller als ein 3D Mark der immer gleich abläuft. Die bisherigen 3D Marks skalierten immer recht gut mit der GPU Leistung und dem Parcour. Beide Ansichten sind sicher valide. Da scheiden sich wohl die Geister ob man mehr auf AoS oder zb TimeSpy gibt, das wird dann wohl erst ein Parcour aus 10-20 DX12 / Vulkan Spielen zeigen.
Bisher zeigen einfach die meisten gut umgesetzten DX12/Vulkan-Ports ein einstimmiges positives Bild für GCN und negatives für Kepler und Maxwell.


Krautmaster schrieb:
Zurück zu deinem Thema ob Maxwell nicht von AS profitieren würde: Mit Sicherheit, aber schon anhand der Rechnung oben wird klar dass wohl weit weniger als AMD (aber schon in etwa dem Umfang wie es Pascal aktuell tut).
Dass aber Pascal nie in diesem Ausmaß wie AMD profitieren wird ist einfach nur logisch und auch nicht weiter schlimm. Das könnte man erwarten wenn die Skalierung so unterirdisch wäre wie bei AMD ja, da sie das aber nicht ist muss auch die Auslastung der GPU höher sein und somit der potentielle Gain durch Async Compute kleiner.

Problematisch finde ich immer noch am meisten, wie bereits gesagt, dass nVidias Architekturen inkompatibel mit normalen DX12+AC ist/ immer eine Sonderbehandlung von Entwickler und Treiber benötigen. Wie viel Maxwell nun profitieren könnte wird immer ein Geheimnis bleiben..
 
Linmoum schrieb:
Der Punkt ist allerdings, das AC unter Maxwell permanent deaktiviert bleibt. Also egal was getan wird, AC lässt sich nicht auf Maxwell aktivieren.

Das ist Quatsch. Jeder DX12 Treiber muss mit AC umgehen können, der Treiber kann das gar nicht deaktivieren, weil er keinen Einfluss darauf hat.
 
Zurück
Oben