Halten wir fest:
Das zeigt sich auch in den Benchmarks. Die Performance fällt gar deutlich niedriger aus, besser aussehen tut WoW aber nicht.
Die zweite Auffälligkeit: Auch nach der Änderung sind Nvidia-Grafikkarten, obwohl diese in DirectX 12 langsamer sind, immer noch klar schneller als die Pendants aus dem Hause AMD, unabhängig davon, welche API diese nutzen. Die Unterschiede scheinen mit dem Patch
weder größer, noch kleiner geworden zu sein.
Wo fällt denn die Performance niedriger aus ? Nur bei nVidia in DX12...der frühere Test war sowohl eine andere Testsequenz als auch andere Auflösung settings...also komplett unvergleichbar.
CB bleibt den Beweis schuldig dass das Game vor dem Patch besser lief als nachher (allgemein).
Wo ist dazu ein "Testwert" zu sehen ? Nirgends.
CB behauptet nVidia sei immernoch egal welche API schneller als AMD, die Benchmarks zeigen es genau
nicht so. In DX12 ist Vega64 schneller als die 1080 in DX12...
Es wäre schön wenn CB endlich mal die mittlere CPU-Auslastung über die Testsequenz mit angeben würde. Gerne noch separiert über die Einzelnen Threads....
Wenn man dann ein bild sieht wie das hier:
API: avg CPU1, 2, 3, 4, usw.
DX11: 95%, 25%, 1%, 1%, usw. (Gesamtmittelwert ~30%)
DX12: 50%, 25%, 25%, 0% usw...(Gesamtmittelwert ~25%)
Dann hätte man wenigstens schön den Nutzen von DX12 gesehen/Zeigen können.
So ist der Test hier ist leider teilweise nutzlos und teilweise widerspricht CB sich sogar selbst bzw. den eigenen Messwerten.
Generell muss man die Situation halt so sehen - die Nutzung von DX12 hat vor allem den Vorteil dass man eigentlich DEUTLICH weggehen kann vom Main-Render-Thread Limit. Allerdings nur wenn man auch das Softwarestück komplette auf DX12 umstellt und nicht nur einen DX11=>DX12 Wrapper drüberzieht.
1.) DX12 ist eingeführt worden damit man "leichter" Multithreaden kann per se. Die DX12 "Architektur" ermöglicht es endlich von der Konsequenz der Nutzung eines "Main Render Threads" wegzugehen. Etwas das Entwickler sich gewünscht haben und wie wir sehen sogar für URALT-Engines sogar noch den Schritt mitgehen ! Auch wenn es gedauert hat.
Dies ist ein erforderlicher Schritt um Games entwickeln zu können die
a) besser mit der Zahl der CPU-Kerne skalieren
b) eben nicht mehr nur an einem "main-Render-Thread" hängen was uns letztlich in der Konsequenz eigentlich zu
c) führt. Der Möglichkeit nun DEUTLICH komplexere Szenen zu erstellen mit gleichzeitig insgesamt niedrigerer CPU Last (UND deutlich besserer Last-Verteilung der CPU last)
Das ergibt dann in Konsequenz:
2.) nVidia verliert FPS in DX12 da die Hardware beim Scheduling "spackt" und deswegen vermehrt Microruckler die Frametimes und auch die AVG versauen. Der Treiber wiederum kann in DX12 kann das scheduling nicht mehr leisten da das von der API her nicht mehr so vorgesehen ist (was man ja gemacht hat um von dem "Main Render Thread" wegzukommen.
In DX11 hingegen ist die "Variable" Software-Treiber scheduling Lösung von nVidia ein Vorteil denn hier kann man "ein gewisses" Maß an Multi-threading Fähigkeit damit auf jedes Spiel hinoptimieren. Aber letztlich eigentlich unsinnig dass man für jedes Game extra die Treiber hinfrickelt...
Aber gut nVidia will das ja so - man hat so mehr Macht und Kontrolle über die Developer.
Letztlich ergibt sich aber ganz logisch hier auch:
3.) AMD ist dankbar dass DX12 kommt. Das GPU Scheduling wird nun nicht mehr von Main Render thread ausgebremst. Zudem hat AMD auch noch generell ein gewisses CPU Overhead (relativ zu nVidia) seit der GCN-Architektur in DX11. Dies führte vor allem dazu dass viel Rohleistung der GCN-Arch einfach liegen blieb. Vor allem eben in Fällen wo man in das Main-Thread limit gelaufen ist.
In DX12 ist das Geschichte und die GPUs liefern an solchen stellen mehr FPS oder laufen zumindest genauso gut wie vorher.