• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Monster Hunter World im Test: DirectX 12 (in Iceborne) hilft AMD, aber nicht Nvidia

Das mit den CPUs ist ja interessant. Da muss es also irgendetwas an diesem Spiel geben, das den Zen besonders liegt, abseits von schierer, per Takt gepushter Rechenleistung. Vielleicht hat es etwas mit den Cache-Größen zu tun?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo und Mcr-King
Ein 4Kerner mit HT und ein 6Kerner ohne HT wären noch relevant fürs Gesamtbild.
Herdware schrieb:
Da mit den CPUs ist ja interessant. Da muss es also irgendetwas an diesem Spiel geben, dass den Zen besonders liegt, abseits von schierer, per Takt gepushter Rechenleistung. Vielleicht hat es etwas mit den Cache-Größen zu tun?
Es sind 1080p Benchmarks, man testet alle nicht 4Kerner im Endeffekt ins GPU-Limit.
In 720p könnte auch der Intel wieder vorne liegen.
 
  • Gefällt mir
Reaktionen: Zwisch, Mcr-King und MeisterOek
MotherPink schrieb:
Ein 4Kerner mit HT und ein 6Kerner ohne HT wären noch relevant fürs Gesamtbild.

Es sind 1080p Benchmarks, man testet alle nicht 4Kerner im Endeffekt ins GPU-Limit.
In 720p könnte auch der Intel wieder vorne liegen.
Ich denke nicht, dass hier ein GPU Limit vorliegt. Ganz einfach, weil der Unterschied der CPUs viel zu groß ist. Sonst wären wir bei 1-3% Messungenauigkeit, aber doch nicht bei 12%.
 
  • Gefällt mir
Reaktionen: Bonanca, Mcr-King, Celinna und eine weitere Person
@danyundsahne
Im Limit verhält sich jede Kombination aus CPU und GPU geringfügig anders.
Die 1-3 fps Unterschied sind keine Größe mit der ich Aussagen über die Affinität der Prozessorarchitektur in der jeweiligen Engine anstellen würde.

Wie gesagt, Auflösung runter, dann hat die Sache mehr Hand und Fuß.
 
Balikon schrieb:
Oder gibt es DX12 Optimierungen, die speziell Nvidia runterziehen bzw. den Radeons in die Karten spielen (oh, ein Wortspiel)?
(Ist jetzt nur der grobe Ablauf, den ich zu dem Thema gelesen habe....ich gebe Mal wieder was ich da in Erfahrung bringen konnte)

DX12 ermöglicht mehr Freiheit bei der CPU Auslastung......wenn richtig programmiert, können die Arbeiten auf sehr viele Threads aufgeteilt werden und diese können die dawcalls auch direkt an die GPU senden.

AMD hat schon vor langer Zeit ihre GPUs mit einem Hardware scheduler ausgestattet, der das annehmen und verarbeiten kann.

Nvidia hat sich Jahre lang an einem reinen Software scheduler aufgehalten(Ausnahme Fermi), und auch jetzt ist es nur eine Kombi.
Und da hat Nvidia zwar die Möglichkeit viele Dinge über den Treiber zu beeinflussen, die bei AMD in der Hardware fest verankert sind.....aber es fällt eben auch zusätzliche Arbeit über den Treiber an.
Novasun schrieb:
Aber was macht NV im Treiber um in DX11 so gut abschneiden zu können? Und hier spielt nur der Vergleich NV DX11 vs DX12 eine Rolle....
Nvidia trickst mit ihrem Treiber die Limitierung von dx11 aus.

Eigentlich wird bei dx11 alles auf einem Thread gebündelt.
Der Renderthrad sorgt dafür, dass alles seine chronologische Ordnung hat und er bearbeitet die drawcalls.
Natürlich lagert er je nach Programmierung des Spiels mehr oder weniger gut die Spielabläufe auf andere Threads aus, aber nach dem standardvorgehen bekommt die GPU am Ende eine lange Liste mit allen Objekten, Eigenschaften, Effekten usw. die sie darstellen soll.

Spiel Ablauf-> API(dx11)->Treiber->GPU
Und API und Treiber, liegen beide auf dem Renderthrad...->drawcalls sind single Thread limitiert.

AMD ist in diesem Vorgehen gefangen....die Hardware ist darauf ausgelegt....der Treiber hat kaum was zu tun.

Nvidia ist da flexibler und verteilt über Treibereingriffe die drawcalls auf andere arbeitslose Threads....bringt alles zusammen zur GPU.... Fertig
Jetzt hat Nvidia also diese eigentlich single Thread limitierte Arbeit, multithreaded gemacht.
Insgesamt steigt der Treiber Overhead....der Treiber verursacht insgesamt mehr CPU Last, aber wenn sich das auf bisher ungenutzte CPU Threads verteilt, steigt die Leistung im DX11 CPU Limit enorm.

AMD braucht da eine spezielle Programmierung.... Der Render Thread darf praktisch nix anderes machen als Arbeit zu verteilen und die drawcalls zu bearbeiten.
Hat man den von allem anderen frei geräumt, reicht es für eine gute Leistung....

...aber das ist unpraktisch für die Entwickler...es ist viel einfacher alles auf dem Render Thread zu lassen, als alles auszulagern.

Natürlich bemühen die sich möglichst viel auszulagern, aber mit Nvidia GPU ist das nicht so wichtig....und AMD ist den Entwicklern nicht so wichtig.

Deshalb liefen zum Start von ryzen auch AMD GPUs Tendenziell besser auf Intels 4kern CPUs und Nvidia GPUs teilweise gut auf 8kern ryzen....
AMD GPUs brauchten die höhere single Thread Leistung, und konnten mit 8 Kernen nix anfangen...Nvidia GPUs konnten eher von mehr Kernen profitieren.

,............
DX12 legt die drawcalls in die hand der Entwickler....das kann nahezu perfekt laufen wie in AotS...und gut, wie bei den letzten beiden tomb Raider Spielen (zumindest nach einigen Patches)...oder Hitman....

Aber es kann auch schlecht laufen wie in vermentide, tomb Raider vor den Patches, fortnite...usw.

Anno 1800 DX12 ist im Grunde auch schlecht....es limitiert über einen Thread wie dx11 und nutzt die CPU nur minimal besser aus.
Dafür gibt es Bugs und schlechteres VRam Management.
Ist für AMD GPUs trotzdem die bessere Wahl, aber es bleibt ein fader Beigeschmack.

Und Alles auf unendlich viele Threads zu verteilen kann auch Nachteile haben...mehr Verwaltungsaufwand und vor allem mehr Zeit, die für die Kommunikation drauf geht.

DX12 ist trotzdem die Zukunft....es kann ja ab Werk noch mehr als Nvidia mit Tricks ermöglicht....aber Nvidia hat dann zwangsläufig mehr Treiber Last, oder sie entwickeln auch voll auf DX12 und Vulkan....dann verlieren sie aber voraussichtlich ihre Vorteile in dx9-11.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Atent123, Sun-Berg, s0UL1 und 15 andere
MotherPink schrieb:
@danyundsahne
Im Limit verhält sich jede Kombination aus CPU und GPU geringfügig anders.
Die 1-3 fps Unterschied sind keine Größe mit der ich Aussagen über die Affinität der Prozessorarchitektur in der jeweiligen Engine anstellen würde.

Wie gesagt, Auflösung runter, dann hat die Sache mehr Hand und Fuß.
Wie gesagt, ich denke 12% bei den Min Frames (6 fps) sind eindeutig. Bei sonstigen Tests im GPU Limit war der Abstand AMD <> Intel immer so bei vll 1-3%. Hier sinds ganze 12%...ich finde das schon einen nennenswerten Vorsprung.
Wie es in 720P aussieht, keine Ahnung. Wäre interessant zu wissen.
 
  • Gefällt mir
Reaktionen: Mcr-King
  • Gefällt mir
Reaktionen: Baal Netbeck
@Wolfgang
Ein potentieller Einfluss des Grafiktreibers im CPU-Limit wäre auch interessant.

zB. Ryzen 2600X, und Core i7-8700K auch auch auf einer RX 5700XT (DX11 u. 12.) zu testen. Gerade bei DX11 sind deutliche Unterschiede im CPU-Limit zwischen AMD und Nvidia Grafikkarte zu erwarten.
 
  • Gefällt mir
Reaktionen: danyundsahne und Mcr-King
Also ist jetzt der 9900K in dem Spiel nicht mehr zu gebrauchen, weil es ja eine schnellere CPU gibt? :lol:

Ältere Ryzen wären ganz interessant, zum Vergleich.
 
  • Gefällt mir
Reaktionen: Mcr-King
Was für die CPU Benchmarks interessant wäre, wäre der Vergleich mit AMD GPU.
Die 2080 TI passt ja ins übliche Bild.... DX12 solala....dx11 gut....nur wenn die CPU wirklich voll ausgelastet wird wie der i3 mit nur 4 Threads hilft DX12.
 
  • Gefällt mir
Reaktionen: Mcr-King
HAse_ONE schrieb:
Also ist jetzt der 9900K in dem Spiel nicht mehr zu gebrauchen, weil es ja eine schnellere CPU gibt
So sieht es aus;)
Nur noch Elektroschrott!

Naja ohne es zu wissen, würde ich vermuten, dass hier wieder der L3 Cache den Zen2 CPUs hilft.
...oder die Freigabe für 3200er RAM.

Intel mit schnellem RAM wird hier bestimmt wieder an der Spitze stehen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich weiss ihr müsst wahrscheinlich mit dem Test raus solange das Ding noch heiß ist aber mhw ist so schlechte Wahl für einen Benchmark/Vergleich - das Spiel ist seit Iceborn einfach so komplett kaputt. Einfach mal beim Steam megathread nachlesen. Ich selber habe 1 FPS seit dem Update, also unspielbar. Man munkelt das alle Windows 7 und Linux User abbekommen haben.... Das Spiel ist höchstens gut um zu Zeigen wie massiv der Kopierschutz/Denuvo/Anticheat die Performance frisst, ein im Steamforum erwähnten User patch reduziert die CPU Last wohl wieder um 100%, so das Iceborn auch auf älteren Systemen wieder spielbar wird.

...und ja mit reshade kriegt man das dämliche blur auch aus dem Spiel raus, da braucht es keine Treiber und "KI" facepalm
 
warum heisst es hier eigentlich immer das nvidia bei dx12 mist ist?
seit turing gilt das definitiv nicht mehr und es it doch eigentlich eher positiv das der unterschied von dx11 zu dx12 bei nvidia gering ausfällt. das spircht doch für eine gute dx11 implementation und das die herangehensweise von nvidia die @Baal Netbeck so schön dargelegt hat das optimale ist.
es ist eben mit dx12 dann nicht mehr viel zu holen es sei denn der entwickler verteilt die last noch besser als es der treiber unter dx11 sowieso schon tut.
einen nachteil oder eine schwäche kann ich da beim besten willen nicht erkennen.
pascal hatte probleme im vergleich zu amd karten unter dx12, mehr fps oder bessere frametimes im vergleich von dx11 pascal zu dx12 vega oder polaris hatte amd damit aber auch meistens nicht, man konnte halt die lücke deutlicher schließen.
spätestens mit turing hat jetzt aber auch nvidia den sinn von vulkan und dx12 erkannt und die karten performen damit ziemlich gut.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Wofür ist DX12 überhaupt da, wenns langsamer als DX11 ist?
 
zeedy schrieb:
Wofür ist DX12 überhaupt da, wenns langsamer als DX11 ist?
Das entscheidet maßgeblich der Entwickler. DX12 verlagert diverses Management vom Treiber auf den Programmierer.
Im schlimmsten Fall wird DX12 als wrapper für eine DX11 Implementierung benutzt... Alles schon gesehen...
Wo DX12 draufsteht muss also nicht DX12 drin sein.

LG
Zero
 
  • Gefällt mir
Reaktionen: Sun-Berg und Baal Netbeck
zeedy schrieb:
Wofür ist DX12 überhaupt da, wenns langsamer als DX11 ist?
Man könnte auch fragen, wofür DX12 da ist, wenn es Vulkan gibt. Außer um Windows 10 zu pushen natürlich.
 
Fraggball schrieb:
es ist eben mit dx12 dann nicht mehr viel zu holen es sei denn der entwickler verteilt die last noch besser als es der treiber unter dx11 sowieso schon tut.
einen nachteil oder eine schwäche kann ich da beim besten willen nicht erkennen.
Der Nachteil ist, dass Nvidias dx11 trickserei seine Grenzen hat.
Sie können die drawcalls zwar über den Treiber verteilen, aber das kostet insgesamt mehr CPU Last, als wenn DX12 das macht....siehst du an dem Beispiel des i3.

Und auch wenn das tricksen für die CPUs mit 8-12 Threads super funktioniert, so stagniert die Leistung mit mehr Threads.

Wenn wir in Zukunft aufwendigere Spiele wollen....mehr Physik oder KIs oder einfach noch mehr Objekte in der Welt, dann brauchen wir mehr als das.

Ein Anno 1800 läuft auch mit Nvidia GPU und 16 Kernen irgendwann bei 30 FPS.
Das DX12 da schlecht gemacht ist, ist ja kein Grund, dx11 gut zu finden.....dx11 ist hier überfordert!

AotS ist sicherlich eher ein Showcase, als ein typisches Beispiel für DX12, aber da hatte ich teilweise 90% gesamtauslastung der CPU.....mit 16threads....und 120fps.

Also wenn ich die Wahl habe zwischen einer Technik, die 16 Threads nur zu 30% auslastet und dann 30 FPS hat, und einer Technik, die zwar 90% auslastet....dafür aber auch 120 FPS schafft, dann weiß ich, was die bessere API für die Zukunft ist.

Und da ist es leider das alte Problem mit Umbrüchen.....ohne breite Verteilung in den Spielen, wird die dx12 Erfahrung der Entwickler klein bleiben und dx11 sieht gut aus.
....dann lohnt es sich aber auch nicht auf DX12 zu programmieren....oder es wird eben nur so nebenbei angeboten, was dann in schlechten Umsetzungen endet, die wieder nur für AMD GPUs die völlige single Thread bremse etwas lockert.

Dann ist man als AMD GPU Besitzer schon dankbar, dass man überhaupt brauchbar das Spiel spielen kann....und Nvidia Besitzer fragen wofür man DX12 überhaupt braucht.
 
  • Gefällt mir
Reaktionen: Stuxi, Bonanca, Iscaran und 2 andere
@Baal Netbeck ich sage ja nicht das dx11 die bessere technik ist. ganz sicher nicht.
aber die herangehensweise von nvidia an dx11 holt eben das optimum aus der veralteten api raus.
trickserei kann ich da beim besten willen nicht erkennen sondern eine effiziente lösung um das problem das dx11 nunmal hat möglichst gering zu halten und das optimum damit herauszuholen.
das dx12 und vulkan die zukunft sind und generell die besseren apis sofern sie gut implementiert sind ist zweifelsohne klar.
eine gute dx11 performance die dx12 nicht nachsteht bedeutet aber nicht das die hardware mit dx12 nicht gut kann. zumindest bei turing ist das quatsch, wie viele gute dx12 implementierungen durch den entwickler, wie shadow of the tomb raider und andere ja deutlich zeigen.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Baal Netbeck
Butterbemme schrieb:
Ich versteh die letzte Grafik auf Seite 2 und den Text darunter nicht. Wenn kein frame schneller als 58fps/17ms rendern kann, wie kann dann auch nur ein frame schneller rendern, geschweige denn 100fps Durchschnitt.
Was dir da angezeigt wird, sind die 0,2% schlechtesten FPS. Also 99,8% sind schnellerals 58 fps.
 
  • Gefällt mir
Reaktionen: Taxxor und Baal Netbeck
Zurück
Oben