• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Monster Hunter World im Test: DirectX 12 (in Iceborne) hilft AMD, aber nicht Nvidia

Fraggball schrieb:
trickserei kann ich da beim besten willen nicht erkennen sondern eine effiziente lösung um das problem das dx11 nunmal hat möglichst gering zu halten und das optimum damit herauszuholen.
Für mich ist das abweichen von der intendierten Vorgehensweise ein Tricksen.;)

Aber das sollte nicht negativ rüber kommen.
Ist ja toll was Nvidia da zaubert....ich wäre froh, wenn AMD das auch könnte.
Fraggball schrieb:
eine gute dx11 performance die dx12 nicht nachsteht bedeutet aber nicht das die hardware mit dx12 nicht gut kann. zumindest bei turing ist das quatsch, wie viele gute dx12 implementierungen durch den entwickler, wie shadow of the tomb raider und andere ja deutlich zeigen.
Da bin ich nicht gut informiert....wie läuft sottr denn bei Nvidia mit dx11 und 12 im Vergleich?
Und ich meine nicht irgendwo beim Klettern sondern z.B. in dem Fischerdorf am "Marktplatz"?

Touring ist in der Tat besser mit DX12 geworden....war ja auch wichtig für RT.
Aber wenn ich mich Recht erinnere, lief es in einigen dx11 spielen im CPU Limit schlechter als Pascal.

Da muss sich, aus meiner Sicht, Nvidia teilweise entscheiden...mehr Hardware scheduler, der DX12 und vulkan rockt oder mehr Spielraum für den Treiber, der dann dx9-11 optimiert....aber
Da kann ich falsch liegen.

Rottr hatte bei mir mit Nvidia GPU in dx11 schlechte Leistung....mit DX12 unglaubliche Bildfehler....ganze Objekte haben gefehlt und sind erst sehr spät aufgeploppt.

Vega lief dann mit dx11 schlecht und mit 12 schnell....aber auch erst flüssig, nachdem der shadercache angelernt war.... suboptimal.

Und in sottr hat DX12 alle 5s einen spürbaren frametime Peak gehabt....das wurde gepatched, aber sehr spät...was sind da deine Erfahrungen?
 
Papabär schrieb:
Könnt ihr den CPU test um folgende CPU erweitern AMD1700 & 2700X mit und ohne SMT ?
Ich kann dir 3900X mit und ohne SMT und PBO mit ohne bieten. Keine nennenswerten Unterschiede.
Bei meinem Umstieg von 2700X auf 3900X gab's die gleichen fps.
Da laut CB bis zu 12 Threads genutzt werden, dürfte SMT den 8 Kernern ein wenig helfen.

Was ich noch beobachtet hatte war, MH nutzt egal ob SMT oder nicht, die ersten paar Threads stärker.
Die ersten beiden liegen so bei 80-90 % dann folgt so 60-70% zwei Mal, alle weiteren sind ca. 20-50%
 
  • Gefällt mir
Reaktionen: panzercrak
@Wolfgang
Weitere CPU-Tests und damit die spannende Frage, wie Intel-Prozessoren mit vier Kernen inklusive SMT beziehungsweise 6-Kern-Produkte sowie AMDs Ryzen-1000- und Ryzen-2000-Generation abschneiden, hat leider das Aktivierungslimit des Kopierschutzes zu Nichte gemacht.
Das ist doch echt absoluter Käse xD Können die Hersteller euch nicht einen "freien" zugang geben? oder wenigstens mehr Lizenzen?
 
Bin ich der einzigste der 4K/8T vermisst bzw interessant finden würde?
 
  • Gefällt mir
Reaktionen: Darkscream
Butterbemme schrieb:
Ich versteh die letzte Grafik auf Seite 2 und den Text darunter nicht. Wenn kein frame schneller als 58fps/17ms rendern kann, wie kann dann auch nur ein frame schneller rendern, geschweige denn 100fps Durchschnitt.
Keiner der schlechtesten 0,2% der FPS war schneller als 58fps.

Oder anders ausgedrückt der beste der niedrigsten 0,2% der FPS lag bei 58fps

Oder nochmal anders ausgedrückt(und damit auch die 99,8th Bezeichnung korrekt benutzt): 99,8% der Frametime Werte sind niedriger als 17,2ms
 
Man hätte den CPU Test auch mit einer 5700XT machen können.
 
  • Gefällt mir
Reaktionen: muzafferamg58
Pizza! schrieb:
Da laut CB bis zu 12 Threads genutzt werden, dürfte SMT den 8 Kernern ein wenig helfen.

Was ich noch beobachtet hatte war, MH nutzt egal ob SMT oder nicht, die ersten paar Threads stärker.
Die ersten beiden liegen so bei 80-90 % dann folgt so 60-70% zwei Mal, alle weiteren sind ca. 20-50%
Wo sagt denn CB, dass bis zu 12 Threads genutzt werden?
Also genutzt natürlich....Windows schiebt die Last ja durchaus über alle Threads, aber ausgenutzt bestimmt nicht.
Sonst wäre der 3900X nicht nur 1% schneller als der 3700X.
Das wird einfach daran liegen, dass der 3900X etwas höheren Takt fährt.
Fraggball schrieb:
SOTTR läuft unter dx12 absolut fantastisch und deutlich besser als mit dx11.
sogar mit pascal...und turing gewinnt nochmal richtig deutlich an performance im vergleich.
Das ist doch ein positives Zeichen.
Mich überrascht bei dem Spiel manchmal wie hoch die CPU Auslastung gehen kann.
auf dem Marktplatz hatte ich schon Auslastungen von über 50% bei 16 Threads....also wurden mehr als 8 Kerne ausgelastet....das ist schon heftig für ein singleplayer Spiel, das keine gigantische Open World map hat.
Fraggball schrieb:
Wie man da sieht, hat Vega diese Frametimepeaks....der Text schreibt, man würde sie nicht spüren, aber ic hhabe sie gespürt.
Aber zum Glück wurden die nacch einigen Monaten weggepatcht....jetzt kann man gegen DX12 da nix mehr sagen.
 
@Baal Netbeck
Achso ja, was ich meinte CB hatte was von 6 Kerne 12 Threads reicht für volle Leistung geschrieben.
Also noch mehr bringt nicht viel.
Was ich grob bestätigen kann, ich hab keinen Unterschied zw. 12 Kerne mit oder ohne SMT, obwohl alle 24 Threads mit mehr als 25% beansprucht wurden.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Zero_Point schrieb:
DX12 ist an seiner eigenen Komplexität Schuld. Wäre es in allem so überlegen, gäbe es nicht diese miesen Umsetzungen. Meinst du die Entwickler hauen aus Spaß Titel raus, die unter DX11 besser laufen als unter DX12?
Den Entwicklern mach ich wenige Vorwürfe, meist ist es eher eine Entscheidung auf Publisher-Ebene, lieber Sachen die okay oder irgendwie laufen rauszuhauen, als noch auf eine Optimierung hin zum "gut" bis "sehr gut" zu warten und zu investieren.

Wem DX12 zu komplex ist kann ja auch alternativen nutzen, zu denen DX11 nicht gehören sollte.

Zumal ich ehrlich schwer davon ausgehe dass der Hund nicht direkt bei den Entwicklern der Spiele begraben ist.
Kleine Indie-Studios mal ausgenommen die evtl. auch gar nicht die Manpower haben für gute Optimierungen, oft wird das zeug halt auch grade bei AAA-Titeln von Nvidia werbewirksam "Begleitet". Immer wieder kurios wie die gleichen Spiele in DX12 mit AMD-Karten besser laufen im Verhältnis als mit den grünen pendants.
 
7hyrael schrieb:
Den Entwicklern mach ich wenige Vorwürfe, meist ist es eher eine Entscheidung auf Publisher-Ebene, lieber Sachen die okay oder irgendwie laufen rauszuhauen, als noch auf eine Optimierung hin zum "gut" bis "sehr gut" zu warten und zu investieren.
Das Ergebnis ist dasselbe, daher spielt das keine Rolle.

7hyrael schrieb:
Wem DX12 zu komplex ist kann ja auch alternativen nutzen, zu denen DX11 nicht gehören sollte.
Welche sollen das denn sein? Vulkan kann es nicht sein, da genauso komplex.
 
Zero_Point schrieb:
Welche sollen das denn sein? Vulkan kann es nicht sein, da genauso komplex.
Man kann über die Komplexität jammern oder sich damit befassen... Meist ist es gejammer weil man lieber beim alten Zeug bleiben würde. Die Vorteile von Vulkan und DX12 sind offensichtlich.
Hab ich nicht die Ressourcen um das Spiel das ich entwickeln will in Modernen APIs umzusetzen hab ich in der Regel doch entweder unrealistische Ambitionen oder es spielt eh keine Rolle ob nun hoch-optimiert oder nicht.

Bei Monster-Hunter World steht relativ eindeutig ein Studio und Publisher hintendran die mehr als genug Geld haben zum optimieren. Nur liegt auch da der Hund wie schon gesagt offenbar nicht beim Spieleentwickler sondern bei Nvidia. Es ist ein roter Faden in fast allen Tests, dass Spiele bei Nvidia in DX11 besser laufen als unter DX12, oder zumindest nicht in ähnlichem maß unter DX12 performanter, wie es bei AMD der Fall ist.

Nenne mir Spiele die nicht technisch eh eine Katastrophe sind, die in DX12 schlechter laufen als in DX11.
Nenne mir aktuelle Spiele die technisch keine Katastrophe sind und DX12 nicht bieten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iscaran
thuNDa schrieb:
Thema war was passiert wenn es pauschal nur noch DX12 geben würde. Bei GRID 2019 gab es in der Vorabversion neben DX12 noch DX11, und man sieht wie viel besser die Performance bei letzterem ist(übrigens auch auf AMD-Karten bei diesem Spiel).
Auf halbgares DX12 kann ich verzichten, umso schlimmer das Codemasters DX11 bei diesem Titel entfernt hat, und einem 20% bessere performance vorenthält.

Ganz ehrlich, ich bin froh, dass Studios endlich nur auf DX12 setzen. Ansonsten bleiben wir noch ewig auf DX11 sitzen, gerade mit solchen Argumenten wie du sie bringst. Warum sollte denn Aufwand in DX12 gesteckt werden wenn DX11 laeuft? Klar wird das am Anfang komplizierter und moeglicherweise bekommt man nicht sofort die Leistung hin. Aber wie hoch optimiert sind denn mittlerweile Engines, Tools, Pipelines, etc. um aus DX11 alles heraus zu bekommen? Und wieviel Potential hat DX12 noch?

Aber "Gamer", bzw. "Tech-Enthusiasten" scheinen eh konservativer als die CSU zu sein. Das ist wirklich interessant zu beobachten.
 
  • Gefällt mir
Reaktionen: 7hyrael
Herdware schrieb:
Das mit den CPUs ist ja interessant. Da muss es also irgendetwas an diesem Spiel geben, das den Zen besonders liegt, abseits von schierer, per Takt gepushter Rechenleistung. Vielleicht hat es etwas mit den Cache-Größen zu tun?
wahrscheinlich ist das Intel Testsystem von CB wieder so runter das der Test für die Tonne ist.. ist ja nichts neues hier..
 
Baal Netbeck schrieb:
auf dem Marktplatz hatte ich schon Auslastungen von über 50% bei 16 Threads....also wurden mehr als 8 Kerne ausgelastet....das ist schon heftig für ein singleplayer Spiel, das keine gigantische Open World map hat.
Hoher Treiber- Overhead und unsinniges Zumüllen der Threads ist das Stichwort :)
Siehe die neuen Assassins Creed... Genau das gleiche...
Es gibt nichts, was diese Verbräuche rechtfertigen würde.

Siehe damals Crysis 3, wo sich alle gefreut haben, dass es endlich mal ein Spiel mit guter Multicore Unterstützung gibt. In wirklichkeit hat man z.B die SSE Extension nicht benutzt um Foliage zu berechnen, was schön gleichmäßig alle Threads runtergezogen hat.
In Ryse hat man diesen Fehler korrigiert - Und oh Wunder. Es lief wie Butter... Trotz höherer Vegetationsdichte und deutlich weniger CPU Last...

Und dann freuen sich viele Leute noch darüber, dass "endlich die CPU" mal ausgenutzt wird.
War zu befürchten, dass wenn mehr Kapazität zur Verfügung steht, auch wieder lockerer mit den Ressourcen umgegangen wird.
Und das wird dann noch gefeiert...

LG
Zero
 
  • Gefällt mir
Reaktionen: Oneplusfan und Baal Netbeck
Kacha schrieb:
Ganz ehrlich, ich bin froh, dass Studios endlich nur auf DX12 setzen. Ansonsten bleiben wir noch ewig auf DX11 sitzen, gerade mit solchen Argumenten wie du sie bringst. Warum sollte denn Aufwand in DX12 gesteckt werden wenn DX11 laeuft? Klar wird das am Anfang komplizierter und moeglicherweise bekommt man nicht sofort die Leistung hin. Aber wie hoch optimiert sind denn mittlerweile Engines, Tools, Pipelines, etc. um aus DX11 alles heraus zu bekommen? Und wieviel Potential hat DX12 noch?

Aber "Gamer", bzw. "Tech-Enthusiasten" scheinen eh konservativer als die CSU zu sein. Das ist wirklich interessant zu beobachten.
Eben. Man muss mal anfangen und man kommt schneller voran wenn man die Altlasten (auch erstmal zu lasten von Performance) abstößt und sich auf eine Version konzentrieren kann. zweigleisige Pflege ist immer ein krampf und hilft beiden Systemen nicht. dann lieber gleich nur DX11 oder nur DX12. Aber dann gibts halt von mir bspw. kein Geld mehr. Neue Spiele die nicht min. DX12 oder Vulkan bieten, werden ignoriert.
 
@Kacha
Wenn DX12 besser läuft als DX11, dann immer her damit. Aber einem einfach nur DX11 vorzuenthalten, auch wenn es performanter wäre, kann ja nicht sinn der sache sein.
Bis jetzt sind SotTR und division 2 so die einzigen vorzeigetitel wenn es um DX12 geht.
 
@7hyrael
Es hängt immer von der Projektgröße ab. Bei MHW sollte es möglich sein sich damit entsprechend zu befassen, bei den meisten anderen Titeln ist es einfach nur Unsinn. Denn auch die Nachteile von DX12 und Vulkan sind mehr als offensichtlich. DX12 ist 4,5 Jahre auf dem Markt und dümpelt weiter vor sich hin. Das sagt einiges über DX12 aus!

Dass du bei Nvidia unter DX12 nicht deinen erwarteten Sprung bekommst liegt daran, dass die DX11 Treiber einfach verdammt gut sind, während die von AMD teils grottenschlecht sind, wie man bei MHW eindrucksvoll sieht. Du kannst doch nicht Nvidia einen Strick daraus drehen, dass deren DX11-Treiber eine derart gute Performance abliefert und AMD dafür abfeiern, dass deren DX11 und OGL Treiber teils einfach nur grottig ist.

Kacha schrieb:
Ganz ehrlich, ich bin froh, dass Studios endlich nur auf DX12 setzen. Ansonsten bleiben wir noch ewig auf DX11 sitzen, gerade mit solchen Argumenten wie du sie bringst. Warum sollte denn Aufwand in DX12 gesteckt werden wenn DX11 laeuft? Klar wird das am Anfang komplizierter und moeglicherweise bekommt man nicht sofort die Leistung hin. Aber wie hoch optimiert sind denn mittlerweile Engines, Tools, Pipelines, etc. um aus DX11 alles heraus zu bekommen? Und wieviel Potential hat DX12 noch?

Aber "Gamer", bzw. "Tech-Enthusiasten" scheinen eh konservativer als die CSU zu sein. Das ist wirklich interessant zu beobachten.
Dir ist lieber das Potential wird nicht genutzt? Das ist es nämlich das Hauptproblem von DX12 (und Vulkan). In einer Zeit wo in der Entwicklung offenbar jede Sekunde zählt, ist DX12 einfach meist fehl am Platz.
 
Hey @HisN, wenn du mal wieder Bock auf GPU-Limit hast, dann zock doch einfach ein paar double-precision-"Spiele" auf deiner Titan :D

duck und weg
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: HisN
Zurück
Oben