• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Wolfenstein 2 im Benchmark: Das Vulkan-API-Spiel mit Vega-Feature

Naja, berauschend finde ich die Leistung der AMD Vega GPUs in Wolfenstein 2 nun nicht wirklich, dafür, dass es ein Vulkan-basierendes Spiel vom Partner Bethesda ist.

Die Leistung der RX Vega GPUs geht in Ordnung, aber wird mit Sicherheit nicht die hohe Erwartungshaltung eines Gaming Evolved/AMD-Bundle-Vorzeigespiels einiger hier getroffen haben.

Dass mit den Architekturfeatures von RX Vega nicht mehr von den Entwicklern heraus gekitzelt werden konnte/wurde, ist aktuell sicherlich kein Indiz dafür, dass die RX Vega GPUs bis zum Marktstart der ersten Volta GPUs von nVidia noch kräftig zulegen werden können.

So gesehen ist das schon besorgniserregend, dass AMD/RTG dann noch mehr den Anschluss an den Marktführer verlieren könnte, wenn dieser dann noch 'mal um geschätzte 40% bei der Leistung zulegen kann.

Dazu kommt noch die Situation mit den Minern und der "Priorität-Hamsterei" von RX Vega GPUs für Apple und weit und breit sind keine Custom-Modelle in Sicht und nVidia kann genüsslich eine Mining-Karte und direkten Vega RX56 Gegenspieler auf den Markt bringen (GTX 1070Ti), um auch die Verkäufe der RX Vega 56 weiter dadurch zu drücken.

Schon traurig, wie sich der GPU-Markt aktuell gestaltet, aber das Vega Fiasko ist leider zu großem Teil auf AMDs/RTGs Mist gewachsen, bleibt die Hoffnung, dass der Refresh besser wird (eine signifikante Nach-/Verbesserung bietet) und die Top-Vega11 GPUs (RX 680) wenigstens gegen zukünftige GTX 1160/2060 konkurrenzfähig bleiben können.
 
Zuletzt bearbeitet:
Da hat AMD halt versucht mit manipulierten Teststzenen die Ergebnisse zu beinflussen.
Die ganzen Youtube-Tester starten das Spiel, lesen die ersten 3 Zahlen von Rivatuner ab und sind fertig mit dem benchen.

Schade, es hätte einfach gereicht eine gute Vulkan-Umsetzung zu liefern.
 
Also ich finde ich dieses Nazi-Szenario einfach nur stupide und öde.
Wundert mich auch nicht das da ein schwedisches Studio dahintersteckt.
Die hacken gerne drauf rum....
Verhielt sich beim Fußball damals auch nicht anders.
Wems gefällt.....
 
value schrieb:
Da hat AMD halt versucht mit manipulierten Teststzenen die Ergebnisse zu beinflussen.
Die ganzen Youtube-Tester starten das Spiel, lesen die ersten 3 Zahlen von Rivatuner ab und sind fertig mit dem benchen.

Häh ?

Dem CB-Test nach ist es eher so dass AMD hier an mehreren Stellen etwas Probleme hat...die seltsame AA-Skalierung. das GPU-Throttlen bei FHD...

Wo also manipuliert hier AMD (im positiven Sinn ?)
 
Captain Mumpitz schrieb:
Wie weit bist du denn? Mir ist noch nichts derartiges aufgefallen, bis auf einen kleinen Grafikfehler noch ziemlich früh im Spiel in einer ingame-cutscene.

Also lt Steam war ich jetzt 8 Stunden schon ingame, würde 6 Stunden Spielzeit schätzen. Anfänglich schauts noch super aus aber wenn man bissel voranschreitet dann gibts schon das ein oder andere Problem.
Ist mittlerweile schon 6 mal abgeschmiert :rolleyes:, aber irgendwie stört mich das gar nicht - finde das Spiel dennoch Klasse :D.

Mal abwarten vielleicht liegts auch einfach am Treiber, oder es kommt nochn Patch - wird man sehen.
 
Beitrag schrieb:
@Topic
Viel mehr finde ich zwei Dinge beeindruckend: Dass AMD bei diesem Titel derart viel Leistungszuwachs verbuchen kann und dass die AMD-Karten alle ins CPU-Limit laufen, wenn man Situationen wie in Szene 2 hat. Dabei sollen Low-Lvl-APIs die CPU doch so sehr entlasten?
Ich hoffe dazu pendeln lt die Tage noch mal eine Erklärung ein.

Ich glaube nich das es sich um ein klassisches CPU Limit handelt denn dann würden alle auf einer Höhe liegen und der Einbruch wäre nicht mit zunehmender Auflösung so relativ konstant.
Ich vermute eher das da irgendwo bei der Datenverarbeitung ein anderer Flaschenhals existiert oder Sachen bei nvidia anders verarbeitet werden denn es ist ja auch auffällig das es bei den unterschiedlichen Antialiasong Methoden teils erhebliche Unterschiede gibt.
Beispielsweise hatte ich in der Vergangenheit schon einige böse Überraschungen mit dem tranzparenz AA und Nebeleffekten erlebt wo sich diese Methode offenbar einen Wolf daran glättete und massiv Rechenleistung fraß. Bei dem Blattwerk von Bäumen hatte ich das auch schon erlebt.
Meist löste sich die Handbremse dann nach einem Update des Spiels.
 
Wie nicht anders zu erwarten, ist AMD in Vulkan den nVidia Boliden bei weitem überlegen.... Surprise Surprise :cheerlead:
 
Ich habe leichte FPS Drops in einigen Situationen auf maximalen Settings und 3440x1400, aber ansonsten laueft es flott. Das ist nun allerdings kein so ausfuehrlicher Test wie eurer, allerdings fehlt da die Ultrawide Aufloesung (die Wolfenstein 2 nun endlich nativ unterstuetzt!).
 
CB bitte nachbenchen:

10/28 - Beta Patch Live (Steam Overlay, Async Compute, JP Fixes)
Hey all,

The team is pushing through a hotfix patch to the beta branch of Steam for Wolfenstein II: The New Colossus. This includes the following fixes:

Patch notes:

- Resolved an issue affecting the deployment of full game files in Japan, Bahrain, Kuwait, Lebanon, Oman, Qatar, and Saudi Arabia

- Re-enabled Async compute for AMD users (requires AMD driver version 17.10.3, linked below)

http://support.amd.com/en-us/kb-arti...ase-Notes.aspx

- Temporarily disabled Async compute on 1080ti until driver fix is in

- Re-enabled Steam Overlay

- Added driver version detection and dialog
 
Um mich mal eben ausm Vram Usage Thread zu zitieren:
r4yn3 schrieb:
Was ich äußert bemerkenswert an Wolfenstein 2 finde ist, mit dem ersten aufploppen vom OSD, wo der Bethesda Würfel rollt sind instant ~8GB im Vram. Wärend des restlichen startens oder beim Levelvorgang habe ich nur noch ein paar kurze Festplattenzugriffe mit wenigen MB/s. Wenn ich nach dem starten auf HWinfo schaue, steht dort nur dass von meiner 600p mit maximal 288MB/s gelesen wurde, zudem nur 431MB gesamt. Wie das nun funktioniert, dass der Vram Instant befüllt wird, das würde mich interessieren. Beim Quake Champions sah man ja noch beim laden Übertragungsraten von ~700MB/s über mehrere Sekunden weg.

Anhang anzeigen 649094

Mein Leben! mit Über Image Streaming in 4K. 4K Ultra warens ~6GB.

Um das grafisch nochmal darzustellen was ich meine:

Anhang anzeigen 649123

Wie sieht das bei anderen Grafikkarten oder Systemen aus?
 
Wurde hier schon eruiert, wie das Spiel mit älteren CPUs abschneidet? Die CPU im Test müsste ja 12 Threads haben, wenn ich mich nicht irre. Wie siehts beim in die Jahre gekommenen i5 2500 aus, hat damit jemand Erfahrung?
 
Foxman schrieb:
Bin nach 15 Jahren von ATI/AMD nun auf Intel/NVIDIA umgestiegen. Leider hinkt AMD immer (egal ob CPU oder GPU) hinterher.

Kommentare wie dieser darf auf der ersten Seite natürlich nicht fehlen. Dass AMD mit Ryzen ganz gut dabei ist, hast du aber mitbekommen oder? Wenn man nicht gerade in 1080p auf einer 1080TI zockt, merkt man den Unterschied zw AMD und Intel ja kaum.
 
Valdorian schrieb:
Wurde hier schon eruiert, wie das Spiel mit älteren CPUs abschneidet? Die CPU im Test müsste ja 12 Threads haben, wenn ich mich nicht irre. Wie siehts beim in die Jahre gekommenen i5 2500 aus, hat damit jemand Erfahrung?

Wie schon mal geschrieben: mein i5 lässt das Ganze mit mindestens 60fps laufen, in Innenlevels meist um die 100fps, aussen zwischen 70 und 90. Passt also.
Wenn du deinen 2500k noch übertaktet hast, dann sowieso.
 
@Captain Mumpitz

Danke für die Antwort, ist ein non k, also kein OC drin. Bildschirm hat 60 Hz, also reichen mir 60 FPS, die GTX1060 sollte das also packen, sofern die Benchmarks dann noch übertragbar sind.
 
Absolut. Deine 1060er ist stärker als meine RX470 (6GB vorausgesetzt) und deine CPU ziemlich gleich stark wie meine. Von daher passt das. Ich spiel sogar auf Ultra und hab wirklich keinerlei Probleme.
 
Das ist Mumpitz, die Systemanforderungen wurden schon lange angepasst.
 
zeedy schrieb:
Kommentare wie dieser darf auf der ersten Seite natürlich nicht fehlen. Dass AMD mit Ryzen ganz gut dabei ist, hast du aber mitbekommen oder? Wenn man nicht gerade in 1080p auf einer 1080TI zockt, merkt man den Unterschied zw AMD und Intel ja kaum.

Aber auch ein Kommentar wie deines darf nicht fehlen. Es wurde nichts falsches geschrieben, nur dass AMD (immernoch) langsamer ist. Um wie viel und warum ist egal, Fakt ist der Post von Foxman ist zu 100% richtig.
 
@Valdorian

In FHD @ "mein Leben" und TSSAA hab ich ähnliche Werte wie Computerbase. Spiele mit einem alten i5 2500k @ 4,5 GHz, 8 GB RAM und eine R9 390. Die Grafikkarte ist fast immer zu 100% ausgelastet, der Prozessor so ~60%. Hab mal kurz auf 1,6 GHz runtergetaktet, da geht die Auslastung dann schon häufig auf 80% oder so runter. Also scheint das Spiel nicht so viel CPU Power zu benötigen. Natürlich je nach persönlichen Anspruch:)
 
@Hageben

Alles klar, danke für die Antwort. Also wenn mal kurz die FPS droppen, dann werde ich das überleben - schlimmer als bei ME:A kanns ja nicht werden ;-)
 
Zurück
Oben