• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Wolfenstein 2 im Benchmark: Das Vulkan-API-Spiel mit Vega-Feature

Habe vorhin den neuen Nvidia Treiber (388.13) installiert und seitdem ist die Performance deutlich zurückgegangen... jedenfalls musste ich die Settings reduzieren, damit es wieder halbwegs spielbar wurde... merkwürdig. Vllt. liegt's auch nur an dem aktuellen Level.

Update:
Installiere jetzt wieder den alten Treiber. Irgendwie fühlen sich die durch Afterburner angezeigten 100fps nicht wie 100fps an, ich hab eine Art "Mikroruckeln" :(

Update 2:
Mit dem alten Treiber (388.00) läuft alles wie geschmiert, immer so 130-140fps und keine "Mikroruckler".

Ich dachte, dafür seien WHQL-Zertifizierungen da. Besonders bei einem Treiber, der speziell für Wolfenstein 2 optimiert sein soll -.-
 
Zuletzt bearbeitet:
CryNickSystems schrieb:
Habe vorhin den neuen Nvidia Treiber (388.13) installiert und seitdem ist die Performance deutlich zurückgegangen... jedenfalls musste ich die Settings reduzieren, damit es wieder halbwegs spielbar wurde... merkwürdig. Vllt. liegt's auch nur an dem aktuellen Level.

Update:
Installiere jetzt wieder den alten Treiber. Irgendwie fühlen sich die durch Afterburner angezeigten 100fps nicht wie 100fps an, ich hab eine Art "Mikroruckeln" :(

Update 2:
Mit dem alten Treiber (388.00) läuft alles wie geschmiert, immer so 130-140fps und keine "Mikroruckler".

Ich dachte, dafür seien WHQL-Zertifizierungen da. Besonders bei einem Treiber, der speziell für Wolfenstein 2 optimiert sein soll -.-
Evtl. waren vorher nicht alle Sachen die eingestellt waren aktiv(nicht wirklich Ultra), daher der FPS Verlust.
Bei mir(980ti) läuft der 388.13 deutlich besser, abgesehen von Flammen Effekten die ziemlich FPS kosten läuft es eigentlich ziemlich smooth.
 
@Krautmaster:

Es geht mir nicht darum ob man worst case etc darstellt oder diskutiert.

Es ist nur komisch wenn man 1.) schon feststellt das in dem Worst Case fall die GPUs von AMD total seltsam einbrechen. Es ist GUT das CB diesen Bug gefunden hat und gemeldet hat. Aber alles andere als von Bug zu reden ist nach Stand der Dinge schlicht wohl fehl am Platz.

Hier sieht man es doch sehr schön: https://www.computerbase.de/2017-10...-compute-1920-1080-anspruchsvolle-testsequenz

Szene1 Vega auf 1080 Ti niveau
Szene 2 Vega (und ALLE anderen AMD Karten) brechen um 30-40% ein.

=> Wahrscheinlich also ein Problem in Szene 2

=> Man verwendet dennoch Szene 2 um das allgemein Scaling der Engine mit den unterschiedlichen Presets darzustellen.

Das ist doch einfach nur absurd oder ? Ich will zeigen wie das Game bei den verschiedenen Presets performed und wähle dann dazu die Szene2, wo man schon selbst feststellt dass darin ein massive Performance "Bug" eintritt.

Btw. Wenn man sich den Scaling-Test Genauer ansieht und diesen auch noch mit den neueren Tests (z.B. zu Async) oder auch mit den alten Szene1 vs Szene2 Benches vergleicht, merkt man dass es hier offenbar bei niedrigen und mittleren Details KEINE Probleme gibt (scaling nVidia/AMD jeweils fast identisch)
Bei höheren Details aber fällt dann AMD drastisch zurück.

Da nehm ich doch nicht diese offensichtlich verbugged Sequenz um die Engine presets gegeneinander zu stellen ?
 
Ja schwarzer Bildschirm. Ich probiere eben mal den Fenstermodus. Ich habe aber an der stelle kein Savegame, kann man sich irgendwie in den Level cheaten?
 
Zuletzt bearbeitet:
Ich halte die durchschnittlichen 80fps bei 1080p mit einer Radeon 390 für etwas wenig. Ich habe meist 120fps und nur ab und zu droppen diese auf 90.
Spiel läuft auf meiner etwas älteren Hardware super flüssig. Unter 90fps konnte ich bis jetzt nach mehreren Stunden Spielzeit bei mir nicht feststellen.
 
liegt wahrscheinlich an deinem FX. Der haut nochmal 10-20 fps mehr raus als die Konkurenz.
 
tobi14 schrieb:
Also außer in der 90iger Jahre Auflösung FullHD wird man durch Async Compute bei AMD überall langsamer ... geile Funktion! :freak:

Mal davon abgesehen, dass man mit AC bei AMD in jeder Auflösung schneller wird, in 1440p sogar mehr als in FHD.

Die Aussage FHD sei eine 90iger Jahre Auflösung ist doch sehr realitätsfern, ich gehe also davon aus, dass du noch nicht sehr alt bist.
Denn FHD wurde erst ab ca 2008-2010 die gängige Auflösung, Tests hier auf CB waren z.B. 2006 zur Zeit der 8800GTX noch in 1280x1024 bzw 1600x1200.
 
CryNickSystems schrieb:
Ich dachte, dafür seien WHQL-Zertifizierungen da. Besonders bei einem Treiber, der speziell für Wolfenstein 2 optimiert sein soll -.-

Das hat überhaupt nichts miteinander zu tun. Du verwechselst/vermischst WHQL und GameReady.

WHQL = Windows Hardware Quality Labs Zertifikat.
Dafür muss der Treiber "nur" bestimmte durch Microsoft festgelegte Eigenschaften erfüllen, die im Grunde anhand einer Checkliste abgehakt werden.
Das hat demnach im Prinzip nur rein etwas mit der Kompatibilität/Funktionsfähigkeit des Treibers im Verhältnis zum OS zu tun und nichts mit einzelnen Spieletiteln.

GameReady = nVidia's hauseigene Bezeichnung für Treiberoptimierungen für die im Release Document des Treibers benannten Spiele. Hat mit dem WHQL Zertifikat überhaupt nichts zu tun.

Wenn es vorliegend tatsächlich auf einer Vielzahl von Systemen reproduzierbare Probleme mit dem 388.13 geben sollte (clean install gemacht?), dann hat nVidia beim Optimieren möglicherweise gemurkst und muss nochmals nachbessern.
 
Zuletzt bearbeitet von einem Moderator:
SimSon schrieb:
Ich halte die durchschnittlichen 80fps bei 1080p mit einer Radeon 390 für etwas wenig. Ich habe meist 120fps und nur ab und zu droppen diese auf 90.
Spiel läuft auf meiner etwas älteren Hardware super flüssig. Unter 90fps konnte ich bis jetzt nach mehreren Stunden Spielzeit bei mir nicht feststellen.

Die 390 ist auch eine der besten Karten für wenig Geld ;) Ich hatte auch mal eine und die mit dem x hinten ist noch mal deutlich angenehmer in höheren Auflösungen ;) Damit hatte ich immer so 30FPS in 4k. Mit Vega sind es nun so 50-60 je nach Spiel auch mal deutlich anders. Genau das was ich brauche für 4k FreeSync -doch ein bisschen mehr Performance wäre nicht schlecht gewesen. 80 CUs für ein paar mehr Frames wären echt toll. Es reicht gerade so für 4k -ganz knapp. Dadurch muss man sich immer durch Grafiksettings durchfuchsen. Und wenn das Spiel schlecht programmiert ist, muss man zu 3200x1800 wechseln, was noch gut aussieht. Das ist kein Vergleich zu 2560x1440 auf 3840x2160, was schon deutlich hässlicher aussieht.
 
Zuletzt bearbeitet:
DasUnding schrieb:
Ich will mal was zum Spiel selber sagen: Es ist eigentlich keinen Vollpreis wert. Ich hätte mir mehr in Richtung Dishonored erhofft. Von der Propaganda ganz zu schweigen.

Wenn du dir von Wolfenstein etwas in Richtung Dishonored erhoffst, dann hast du irgendwas nicht verstanden.
Zum einen gibt es diverse Vorgänger in der Reihe, zum anderen wird aus jedem Testbericht klar, dass Wolfenstein ein reinrassiger Shooter ist, garniert mit einer simplen Schleichmechanik. Fertig.

Also entweder hast du keinen der Tests gelesen und/oder bist möglicherweise zu jung um die Vorgänger zu kennen. Aber die Erwartungshaltung war definitiv falsch.

Und was meinst du mit Propaganda?
 
Kann man in der deutschen zensierten Fassung die Sprache wieder zurück auf Englisch stellen?
Mit Zensur könnte ich ja noch leben, aber bei Synchronisation in deutscher Sprache dreht sich mir der Magen um.
 
@graysson:
nein. Liegt daran, dass die englische Tonspur ebenfalls von Nazis und dem Führer etc. spricht.
 
janeeisklar schrieb:
Hi, kann man irgendwie herrausfinden WO das Worst-Case-Szenario denn ist? Video? Screenshot?

Scheinbar kann es nur CB reproduzieren, aber nicht die Nutzer von AMD Karten im Forum....
 
Hat auch sein gutes, eine 1080Ti wird ewig halten. xD
was soll an einem Stillstand in der technischen Entwicklung gut sein?

Irgendwie vermisse ich die Zeiten wo Upgrades wirklich sinnvoll waren, ich kann mich noch daran erinnern wie ich eine neue GPU kaufen "musste" nur um ein Spiel starten zu können, weil die aktuelle GPU nicht DX9 unterstützt.

Heutzutage kauft man doch nur noch mehr HW (für Spiele) nur um ein paar FPS mehr zu haben, wirkliche Neuerungen gibt es nicht, oder habe ich da was verpasst ^^ ?
 
Zuletzt bearbeitet:
Iscaran schrieb:

naja Bug ist relativ. Zum anderen ist es eben andersrum. CB hat alle Test mit Der Szene 2 gemacht die eben als erstes ausgesucht wurde ... da die Ergebnisse aber für AMD überraschend schlecht ausfielen hat man Szene 1 nachgeschoben.

Es ist nur logisch dass man eine anspruchsvolle Szene (also die die nun "Worst Case" heißt) als Testszene nimmt, da sie die GPU ja auch maximal stressen soll und so Unterschiede rausarbeitet, zb so dass eine GTX 1080 Ti nicht nur 10% vor der GTX 1080 liegt da etwas anderes limitiert.

Das hat mit Absurd nichts zu tun, oder skalieren die AMD GPU in der Szene 2 schlecht?

Edit. In Szene 2 aka Worst Case ist die Vega 64 12% vor der 56, in Szene 1 nur 8%. Ergo skaliert die GPU wie es sein muss im GPU Limit also Worst Case besser. Genau deswegen nimmt man auch Szenen die eben GPU lastig sind.
Noch krasser in 4K mit Percentilen. Da ist die Vega 64 nur 2% schneller als die Vega 56 und in Worst Case satte 17%. Welche Bench ist nun also absurder? Einer bei dem die Vega 64 so schnell ist wie die 56 oder der andere?
2017-10-31 12_57_22-Wolfenstein 2_ The New Colossus im Benchmark (Seite 2) - ComputerBase.png2017-10-31 12_56_45-Wolfenstein 2_ The New Colossus im Benchmark (Seite 2) - ComputerBase.png
Dass AMDs Leistung da generell auf 70% abfällt ist nicht CBs Problem.
Ergänzung ()

aivazi schrieb:
Scheinbar kann es nur CB reproduzieren, aber nicht die Nutzer von AMD Karten im Forum....

reproduziert man es denn ohne Vergleichkarte? Du wirst mit jeder Karte Schwankungen bei den FPS haben. Diese Schwankung scheint eben bei AMD höher auszufallen je nach Szene. Man kann jetzt an 20 Orten die FPS messen und schauen was bei rumkommt, ohne aber nen Vergleichsmodell zu haben recht sinnfrei.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
reproduziert man es denn ohne Vergleichkarte? Du wirst mit jeder Karte Schwankungen bei den FPS haben. Diese Schwankung scheint eben bei AMD höher auszufallen je nach Szene. Man kann jetzt an 20 Orten die FPS messen und schauen was bei rumkommt, ohne aber nen Vergleichsmodell zu haben recht sinnfrei.

Klar braucht man Vergleiche.

Wenn aber schon ein Vega 64 Besitzer schreibt, dass er das Spiel komplett durchgespielt hat und jenes Worst Case Szenario nur 1 ! Mal für einen Moment nach der Einführung mit den Offenen Welt hatte dann halte ich jenes Worst Case Szenario schon für sehr Fragwürdig....

Da hatte ich mich meiner RX 480 in Doom wesentlich öfter Frame Drops von denen keine Hardware Seite etwas berichtet hat, welche sich aber ziemlich schnell regeneriert haben und wieder eine Konsistente Leistung bot. Wenn auch diese Drops störend waren und nur kurz für 2-3 Sekunden meistens zwischen den Gegner Intervallen vorkamen, haben sie bei mir das Spiel in keinster Weise vermießt... schließlich waren diese Szenarien abzählbar und eigentlich von keiner Relevanz.

Edit:
Zumindest ein Video, damit man sich die Ausmaße von jenem "Worst Case" vorstellen kann wäre man uns schuldig gewesen.
Und die Aussage von CB, dass die "Anspruchsvolle Sequenz" in den ersten 90 Minuten gegenüber der "Worst Case Sequenz" dominiert steht immer noch ziemlich schwammig ohne Konkretisierung seitens CB im Raum.

Edit 2: Schließlich bin ich ein Freund von glatten Frametimes, aber die Aussage von CB ist da dezent mysteriös. Hardwareluxx berichtet zB. nichts von einem Worst Case Szenario. Bietet aber quasi die identischen Werte zum " Anspruchsvollen Szenario" : https://www.hardwareluxx.de/index.p...ein-2-the-new-colossus-im-benchmark-test.html


Schließlich wählt man zB. bei Last of Us doch nicht einen bewusst gewählten Bereich in dem die FPS auf 20 einbrechen und urteilt dann Anhand dieser einen Szene, dass man das ganze Spiel über mit 20 FPS rechnen muss...
 
Zuletzt bearbeitet:
Zurück
Oben