Test The Witcher 3 Next Gen im Test: Benchmarks der Community zum Patch 4.02

.Sentinel. schrieb:
Es sieht wirklich danach aus, als ob die Grafik- Pipeline ab einem gewissen Level verstopft und man das mit Herantasten an einen Maximalwert für die eigene Hardwarekombi ruhig bekommt.
Das könnte für den einen oder anderen einen validen Workaround darstellen, bis ein entsprechender Patch kommt, der das Leid in Angriff nimmt.
Ist witzig, hatte ich gestern auch getestet, weil mich das extrem gute Abschneiden von FG mit Frame Limiter stutzig gemacht hatte. Der Unterschied ist extrem, aber mal Hand aufs Herz, da ist doch das Scheduling auf der GPU im Eimer?!

1671187417239.png
 
  • Gefällt mir
Reaktionen: trockenerToast, Tiara G. und .Sentinel.
System: RX6700XT UV, 5800X3D, DDR4-3200CL16
3.440 x 1.440, Preset „Mittel“: 95,7
2.560 x 1.440, Preset „Höchste“: 74,2
3.440 x 1.440, Preset „Höchste“: 60,9

Board: Gigabyte B550 Aorus Elite V1
Ram: Cruc. Ballistix
Die GPU der 6700XT Red Devil ist auf 1,1v (-0,1V) reduziert, am PL wurde nichts verändert.
Anbei noch die Ergebnisse mit OC bzw. Silentbios der Karte auf dem Höchste Preset in UWQHD.

1671187683807.png


Auch bei mir gibt es beim zuschalten von RT Abstürze nach dem Ladescreen.
 
Esenel schrieb:
System: RTX4090 OC, 12900K OC, DDR5-6800CL32
3.840 x 2.160, Preset „RT Ultra“, DLSS/FSR Quality: 81,1
Wie hoch taktet deine 4090? 15% mehr FPS im GPU Limit als meine mit 2700MHz sind schon stark. Das müssten dann ja über 3 GHz und ordentlich Speicher-OC sein, oder?
Ergänzung ()

Jan schrieb:
Ohne das CMS in Gänze zu erklären: Das ist dieses Mal der Nachteil der mehreren Formular. Wenn was fehlt, bitte darauf hinweisen, dann kann ich das manuell ergänzen! :) @MoinWoll
Danke! Es fehlen die Presets "RT", "Höchste", "Mittel" und "RT Ultra + FG" aus meinem Post hier:

https://www.computerbase.de/forum/t...ommunity-zum-patch-4-02.2119499/post-27649241

Nachdem ich tatsächlich jedes der hier getesteten Presets und jede Auflösung gebenchmarkt habe, weiß ich Eure Arbeit für Benchmarks mit zig verschiedenen Spielen, Grafikkarten und Auflösungen umso mehr zu schätzen. Bei sowas gibt es sehr schnell eine kombinatorische Explosion, die nachher in den Diagrammen, die man sich als Leser anschaut, kaum noch nachzuvollziehen ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Asghan und Esenel
MoinWoll schrieb:
Wie hoch taktet deine 4090? 15% mehr FPS im GPU Limit als meine mit 2700MHz sind schon stark. Müssten dann ja über 3 GHz und ordentlich Speicher-OC sein oder?

Ja. Darum der angehängte Screenshot.

3150MHz auf der GPU: +225MHz
Und +1795MHz aufm VRAM.
 
  • Gefällt mir
Reaktionen: Zer0Strat und MoinWoll
Zer0Strat schrieb:
Ist witzig, hatte ich gestern auch getestet, weil mich das extrem gute Abschneiden von FG mit Frame Limiter stutzig gemacht hatte. Der Unterschied ist extrem, aber mal Hand aufs Herz, da ist doch das Scheduling auf der GPU im Eimer?!
Ich vermute, dass der DX12 Wrapper die stalls auslöst. Der Scheduler ist ja in Sachen Shader mit steigender Auflösung steigend involviert.
Das Problem lässt sich aber, so wie ich das sehe Auflösungsunabhängig provozieren, so dass es eher mit dem Szenen- bzw. Geometriedurchsatz zusammenhängen scheint.
Man müsste die Calls mal abfangen, die zwischen Software und dem Wrapper hin- und herfliegen und statistisch auswerten.
Dann den Wrapper mal gezielt in den einzelnen Funktionen belasten... Um zu sehen, ob bzw. wann der dann "dicht" macht.
 
  • Gefällt mir
Reaktionen: Zer0Strat
moehrensteiner schrieb:
Wenn im Windows-System HDR aktiviert ist, wird auch (still) in der Complete Edition HDR verwendet. So ist es laut Entwickler. Ein HDR-Configmenü wird erst mit einem späteren Patch nachgereicht.

Im File dx12user.settings unter

[Visuals]
HdrPaperWhite=300
AllowClothSimulationOnGpu=false
InventoryBgColorScaleB=0.036
InventoryFixedLuminance=0.25
HdrGamma1=1.1
InventoryBgColorScaleG=0.034
MovieFramerate=30
GammaValue=1.26
MaxTVBrightness=610
InventoryBgColorScaleR=0.02
HdrGamma2=8

kannst du die wichtigsten Werte für dein HDR-Display händisch anpassen. Z.B. schafft mein Display 610 Nits, deswegen sind sie dort von mir händisch unter MaxTVBrightness=610 eingetragen worden.
wo finde ich dieses ini file ?
(edit) ah, gefunden im Dokuments !
 
Esenel schrieb:
Ja. Darum der angehängte Screenshot.

3150MHz auf der GPU: +225MHz
Und +1795MHz aufm VRAM.
Krass, da hast Du echt ein Golden Sample erwischt. Glückwunsch!
 
  • Gefällt mir
Reaktionen: Jan und Esenel
Zer0Strat schrieb:
Ist witzig, hatte ich gestern auch getestet, weil mich das extrem gute Abschneiden von FG mit Frame Limiter stutzig gemacht hatte. Der Unterschied ist extrem, aber mal Hand aufs Herz, da ist doch das Scheduling auf der GPU im Eimer?!

Verdammt- Streckenweise ist das Remaster aber grafisch wirklich ein Brett...

Irgendwie hab ich grad das Verlangen wieder dort einzutauchen :) Vielleicht kann ich auch auf die Schnelle einen Wrapper für den Wrapper generieren der ein wenig Ordnung in die calls bringt.
 
  • Gefällt mir
Reaktionen: Moerf, Jan und Zer0Strat
Zer0Strat schrieb:
Ist witzig, hatte ich gestern auch getestet, weil mich das extrem gute Abschneiden von FG mit Frame Limiter stutzig gemacht hatte. Der Unterschied ist extrem, aber mal Hand aufs Herz, da ist doch das Scheduling auf der GPU im Eimer?!

Ich verstehe das nicht, bei jedem scheint es mit Framelimiter zu funktionieren, nur bei mir nicht 🤔

Sobald ich FG mit jedweder Form von Limit nutze, egal ob V-Sync oder Framelimit per RTSS oder Treiber -> Miese Frametimes und teils im Abstand von einigen Sekunden periodische Spikes.

Ohne sind die Frametimes dagegen perfekt und das Spiel absolut flüssig, ich muss lediglich per downsamping dafür sorgen, dass die FPS unter 144 bleiben. Eigentlich würde ich lieber mit einer höheren Basisbildrate spielen und quasi mittels DLSS3 "auffüllen" um konstant auf meine 144 FPS zu kommen.

Was mache ich falsch?

Kann es eventuell daran liegen, dass mein Monitor nicht offiziell G-Sync kompatibel ist?
 
Jan schrieb:
Ich habe erneut unzählige eingesendete Ergebnisse in die Datenbank übernommen - inklusive Steam Deck! :)

Damit sind inzwischen Benchmark-Ergebnisse von 35 + 7 (unsere) Systemen zusammengekommen.
Danke für deine Arbeit.

Leider sind meine Testergebnisse für RT Ultra Quality und RT Ultra Performance vertauscht, kannst du vielleicht noch korrigieren.

System: RTX3070 UV, 5600X, DDR4-3200CL16
2.560 x 1.440, Preset „RT Ultra“, DLSS/FSR Quality: 37,5
2.560 x 1.440, Preset „RT Ultra“, DLSS/FSR Performance: 46,4
 
Mayima schrieb:
Kann es eventuell daran liegen, dass mein Monitor nicht offiziell G-Sync kompatibel ist?
Das würde an den Spikes ja nichts ändern, wenn diese messbar sind, mein Monitor ist auch offiziell nicht kompatibel
 
.Sentinel. schrieb:
Irgendwie hab ich grad das Verlangen wieder dort einzutauchen :) Vielleicht kann ich auch auf die Schnelle einen Wrapper für den Wrapper generieren der ein wenig Ordnung in die calls bringt.
Wenn das mit der heißen Nadel geht und gut funktioniert, dann kann ich das über Twitter pushen. Die Leute sind da bestimmt heiß drauf.
Mayima schrieb:
Ich verstehe das nicht, bei jedem scheint es mit Framelimiter zu funktionieren, nur bei mir nicht
Es ist wichtig, dass der Limiter so gesetzt wird, dass tatsächlich die GPU-Usage deutlich unter 99% fällt.
 
mibbio schrieb:
Dieser Layer ist im Grunde nur als "Quick and Dirty" Option gedacht für grafisch anspruchslose Spiele.
Wäre interessant, ob das mit VKD3D nicht besser funktioniert hätte. (not that serious though)

Northstar2710 schrieb:
Probiere es nachher mal aufm SteamDeck, muss erstmal den Gamesave Ordner finden.
Ist im prefix unter drive_c/users/steamuser/Documents/The Witcher 3, außer Steam macht das anders.
Hast du die Steam Version? Denn bei meiner GoG Version komme ich nicht über 720p oder musstest du etwas einstellen?
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Vielleicht kann ich auch auf die Schnelle einen Wrapper für den Wrapper generieren der ein wenig Ordnung in die calls bringt.
👍

Wenn Du fluffig durchkommst, ist ja vielleicht noch eine schnelle Optimierung für meine Vega drin. :D
 
Zurück
Oben