Bericht Cyberpunk 2077 Patch 1.5: AMD, Intel und Nvidia im Community-Benchmark

System: 3090, 12900K, DDR5-6400CL34, GPU OC, CPU OC
1.920 x 1.080, Niedrig, Details siehe Text: 244,8
 

Anhänge

  • 2022-03-12_2336_1.png
    2022-03-12_2336_1.png
    1,9 MB · Aufrufe: 238
Moin.

Preset: RT_Ultra, 4K
FPS:
Minimum: 25-49
Average: 56-61
Maximum: 72-98

Settings:
4k, RT_Ultra preset (DLSS_Performance, Ultra details; DLSS_Sharpening_OFF
Driver Settings:
Forced AF_16x ; Prefer_Maximum_Performance ; Low_Latency_Mode_On
Display Related Settings:
G-sync: Enable_for_full_screen_mode ; Perform_scaling_on_GPU ; 160Hz ; 10_bpc ; HDR_Disabled
GPU Overclock:
using Precision X1: Power Target = 119% ; Mem Clock + 248 = 10000Mhz ; GPU Clock +50
BIOS Settings:
PBO_Enabled ; Resizable_BAR_enabled ; XMP_enabled ; FCLK_1800
Adcvanced BIOS settings:
SMT_Disabled ; Curve Optimizer: Negative 12 auf allen Kernen ; Socket Power: EDC_195, TDC_195, PPT_367 ; fTPM disabled ; PCIe Gen4

Specs:
evga rtx3090 ftw3 ultra ; Ryzen 9 5950x ;
Chipset: x570 ; 4x8gb ddr4 3600 CL16 ; Samsung SSD 980 pro 1TB ;
Windows 10 ; GPU driver Version: 511.79 ; DLSS Version: default 2.3.4
Cyberpunk 2077, Version 1.5 Hotfix_2


Anmerkungen:
Das deaktivieren von SMT scheint die Min-FPS-Werte zu verbessern.
Im übrigen gibt es einen Bug: Möchte man nach einem erfolgreichen Lauf eine andere Voreinstellung testen, werden die Einstellungen nicht übernommen solange man nicht mindestens ein Detail manuell ändert und dann auf apply klickt. Im Resultat wird sonst trotzdem der vermeintlich ausgewählte Preset aufgelistet, zusammen mit den Ergebnissen der vorherigen Einstellungen.
 
.
Hier noch ein paar Ergebnisse mit den vorgegeben Einstellungen.
Habe dafür die Treiber-Einstellungen zurückgesetzt und die Overclocks heruntergeschraubt.
SMT ist deaktiviert, PBO ist aktiviert ; GPU Powerlimit 119% ; alles Luft-gekühlt.

System: RTX3090, 5950x, ddr4-3600CL16
1.920 x 1.080, Niedrig, Details siehe Text: 187
3.840 x 2.160, Niedrig, Details siehe Text: 96
2.560 x 1.440, Hoch, Details siehe Text: 102
2.560 x 1.440, RT Mittel, Details siehe Text: 70
3.840 x 2.160, RT Mittel, Details siehe Text: 38


Cyberpunk 2077 Screenshot 2022.03.19 - 03.00.14.79.png Desktop Screenshot 2022.03.19 - 02.47.48.40.png

Desktop Screenshot 2022.03.19 - 02.53.04.33.png Desktop Screenshot 2022.03.19 - 02.56.38.07.png


.
 
Hat wer ne Ahnung was die Frametime Spikes sollen? Hab mal 3 Benchmarks mit Capframe aufgenommen und bei jedem Benchmark gibt es Ruckler welche die min fps auf unter 4 senken und die Frame time auf siehe Bild steigt....
Cyberstink.jpg


System läuft quasi auf Stock Settings zwecks Test... FTPM2 AMD hab ich auch aus geschaltet gehabt bei den Runs..
 
System: Radeon R7 Graphics (IGP), AMD A12-9800, DDR4-2400CL16
1.920 x 1.080, Niedrig, Details siehe Text: 10,7
 
System: CPU: R9 3900X, GPU: RX6800 OC, RAM DDR4-3200 CL16
1.920 x 1.080, Niedrig, Details siehe Text: 144,61
3.840 x 2.160, Niedrig, Details siehe Text: 94,89
1.920 x 1.080, Hoch, Details siehe Text: 137,02
2.560 x 1.440, Hoch, Details siehe Text: 99,97
3.840 x 2.160, Hoch, Details siehe Text: 47,28
1.920 x 1.080, RT Mittel, Details siehe Text: 64,64
2.560 x 1.440, RT Mittel, Details siehe Text: 45,14
3.840 x 2.160, RT Mittel, Details siehe Text: 23,35
 
Das game ist im steam sale für 30 Euro
Nun habe ich zugeschlagen

6800 XT 5900x ddram4 3600 cl17


2.560 x 1.440, Hoch, Details siehe Text: 107,78


Aber mit fsr Einstellungen sieht es in egal welcher Einstellung echt aus wie Kraut und Rüben
 
System: RTX 3070, 2700X, DDR4-3400CL14
1.920 x 1.080, Niedrig, Details siehe Text: 130,88
2.560 x 1.440, Niedrig, Details siehe Text: 114,96
1.920 x 1.080, Hoch, Details siehe Text: 109,63
2.560 x 1.440, Hoch, Details siehe Text: 73,84
1.920 x 1.080, RT Mittel, Details siehe Text: 76,81
2.560 x 1.440, RT Mittel, Details siehe Text: 50,73
 
System: RTX 3090TI UV, 5900X PBO, DDR4-3800CL18
2.560 x 1.440, RT Mittel, Details siehe Text: 79,56
3.840 x 2.160, RT Mittel, Details siehe Text: 40,51

Ich dachte mir, poste ich mal die erste 3090TI, es gibt noch keine in der Auflistung. Tatsächlich bin ich damit nicht auf Platz 1, optimierte 3090 und bessere CPU-Ram Kombi sind da vorteilhafter.
 

Anhänge

  • Cyberpunk 2077 Screenshot 2022.08.22 - 19.03.14.44.png
    Cyberpunk 2077 Screenshot 2022.08.22 - 19.03.14.44.png
    8,5 MB · Aufrufe: 188
  • Cyberpunk 2077 Screenshot 2022.08.22 - 19.54.16.37.png
    Cyberpunk 2077 Screenshot 2022.08.22 - 19.54.16.37.png
    3,8 MB · Aufrufe: 173
Die Frage wäre auch die Kühlung. Mit einer guten WaKü ist auch eine 3080 Ti mit einem 5950er und 3600er XMP 16-16-16-36 schneller.

Soviel größer ist der Chip der 3090 Ti ja leider nicht, was der ein bisschen größer ist holt der kleinere über den Takt dank gleichem Powerlimit wieder raus. Und du schreibst ja explizit du undervoltest, das kostet halt die letzten drei Frames vermutlich (vorausgesetzt du bist nicht so schon mit Luft am thermalen Limit).
 
  • Gefällt mir
Reaktionen: fast_Manu
System: RTX 3090TI OC/UV, 5900X UV, DDR4-3800CL18
1.920 x 1.080, RT Mittel, Details siehe Text: 114,77
2.560 x 1.440, RT Mittel, Details siehe Text: 86,38
3.840 x 2.160, RT Mittel, Details siehe Text: 44,42

So, ihr habt mich motiviert meine Werte zu verbessern. Was war der Knackpunkt?
Ich hatte bei dem ersten Run auf meiner MSI Gaming X Trio ein EVGA Bios geflasht, TDP von über 500 Watt. Egal was ich versucht hab mit Kurvenoptimierung, die Karte nahm sich nie 1v und dümpelte teilweise bei 1700mhz rum und lief dabei auch noch ins Powerlimit. Damit entstanden dann die vorigen Werte.

Heute habe ich dann meinen 5900x noch mal per Curve Optimizer optimiert und auf die 3090ti ein MSI Suprime X Bios geflasht. Und siehe da, hier läuft sie wunderbar mit Optimierung auf 1v und 2100mhz und landet NICHT mal im Powerlimit, sondern bleibt bei 400 Watt ca. Erstaunlich und erfreulich.
 

Anhänge

  • Cyberpunk 2077 Screenshot 2022.08.26 - 20.21.05.76.png
    Cyberpunk 2077 Screenshot 2022.08.26 - 20.21.05.76.png
    8,5 MB · Aufrufe: 189
  • Cyberpunk 2077 Screenshot 2022.08.26 - 20.26.15.30.png
    Cyberpunk 2077 Screenshot 2022.08.26 - 20.26.15.30.png
    2,2 MB · Aufrufe: 182
  • Cyberpunk 2077 Screenshot 2022.08.26 - 20.40.46.28.png
    Cyberpunk 2077 Screenshot 2022.08.26 - 20.40.46.28.png
    3,8 MB · Aufrufe: 174
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife und Esenel
Nicht direkt dem Benchmark im Startpost zuträglich, aber ich habe eben mal einen kleinen Vergleich gemacht zwischen dem vorherigen und dem gerade veröffentlichten Treiber. Die Szene ist dieser Markt den auch DF verwendet bei ihren Tests:

Optimized_Settings_Market_Comparison.png
Optimized_Settings_Market_Comparison_FrameVar.png
Psycho_Settings_Market_Comparison.png
Psycho_Settings_Market_Comparison_FrameVar.png


Zumindest als direkter Vergleich fand ich das mal ganz interessant. Psycho sind alle RT settings an und eben auf Psycho. Optimized habe ich RT auf Ultra und alle RT Effekte an bis auf lokale Schatten. Ist auf einer 3090 / 3840x1600 Auflösung mit DLSS Q. Die restlichen Einstellungen sind fast alle auf Hoch, aber sehr durchmischt. Sollte hierfür nicht so relevant sein :x

Hier auch nochmal der interne Benchmark: https://imgur.com/a/bA9IagQ

Ich konnte auch ca. 40 Watt mehr Leistungsaufnahme der GPU vermerken.
 
  • Gefällt mir
Reaktionen: fast_Manu
System: RTX 4090 OC, Ryzen 7950X OC, DDR5-6400CL32
2.560 x 1.440, Hoch, Details siehe Text: 220,71
3.840 x 2.160, Hoch, Details siehe Text: 153,07
2.560 x 1.440, RT Mittel, Details siehe Text: 126,28
3.840 x 2.160, RT Mittel, Details siehe Text: 68,22

Spannend auch meine eigenen Settings die eigentlich alles maximieren und nur Chromatic Aberration, Motion Blur und Film Grain abschalten (nervige Effekte für mich). Optisch sieht das besser aus als das Mittlere Setting und bringt mir gleichzeitig ~90fps+ avg. ggü. den 68 mit den CB Settings in UHD.

Bessere Optik und mehr Performance durch weglassen von drei eher visuell abträglichen Settings und dafür RT Ultra mit allem maximiert UND auch nochmal 33% mehr Performance dabei ? No-Brainer.

Witzig auch, dass die 4090 in 1440p ohne RT gar nicht ausgelastet werden kann, die hovert immer um die 85% GPU Auslastung rum und zieht mickrige 300-330W weil wohl die CPU nicht hinterherkommt oder die Engine nicht viel mehr mag. :D

Sollte mal einer verifizieren mit 13900K und 4090 evtl.
 
ThirdLife schrieb:
Witzig auch, dass die 4090 in 1440p ohne RT gar nicht ausgelastet werden kann, die hovert immer um die 85% GPU Auslastung rum und zieht mickrige 300-330W weil wohl die CPU nicht hinterherkommt oder die Engine nicht viel mehr mag. :D
Selbst mit Psycho-RT schwierig die auszulasten. Auf meiner 3840x1600 Auflösung mit DLSS-Q gibt es schon einige stellen wo ich gnadenlos im CPU Limit stecke. (Dazu sei gesagt, dass ich mods für besseres LOD, crowd density und etwaige andere Dinge habe) Klar, alternativ kann DLSS komplett deaktiviert werden, ich finde aber, dass es mit besser aussieht und die FPS sind dann insgesamt ja trotzdem niedriger.

Das war mit meinem 5800X. Daher habe ich mich jetzt noch entschlossen, diesen mal gegen einen 5800X3D zu tauschen, hat mich nämlich auch echt interessiert, wie viel der noch rausholen kann. Vorallem konnte ich keine wirklichen Vergleichsbenchmarks finden die irgendeine Aussagekraft hätten. Deshalb hier mal ein Benchmark run von mir an einer CPU starken stelle vor Lizzies bar:

dsK8dp0.png


Ich habe dazu auch mal den SMT mod von Cyber Engine Tweaks nochmal ausprobiert. Beim 5800X hat er nichts bewirkt, außer die CPU Last zu erhöhen, beim X3D bringt er zumindest an dieser Stelle reproduzierbar bessere FPS.

Mit dem SMT mod hat der 5800X3D ggü dem 5800X hier 28% mehr FPS, wenngleich die gelegentlichen Stutter besser aber nicht weg sind.

An einer anderen CPU lastigen stelle brachte der SMT mod z.B. nicht so viel:

P8DURm1fiN.png


Aber trotzdem, 28% mehr performance bei gleichen Settings, nur durch die CPU. Und trotzdem ist das immer noch stark im CPU Limit, eigentlich müsste da also was noch stärkeres rein.

Geht aber so völlig i.O. nun und die 4090 braucht einfach maximal 220W an Stellen wo sie nahezu ausgelastet werden kann, meistens ist es irgendwas zwischen 160 und 200 W, unnormal!

A8ZdYTD.png

OSD noch nicht für den X3D geändert.
 
  • Gefällt mir
Reaktionen: ThirdLife
Die 4090 kommt/kam eben zu einer Zeit raus, in der (auch Pandemie-bedingt) nichts großartiges vom Stapel gelassen wurde optisch. Ja, wenige Spiele sahen sehr gut aus, aber diese Generation Software hält leider dieses Mal nicht Schritt mit der aktuellen Hardware. Ohne RT sähe es noch "schlechter" aus für das Topmodell, nur auf Raster bezogen gibt es wahrscheinlich noch nicht mal Consumer-Monitore, welche groß genug wären, eine 4090 zu rechtfertigen.

Ist ne unpopuläre Meinung, ich weiß, aber gerade hier auf 2077 bezogen ist der Performance-Impact von genau letztgenanntem RT in meinen Augen nicht der Rede wert. Dazu sind mir die Unterschiede einfach zu gering, halbieren mir aber fast die fps. Ich würde es nur bedingungslos anmachen, wenn jede 350€-Karte das einwandfrei darstellen kann und das werde ich wohl wie hier schon mal erwähnt erst 2030 erleben oder nie, wenn auch die Spiele alle 2-3 Jahre grafisch ordentlich anziehen.
 
System: RTX 2080 Ti, 4790K OC, DDR3-1600CL9
2.560 x 1.440, Niedrig, Details siehe Text: 89,32
2.560 x 1.440, Hoch, Details siehe Text: 73,55
2.560 x 1.440, RT Mittel, Details siehe Text: 51,44

Gar nicht so verkehrt, was die alte Schüssel mit minimal-OC (4,4 Ghz Allcore-Turbo) in WQHD schafft. Gut, geköpft ist die CPU, da gibt es kein Hitzeproblem mehr, aber trotzdem: Das Ding ist aus Quartal 2 2014 und hat läppische $350 UVP gehabt.
 
System: Ryzen 5950X, RedDevil 6900XT , 32GBRam DDR4@3600CL18 Patch 2.0
2.560 x 1.440, Hoch, Details siehe Text: 46,92
Cyberpunk 2077 Patch 2.0 -1.JPG
 
Zurück
Oben