Bericht Cyberpunk 2077 mit Pathtracing: Die Community testet den Raytracing-Overdrive-Modus

habla2k schrieb:
Liegt das dann am CPU Limit?
Glaube ich nicht. Derjenige mit der 3080 ti hat einen 5800X3D und ich mit der 3070 nur einen 5600x und deutlich mehr FPS. Auch die anderen 3080 sind deutlich über meiner 3070 und über der gelisteten 3080 ti. Denke irgendwas passt beim User mit der 3080 ti nicht. Vielleicht sehr alte Treiber...

Noch erwähnen sollte ich zu meinen Werten, dass mein Windows 11 eine Neuinstallation von vor ca. 2 Wochen ist ohne jegliche Bloodware oder ähnliches.

Was ich aber interessant finde, dass selbst meine 3070 schneller ist als eine 7900XTX.
 
System: RTX3070 UV/OC ,R5 3600 3200CL16
1,920 x 1,080, native resolution: 22.89
 

Anhänge

  • Cyberpunk2077_2023_04_13_14_51_21_464.jpg
    Cyberpunk2077_2023_04_13_14_51_21_464.jpg
    899,9 KB · Aufrufe: 176
Ich habe noch einmal einige Ergebnisse eingetragen. Wie gesagt, 4090-Einreichungen lasse ich inzwischen links liegen - einfach, weil da imho schon genug 4090 in den Diagrammen sind. Mit mehr wirds einfach nur unübersichtlicher. Bin btw echt erschrocken, wie viele 4090 hier unterwegs sind, so "falsch" kann Nvidias Preispolitik ja anscheinend nicht sein ;P
 
  • Gefällt mir
Reaktionen: msv, _Cassini_, Grestorn und eine weitere Person
System: RTX 3080 M 16GB (140W), 11980HK
1.920 x 1.080, FRS 2/DLSS „Performance“: 55,43
2.560 x 1.440, FRS 2/DLSS „Performance“: 36,70
1.920 x 1.080, native Auflösung: 19,18
2.560 x 1.440, native Auflösung: 11,40

Mein System:
MSI GE66 Raider
GPU: Nvidia RTX 3080 16GB VRAM, 140W
CPU: Intel i9-11980HK (bis zu 5 GHz)
RAM: 32GB (DDR4-3200)
SSD: 2 TB von Samsung
Display: IPS, 1440p, 240Hz

Bemerkung:
Ich musste die Benchmarks wiederholen, da ich keine Screenshots gemacht hatte. Nun sind die FPS geringfügig anders. Belege/Screenshots sind angehangen.

Die vorigen FPS Werte waren in selber Reihenfolge wie oben: 54,95 | 36,78 | 19,01 | 11,16
 

Anhänge

  • Screenshot (1039)_063822.jpg
    Screenshot (1039)_063822.jpg
    344,9 KB · Aufrufe: 128
  • Screenshot (1040)_063832.jpg
    Screenshot (1040)_063832.jpg
    296,2 KB · Aufrufe: 126
  • Screenshot (1037)_063850.jpg
    Screenshot (1037)_063850.jpg
    330,2 KB · Aufrufe: 135
  • Screenshot (1042)_063914.jpg
    Screenshot (1042)_063914.jpg
    310,3 KB · Aufrufe: 135
Zuletzt bearbeitet: (Screenshots vergessen, daher FPS Werte aktualisiert)
@Vitche Falls möglich wäre es noch cool, wenn man, vielleicht ab morgen/übermorgen schon, Ergebnisse der 4070, sofern hier gepostet, übernommen werden. ^^
 
  • Gefällt mir
Reaktionen: derMutant und Vitche
Schreedr schrieb:
Hi, ja wurde schon verbessert. Was bei DLSS-Performance QHD Stand ist eigentlich FHD.
Aber komisch warum deine 3080ti mit DLSS so langsam ist. Meine 3070 und andere 3080 sind da glaub teils deutlich schneller.
DevPandi schrieb:
Hier gibt es RTX 3070er, die selbst eine 3080 Ti schlagen, was man so nicht immer sieht.
habla2k schrieb:
Liegt das dann am CPU Limit?

Nach einem Redownload vom Spiel, ist die 3080Ti deutlich schneller https://www.computerbase.de/forum/t...overdrive-modus.2139329/page-29#post-28098095
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Vitche
System: RTX 2070 Super, 11700K, DDR4-3200CL16
2.560 x 1.440, FRS 2/DLSS „Performance“: 22,46
2.560 x 1.440, native Auflösung: 6,95
 

Anhänge

  • CP2077-2070S-nativ.JPG
    CP2077-2070S-nativ.JPG
    122,4 KB · Aufrufe: 137
  • CP2077-2070S-DLSS.JPG
    CP2077-2070S-DLSS.JPG
    119,4 KB · Aufrufe: 127
@Vitche @Jan

aus irgendwelchen Gründen sind meine geupdateten Benchmarks doppelt vertreten.
sowohl im DLSS als auch Nativ von 1920X1080 bis zu 3440x1440
 

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    97,1 KB · Aufrufe: 133
  • Gefällt mir
Reaktionen: Vitche
System: Intel Arc A770 16GB, 5600, 32GB DDR4-3200CL16
1.920 x 1.080, FRS 2/DLSS „Performance“: 19,36
1.920 x 1.080, native Auflösung: 5,64

Arc A770 LE 1080p nativ.jpgArc A770 LE 1080p FSR Performance.jpg

Und nachdem ichs irgendwie hinbekommen habe, dass das Spiel trotz eingestelltem FSR nicht trotzdem XeSS nimmt, noch ein XeSS-Benchmark-Lauf 😉. Nur so interessehalber.

1.920 x 1.080, XeSS „Performance“: 19,19

Arc A770 LE 1080p XeSS Performance.jpg

Ich glaube eine höhere Auflösung braucht man dem 5600 und der A770 nicht antun 😅 . Aber da ich etwas zum Basteln bestellt habe, gibts spätestens am Wochenende vielleicht noch ein paar Läufe mit nem 7700 und der A770. Passt namentlich auch so schön 😉.
 
Zuletzt bearbeitet: (JPGs mit kleinerer Dateigröße hochgeladen)
  • Gefällt mir
Reaktionen: H6-Mobs, rumpeLson, Grestorn und 4 andere
Skaiy schrieb:
@Vitche Falls möglich wäre es noch cool, wenn man, vielleicht ab morgen/übermorgen schon, Ergebnisse der 4070, sofern hier gepostet, übernommen werden. ^^
Vielleicht werde ich nun wegen Dummheit gebannt 😂, hab heute als Besitzer einer 3070 eine 4070 bestellt und hoffe die ist Samstag da. Dann werde ich Ergebnisse Posten.
 
  • Gefällt mir
Reaktionen: Grestorn, Laphonso, Vitche und 2 andere
@Schreedr
Naja Dummheit nicht unbedingt, die Sinnhaftigkeit ist aber definitiv fragwürdig xD
Dummheit wäre wenn ich mir als Besitzer einer 3080Ti(e) eine 4070 bestellen würde xD
 
  • Gefällt mir
Reaktionen: Schreedr
Meine Standard Settings (4090UV):

System: RTX 4090 UV, 7700X, DDR5-6000CL30
3.840 x 2.160, DLSS „Performance“ + Frame Generation: 95,91
3.840 x 2.160, DLSS „Quality“ + Frame Generation: 66,82
3.840 x 2.160, FRS 2/DLSS „Performance“: 62,31
3.840 x 2.160, native Auflösung: 20,8

Und Die 4090 auf 3GHz geprügelt sieht dann so aus (bei fast doppeltem Stromverbrauch!)

System: RTX 4090 OC, 7700X, DDR5-6000CL30
3.840 x 2.160, DLSS „Performance“ + Frame Generation: 107,55
3.840 x 2.160, DLSS „Quality“ + Frame Generation: 74,41
3.840 x 2.160, FRS 2/DLSS „Performance“: 71,38
3.840 x 2.160, native Auflösung: 23,52
 
Zuletzt bearbeitet:
msv schrieb:
System: Intel Arc A770 16GB, 5600, 32GB DDR4-3200CL16
Die ersten Ergebnisse mit Intel Arc, vielen Dank! :)
 
  • Gefällt mir
Reaktionen: msv und PegasusHunter
msv schrieb:
Ich glaube eine höhere Auflösung braucht man dem 5600 und der A770 nicht antun 😅 . Aber da ich etwas zum Basteln bestellt habe, gibts spätestens am Wochenende vielleicht noch ein paar Läufe mit nem 7700 und der A770. Passt namentlich auch so schön 😉.
Interessant wäre, wie hoch die CPU-Last war. Wenns davon eine Demoversion oder nur den Benchmark gäbe, könnte ich das mal testen mit ARC 770 LE 16GB und meinem 5950x. :schluck:
 
  • Gefällt mir
Reaktionen: msv
Hotshot22 schrieb:
Diese Art des Community-Testing ist ziemlich cool, danke!

Kurze Frage: habe Cyberpunk überhaupt nicht verfolgt; weder Hype noch sonst was, aber ich habe natürlich mitgekriegt, wie absolut verbugged das Game zum Release war.

Wie schaut das heutzutage aus? Bugfree? Oder nur mehr vereinzelt aka spielbar?
Habe einen Audiobug beim quickhacken, sonst läuft es gut, nichts mehr aufgefallen.
Dieses Update 1.62 hat zwar manchmal das Problem die Settings nicht oder nicht gleich zu übernehmen.
 
Schreedr schrieb:
Vielleicht werde ich nun wegen Dummheit gebannt 😂, hab heute als Besitzer einer 3070 eine 4070 bestellt und hoffe die ist Samstag da. Dann werde ich Ergebnisse Posten.
Naja, FG und auch so fühlbar mehr Performance kriegtst Du auf jeden Fall. Und ich denke, man kann die 3070 auch noch ganz gut verkaufen.
 
  • Gefällt mir
Reaktionen: Schreedr
Vitche schrieb:
Die ersten Ergebnisse mit Intel Arc, vielen Dank! :)

Wo ich mir die gerade im Diagramm ansehen wollte: Hier passt was nicht

1681452174907.png


Eine 6900XT mit 5950X erreicht 21,5FPS, während eine 6800XT mit 5950 28,9FPS erreicht?
Und eine andere 6900XT mit 5800X mit 34,9 FPS ist über 60% schneller.

Der Besitzer der langsamen 6900XT hat zumindest einen Screenshot angehangen, in dem man sieht, dass dort FSR auf Automatisch statt auf Parformance stand.
 
  • Gefällt mir
Reaktionen: Vitche und rumpeLson
Bin leider keine Cyberpunk Fan, aber das Videomaterial, was man aktuell findet, sieht echt gut aus.

Was ist eigentlich mit Strategiespielen und Raytracing? Irgendwie gibt es da kaum etwas.
Ist das noch rechenintensiver als Shooter/Rollenspiele etc. oder hat bei Strategiespielen einfach keine Priorität?

Das einzige Spiel was ich diesbezüglich kenne ist Riftbreaker.

Aber ich stelle mir eher ein Total War mit Pathtracing vor 😄
 
Entlastet DLSS2 bzw. 3.0 auch die CPU?

Beim großen CPU Test kommt der 5800X3D nicht über 95FPS in cyberpunk (720p) und hier über 200?!
 
Zurück
Oben