Bericht Cyberpunk 2077 mit Pathtracing: Die Community testet den Raytracing-Overdrive-Modus

eigentlich schade das es zwichen dem 5800X3D (DDR4 3200 CL16) und dem 7800X3D (DDR5 6000 CL32) quasi keinen unterschied gibt mit ner 7800XTX.

Ein gut eingestellter 5800X3D (am neuen 7800X3D hab ich noch nicht so viel rumgespielt) reicht somit tatsächlich völlig aus um eine 7800XTX komplett befeuern zu können...
 
egal wie man es jetzt darstellt, die 7900xtx kannste bequem mit mit nem 5800x3d befeuern...
7800x3d nebst ddr5 macht keinen unterschied .... sowhl in hd, als auch wqhd...
also noch höher auflösend... brauchen wir nich weiter reden... (kann ich aber eh nich testen, würde aber auch kein sinn machen)
die gpu is einfach hier am limit... bei beiden prozis...
wer also erwägt von einem 5800x3d auf einen 7800x3d umzusteigen:
spart euch das geld, ganz ehrlich...
 
vidarr76 schrieb:
System: RTX3090 (UV+OC),13900K(OC),DDR5-7000 CL32
2.560 x 1.440, FRS 2/DLSS „Performance“: 64
2.560 x 1.440, native Auflösung: 52
Mit 52 FPS nativ wäre deine 3090 vor jeder 4090 in unserer Übersicht - da kann was nicht stimmen. ;)
 
So fertig mit testen für heute, was freu ich mich auf Sonntag.:D
Samuelz schrieb:
Glückwunsch, gutes Upgrade. Leider wirst du jetzt nicht mehr zurück auf eine AMD Karte wechseln wollen.
Naja ich kaufe schon seit über 20 Jahren mal Rot und Grün, aber die Sache war diesmal recht klar, MSFS, Cyberpunk 2077 Phantom Liberty und Witcher 3 Hearts of Stone und Blood and Wine, da kam ich auch noch nicht dazu.
Die Karte passt halt zu meinen Anforderungen mehr zählt nicht.
Genauso wie die 6700XT davor.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Grestorn schrieb:
@.Sentinel. et al.

Ist es bekannt ob es Consolen Kommandos gibt, um die Zahl der Rays und die Bounces im Spiel zu ändern? Damit man nicht ständig neu starten muss?
Wäre mir nicht bekannt. Bezweifle ich jedoch derzeit, weil die Werte (noch nicht) per INI gesetzt werden können. Also entweder mit vorgefertigten .archive Files auf dem Nexus spielen, oder das Wolvenkit Nightly nutzen und ne eigene Konfiguration erstellen.

Ich bin ich nach ein wenig Recherche nun doch versucht, mich bis zum Erscheinen des DLCs zu gedulden.

Man munkelt aus mehreren Richtungen, dass CDPR und NVIDIA daran arbeiten, bis dahin dem ReSTIR noch neural radiance caching for path tracing hinzuzufügen, was den Pathtracing- Output qualitativ noch einmal erheblich steigert:
https://developer.nvidia.com/blog/n...on-with-one-tiny-neural-network-in-real-time/

Das könnte die Karten auf vielerlei Ebenen wieder neu mischen (vielleicht auch performancetechnisch, da die Denoiser entlastet werden können).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Taxxor, Schokolade und Grestorn
Contor schrieb:
eigentlich schade das es zwichen dem 5800X3D (DDR4 3200 CL16) und dem 7800X3D (DDR5 6000 CL32) quasi keinen unterschied gibt mit ner 7800XTX.

Ein gut eingestellter 5800X3D (am neuen 7800X3D hab ich noch nicht so viel rumgespielt) reicht somit tatsächlich völlig aus um eine 7800XTX komplett befeuern zu können...
Naja, es gibt ja nichtmal großartige Unterschiede zwischen einem 5900X und einem 7950X3D.
Ein Kollege hier hat mit seiner 409 OC schlechtere Werte als ich mit meiner 4090 OC mit nur 5900X
 
System: RTX 2080 Ti, 7800X3D, DDR5-6000 CL32
2.560 x 1.440, FRS 2/DLSS „Performance“: 30
 
System: RTX 4070 OC, 7700, 32GB DDR5-6000CL36
1.920 x 1.080, DLSS „Performance“ + Frame Generation: 137,00
1.920 x 1.080, DLSS „Quality“ + Frame Generation: 98,76
1.920 x 1.080, FRS 2/DLSS „Performance“: 85,36
1.920 x 1.080, native Auflösung: 30,99

RTX 4070 OC, 7700, 1080p nativ.jpg RTX 4070 OC, 7700, 1080p DLSS Performance.jpg RTX 4070 OC, 7700, 1080p DLSS Quality + FG.jpg RTX 4070 OC, 7700, 1080p DLSS Performance + FG.jpg

Der Performance- und Effizienz-Unterschied zur Arc A770 ist schon massiv... 😉. Und ja, verdammter Basteltrieb. Also falls jemand Interesse an ner Arc A770 LE hat...? 😁

System: RTX 4070 OC, 7700, 32GB DDR5-6000CL36
2.560 x 1.440, DLSS „Performance“ + Frame Generation: 90,59
2.560 x 1.440, DLSS „Quality“ + Frame Generation: 60,38
2.560 x 1.440, FRS 2/DLSS „Performance“: 56,03
2.560 x 1.440, native Auflösung: 17,98

RTX 4070 OC, 7700, 1440p nativ.jpg RTX 4070 OC, 7700, 1440p DLSS Performance.jpg RTX 4070 OC, 7700, 1440p DLSS Quality + FG.jpg RTX 4070 OC, 7700, 1440p DLSS Performance + FG.jpg

System: RTX 4070 OC, 7700, 32GB DDR5-6000CL36
3.840 x 2.160, DLSS „Performance“ + Frame Generation: 45,53
3.840 x 2.160, DLSS „Quality“ + Frame Generation: 25,33
3.840 x 2.160, FRS 2/DLSS „Performance“: 28,92
3.840 x 2.160, native Auflösung: 8,00

RTX 4070 OC, 7700, 2160p nativ.jpg RTX 4070 OC, 7700, 2160p DLSS Performance.jpg RTX 4070 OC, 7700, 2160p DLSS Quality + FG.jpg RTX 4070 OC, 7700, 2160p DLSS Performance + FG.jpg
 
Zuletzt bearbeitet:
Taxxor schrieb:
Wenn wir dann irgendwann soweit sind, dass eine RTX xx50er Karte die RT Leistung einer 4090 hat und die Spiele auch immer mehr darauf setzen, kann man langsam anfangen die Rasterperformance tatsächlich zugunsten von noch mehr RT Performance zu reduzieren.

Aber da sind wir noch einige Jahre von entfernt, ich denke an RTX7000 frühestens, also 2030 rum
Ganz ausgetauscht wird es aber wohl nie, oder? Ansonsten würden ältere Spiele nicht mehr funktionieren.
 
Bisherige Rendertechnologie wird immer gehen, für viele Dinge ist Rasterizing effizient und sinnvoll. Aber irgendwann wird das genauso wie heute simple 2D-Beschleuniger Funktionen als selbstverständlich eben auch noch von Minichips mit erledigt.
 
System: RTX 4080, 5800X3D, DDR3-3600 CL18
1.920 x 1.080, DLSS „Performance“ + Frame Generation: 172,13
2.560 x 1.440, DLSS „Performance“ + Frame Generation: 126,55
3.440 x 1.440, DLSS „Performance“ + Frame Generation: 101,78
1.920 x 1.080, DLSS „Quality“ + Frame Generation: 134,21
2.560 x 1.440, DLSS „Quality“ + Frame Generation: 89,18
3.440 x 1.440, DLSS „Quality“ + Frame Generation: 70,25
1.920 x 1.080, FRS 2/DLSS „Performance“: 107,06
2.560 x 1.440, FRS 2/DLSS „Performance“: 77,79
3.440 x 1.440, FRS 2/DLSS „Performance“: 62,88
1.920 x 1.080, native Auflösung: 45,78
2.560 x 1.440, native Auflösung: 28,11
3.440 x 1.440, native Auflösung: 21,55
 
Nvidia RTX A5000 (24GB)
AMD Ryzen 5800X3D
32GB DDR4-3200-CL14

1920x1080=23,74fps
2560x1440=14,03fps
3860x2160=6,48fps

1920x1080/DLSS-P=66,84
2560x1440=44,54fps
3860x2160=22,08fps


Mir scheint, die Karte hält ganz gut mit einer 3070Ti mit, und ausnahmsweise scheint sie in Nativ 4K auch mal eine 3080 schlagen zu können (bei mir wurden 16GB Grafik-Ram adressiert)


1080p.jpg1440p.jpg2160p.jpg1080p_DLLS_P.jpg1440p_DLLS_P.jpg2160p_DLLS_P.jpg
 
Zuletzt bearbeitet:
Interessante Aufstellung. Da ich gerade überlegt habe, eine RX6700XT zu holen, ist die Antwort doch klar: alles für die Katz. Besser warten, bis die völlig überteuerten 700+€ Karten von heute für <<300€ zu haben sind.
 
Contor schrieb:
eigentlich schade das es zwichen dem 5800X3D (DDR4 3200 CL16) und dem 7800X3D (DDR5 6000 CL32) quasi keinen unterschied gibt mit ner 7800XTX.

Hä, wieso schade? Sei doch froh, dass beide CPUs schnell genug sind, um nicht ins CPU Limit zu kommen.
Noch besser wärs, wenn das bereits ein 1700X schaffen würde.

CPU Limit ist doch genau das was man um jeden Preis vermeiden möchte. Ich versteh deine Logik daher nicht ganz...

Auch die Schlussfolgerung dass sich das Upgrade nicht lohnen würde ergibt für mich keinen Sinn. Das kommt doch immer auf die Situation bzw. die aktuell anliegende Framerate an.

Dass In Cyberpunk mit Pathtracing die GPU limitiert ist doch klar. Dafür wirst du in anderen Spielen in denen die Karte so hohe FPS erreicht, dass du ins CPU Limit kommst, mit dem 7800X3D Vorteile haben. Auch wirst du die CPU länger nutzen können, bevor sie dir zu langsam wird. Ob ne CPU reicht oder nicht kann man daher auch nicht pauschalisieren. Kommt immer auf die Software bzw. das Spiel an.
Gibt Situationen, da kommst du selbst mit einer GTX1060 ins CPU Limit und profitierst von einem 7800X3D.


Aber gut, wenn einem das nicht klar ist, dann sollte man natürlich nicht einfach so geld für etwas ausgeben, dessen Nutzen man nicht einschätzen kann. In dem Punkt stimme ich zu.
 
Stuffz schrieb:
Interessante Aufstellung. Da ich gerade überlegt habe, eine RX6700XT zu holen, ist die Antwort doch klar: alles für die Katz. Besser warten, bis die völlig überteuerten 700+€ Karten von heute für <<300€ zu haben sind.
Wann soll das sein ? In fünf Jahren ? 🤣
Ergänzung ()

Contor schrieb:
eigentlich schade das es zwichen dem 5800X3D (DDR4 3200 CL16) und dem 7800X3D (DDR5 6000 CL32) quasi keinen unterschied gibt mit ner 7900XTX.

Ein gut eingestellter 5800X3D (am neuen 7800X3D hab ich noch nicht so viel rumgespielt) reicht somit tatsächlich völlig aus um eine 7900XTX komplett befeuern zu können
Natürlich reicht das aus. Die Karte kann ja auch nix in High-Load RT Szenarien. Was hast du erwartet ? Für solche "Spezial"-Szenarien ist jede AMD Karte momentan unbrauchbar.

CPU wird auch erst relevant ab einer gewissen Bildrate in dem Spiel. 25-30fps kann vermutlich jede Scheiss-Krücke in dem Spiel irgendwie hindrücken. Ein moderne CPU wie Zen3 oder Zen4 erst Recht.
 
@Jan @Vitche Nachdem Ihr ja im Podcast die These aufgestellt habt, das unter Verwendung von DLSS ein CPU-Limit vorhanden sein könnte, Habe ich mir meinen 3770K geschnappt eine 3060 12gb Draufgeschnallt:

System: RTX3060, 3770k OC , DDR3-1600 CL10
1.920 x 1.080, FRS 2/DLSS „Performance“: 36,47
2.560 x 1.440, FRS 2/DLSS „Performance“: 26,19
OC auf 4,4Ghz allcore MIT HT

System: RTX3060, 3770k OC , DDR3-1600 CL10
1.920 x 1.080, FRS 2/DLSS „Performance“: 38,10
2.560 x 1.440, FRS 2/DLSS „Performance“: 25,48
4,4Ghz OHNE HT

System: RTX3060, 3770k , DDR3-1600 CL10
1.920 x 1.080, FRS 2/DLSS „Performance“: 38,32
2.560 x 1.440, FRS 2/DLSS „Performance“: 24,52
Stock MIT HT

System: RTX3060, 3770k , DDR3-1600 CL10
1.920 x 1.080, FRS 2/DLSS „Performance“: 27,48
2.560 x 1.440, FRS 2/DLSS „Performance“: 26,02
Stock OHNE HT


Entweder ist die CPU so lahm dass es keinen Unterschied mehr macht, oder die 3060 Ist nicht Fix genug als das einen Signifikaten Unterschied mehr macht....
Bei den Min FPS gibt es schon den einen oder anderen Unterschied
 

Anhänge

  • 1080p HT  4,4  DLSS.png
    1080p HT 4,4 DLSS.png
    3,5 MB · Aufrufe: 121
  • 1080p HT 3,7 DLSS.png
    1080p HT 3,7 DLSS.png
    3,5 MB · Aufrufe: 128
  • 1080p no-HT 3,7 DLSS.png
    1080p no-HT 3,7 DLSS.png
    3,5 MB · Aufrufe: 124
  • 1080p no-HT 4,4 DLSS.png
    1080p no-HT 4,4 DLSS.png
    3,5 MB · Aufrufe: 124
  • 1440p HT 3,7 DLSS.png
    1440p HT 3,7 DLSS.png
    4,1 MB · Aufrufe: 128
  • 1440p HT 4,4 DLSS.png
    1440p HT 4,4 DLSS.png
    4,1 MB · Aufrufe: 121
  • 1440p no-HT 3,7 DLSS.png
    1440p no-HT 3,7 DLSS.png
    4 MB · Aufrufe: 124
  • 1440p no-HT 4,4 DLSS.png
    1440p no-HT 4,4 DLSS.png
    4,1 MB · Aufrufe: 140
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 6kbyte und Jan
Ein hochinteressantes Video über die Technik und die Herausforderungen:

 
  • Gefällt mir
Reaktionen: A.Xander, ThirdLife und Vitche
System: RTX 4080 OC, 13700K, DDR5-6200 CL36
3.840 x 2.160, DLSS „Performance“ + Frame Generation: 74
3.840 x 2.160, DLSS „Quality“ + Frame Generation: 49
3.840 x 2.160, FRS 2/DLSS „Performance“: 47
3.840 x 2.160, native Auflösung: 14
 

Anhänge

  • Cyberpunk2077_Overdrive_DLSSoff_FGoff.png
    Cyberpunk2077_Overdrive_DLSSoff_FGoff.png
    8,8 MB · Aufrufe: 131
  • Cyberpunk2077_Overdrive_DLSSperf_FGoff.png
    Cyberpunk2077_Overdrive_DLSSperf_FGoff.png
    8,9 MB · Aufrufe: 128
  • Cyberpunk2077_Overdrive_DLSSperf_FGon.png
    Cyberpunk2077_Overdrive_DLSSperf_FGon.png
    8,9 MB · Aufrufe: 125
  • Cyberpunk2077_Overdrive_DLSSquali_FGon.png
    Cyberpunk2077_Overdrive_DLSSquali_FGon.png
    8,9 MB · Aufrufe: 141
Zurück
Oben