Bericht Cyberpunk 2077 mit Pathtracing: Die Community testet den Raytracing-Overdrive-Modus

System: RTX 4090 OC, 13900K UV (100W), DDR5-6600CL36
1.920 x 1.080, DLSS „Performance“ + Frame Generation: 244
2.560 x 1.440, DLSS „Performance“ + Frame Generation: 184,7
 

Anhänge

  • 2023-04-11_2134_1.png
    2023-04-11_2134_1.png
    2 MB · Aufrufe: 111
  • 2023-04-11_2136_1.png
    2023-04-11_2136_1.png
    3,4 MB · Aufrufe: 118
.Sentinel. schrieb:
Da versagt der Denoiser, weil er sich nicht mehr an genügend Umgebungspixeln "festhalten" kann. Um dann Ameisenbildung zu vermeiden wird einfach wild geglättet.
Heißt um das zu verhindern müsste entweder der Denoiser besser werden oder es müssten alternativ mehr Strahlen verschossen werden?
Ist das etwas, was sich realistisch noch bis zum DLC verbessern und trotzdem in spielbaren Regionen bleiben könnte, oder ist das dann eher RTX 5000 Territorium?
 
  • Gefällt mir
Reaktionen: MoinWoll und .Sentinel.
Kleiner Tipp, wer noch 1-2 FPS rausholen will:

Reflex deaktivieren (geht nur wenn FG auch aus ist).
Hatte man einmal FG aktiv, bleibt Reflex auch aktiv. Man muss es immer manuell ausstellen.

Hier sieht mans auch schön an der GPU Auslastung. Erster Run (links) mit Reflex, zweiter (rechts) ohne.
Die GPU wird ohne Reflex dann vollständig ausgelastet.
1681242275624.png


Macht wie gesagt etwa 1-2 FPS Unterschied.
Die Latenzreduktion durch Reflex kommt eben teils auch daher, dass die GPU nicht vollständig ausgelastet werden darf.

Für den Schwan.... ähm... Leistungsvergleich hier sicher interessant :daumen:
 
  • Gefällt mir
Reaktionen: Bright0001
Taxxor schrieb:
Heißt um das zu verhindern müsste entweder der Denoiser besser werden oder es müssten alternativ mehr Strahlen verschossen werden?
Nummer zwei ist angesagt.
Taxxor schrieb:
Ist das etwas, was sich realistisch noch bis zum DLC verbessern und trotzdem in spielbaren Regionen bleiben könnte, oder ist das dann eher RTX 5000 Territorium?
Puh- Das ist ein wenig Glaskugelblicken.

Sollten sie sich tatsächlich noch dazu entscheiden den gesamten Pixelaufbau mittels primary- Rays zu gestalten, hätte das bereits einen großen Effekt auf das Phänomen. Auch in Sachen Reflexionen.
Dann müssten die aber irgendwo anderweitig noch zwischen 4% und 8% aus der Engine quetschen um nicht noch weiter ins Negativbudget in Sachen Performance abzugleiten.

Vielleicht finde ich die Zeit die neue exe mal durch IDA zu jagen und mal nachzusehen, welche Tuningoptionen CDPR einem da lässt. Da sollte sich die Menge an Samples im Zusammenhang zum Zeitbudget ändern lassen.
Nachteil auch hier- Performance sinkt weiter.
 
  • Gefällt mir
Reaktionen: MoinWoll
  • Gefällt mir
Reaktionen: Visualist
System: RTX 4090 OC, 5950X DDR4-3600 CL14
3.840 x 2.160, DLSS „Performance“ + Frame Generation: 108,64
3.840 x 2.160, DLSS „Quality“ + Frame Generation: 74,46
3.840 x 2.160, FRS 2/DLSS „Performance“: 69,28
3.840 x 2.160, native Auflösung: 22,24
 

Anhänge

  • 4knativepng.png
    4knativepng.png
    1,2 MB · Aufrufe: 124
  • 4k-perf.png
    4k-perf.png
    5,6 MB · Aufrufe: 131
  • 4k-perf-fg.png
    4k-perf-fg.png
    1,2 MB · Aufrufe: 117
  • 4k-quali-fg.png
    4k-quali-fg.png
    5,6 MB · Aufrufe: 133
  • Gefällt mir
Reaktionen: nighteeeeey und Laphonso
System: RTX4090 OC, 13900K OC, DDR5-7200CL34
1.920 x 1.080, DLSS „Performance“ + Frame Generation: 251,09
1.920 x 1.080, DLSS „Quality“ + Frame Generation: 205,60
1.920 x 1.080, FRS 2/DLSS „Performance“: 155,50
1.920 x 1.080, native Auflösung: 76,93
 

Anhänge

  • 230411_DLSS-Super-Resolution-Performance_Frame-Generation_1920x1080.png
    230411_DLSS-Super-Resolution-Performance_Frame-Generation_1920x1080.png
    2,1 MB · Aufrufe: 113
  • 230411_DLSS-Super-Resolution-Quality_Frame-Generation_1920x1080.png
    230411_DLSS-Super-Resolution-Quality_Frame-Generation_1920x1080.png
    2,1 MB · Aufrufe: 117
  • 230411_DLSS-Super-Resolution-Performance_1920x1080.png
    230411_DLSS-Super-Resolution-Performance_1920x1080.png
    2,1 MB · Aufrufe: 116
  • 230411_Native_1920x1080.png
    230411_Native_1920x1080.png
    2,1 MB · Aufrufe: 118
  • Gefällt mir
Reaktionen: Laphonso
Mimir schrieb:
Reflex deaktivieren (geht nur wenn FG auch aus ist).
Ich glaube, ich habe da lieber die niedrigere Latenz... :D
 
JohnDonson schrieb:
Joa, ich finde eher so Beobachtungen interessant, dass meine RDNA2 Karte so hart mit RT beschäftigt ist, dass sie gar nicht auf 100% Auslastung kommt.
Das wird dann wohl an der AMD Variante von RT liegen.
Ahh, danke für die Info. Habe mit meiner 7900 XT dass selbe Problem, dass die Karte nicht komplett ausgelastet wird. Aber dann liegts nicht an meiner Karte ansich.

Trifft also auch auf RDNA3 zu, ist ja aber auch der selbe RT Ansatz.
 
  • Gefällt mir
Reaktionen: Redundanz und JohnDonson
Hat hier eigentlich jeder ne 4090? :D
 
  • Gefällt mir
Reaktionen: floTTes, Coenzym, Haldi und 5 andere
Visualist schrieb:
Geht ja darum das es nach Regeln passen muss.
Ich tu mir überhaupt schon schwer die Differenz zu RT Ultra zu sehen...da daddel ich lieber mit konstanten 120FPS und RT Ultra statt der (ständig crashenden) Techdemo 🤣
 
Mimir schrieb:
Bei den 59 FPS ist DLSS Quality aktiv. Siehe deinen eigenen Screenshot. Bitte korrigieren.
geändert
 
  • Gefällt mir
Reaktionen: Laphonso
.Sentinel. schrieb:
Siehe Minecraft + Portal RTX, Metro Exodus Enhanced, wenn schnelle Licht/Schattenwechsel stattfinden.
Ein ähnliches Problem gibt es auch bei der Unreal Engine mit Lumen wo sich dich Beleuchtung auch nicht instant der Verdeckungsänderungen anpasst, sondern noch etwas "nachglüht". Und Lumen ist auch eine RT-Umsetzung, nur dass sie auch ohne RT-Hardware funktioniert (dann vereinfacht) aber auch RT-Cores nutzen kann.

Den Effekt sieht man ganz gut im Livestream, wo die Entwickler von Satisfactory das Update auf UE5 im Detail vorgestellt haben ab etwa 35:17
 
  • Gefällt mir
Reaktionen: JohnDonson und .Sentinel.
Rickmer schrieb:
Ich glaube, ich habe da lieber die niedrigere Latenz... :D

Aber hier gehts doch darum, wer den längsten Balken hat?!
Reflex aus macht den Balken länger. :)

Letztendlich wird das auch in der Anleitung gefordert, es aus zu machen, aber ich denke kaum jemand wird das wirklich berücksichtigen oder sich bewusst sein, dass es etwas Leistung kostet... Wollts deswegen nur nochmal veranschaulichen.

ThirdLife schrieb:
Ich tu mir überhaupt schon schwer die Differenz zu RT Ultra zu sehen...da daddel ich lieber mit konstanten 120FPS und RT Ultra statt der (ständig crashenden) Techdemo 🤣

Crashes?
Hab vorhin etwa 3 stunden mit Pathtracing gespielt und keinen einzigen Crash bisher.

Cyberpunk ist eigentlich ein sehr guter Stabilitätstest. Wenn ich z.B. zu aggressives Undervolting mache ist Cyberpunk immer das erste Spiel gewesen, das abstürzt. Hat sich eigentlich als Stabilitätstest ganz gut bewährt...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JohnDonson und Rickmer
Rickmer schrieb:
Naja, und mein 600W Netzteil ist @stock oder im OC auch nur eine CPU-Maximalauslastung von der Notabschaltung entfernt. Mit Undervolt passiert da nichts.
600W, der Mann hat Eier in der Hose :king:, Respekt.
Rickmer schrieb:
im Sommer nicht unnötig elektrische Wärme in den Raum zu schmeißen und auch prinzipiell nicht mit einem nicht optimiertem Betriebspunkt rum zu gurken.
Das ist der einzige Grund, weshalb man UV und Powerlimit regulieren sollte, ansonsten hätte man die Karte auch nicht kaufen brauchen, sehr vernünftig, der Ansatz gefällt mir!
Wenn ich nicht so selten Faul wäre :D (und so unfähig und nicht leidensfähig was das austesten angeht)
Rickmer schrieb:
Um genau zu sein - sogar die RX 6800 ist in VRAM limitierten Titeln um Welten schneller.
Der Test war echt gut von HW Unboxed, ich war ehrlich gesagt schon vorher so drauf "das wird nichts, der VRAM ist einfach zu wenig bei den 8-12GB Karten".
Aber das das so erschreckend ab dem Jahr 2023 wird hätte ich nicht gedacht.
Jeder der sich ne 4070Ti oder ne 3080/3080Ti oder 3060Ti oder 3070/Ti schönredet verweigert die Realität.
Viel Spaß wenn man die Texturen Ende 2023 runterregeln darf, obwohl man locker flockig noch 50-100 FPS hätte. Geiler Spaß, hoffe die 1000 Euro 3070Ti hat sich dann rentiert....
Naja NV freuts, so verkauft man früher Karten, Cash ist Cash.
Ganz dem Motto "Ist der Ruf erst ruiniert, lebt es sich ganz ungeniert" :D
Foxel schrieb:
Man muss beachten das Cyberpunk gerade mit RT extrem gut alle cores auslasten kann.
Der intel hat ja nur 8 schnelle Kerne.
What?
Bei mir geht mit mit RT PT Mode die Auslastung im selben Savegame (also selbe Szenerie) sogar runter anstatt rauf?! Meinst du jetzt von Raster auf RT oder nochmal mit Pathtracer?
HaRdWar§FreSseR schrieb:
Wenn ich mir so die Ergebnisse anschaue, da kann ich nur Mitleid mit Radeon Usern haben.
Eigentlich auch nicht da die immer den Speicher schön reden und ihn über alles stellen.
Den Speicher muss man sich nicht schönreden, der ist schön, der macht die Karte langlebig, nicht jeder kauf sich hier alle 2 Jahre ne neue Karte so wie die ganzen hier im Thread rausgekrochenen 4090 User :rolleyes:
Manche nutzen die Karten länger als 3-5 Jahre, so auch bei mir im Bekanntenkreis und da ich niemals ne 4070Ti verbauen würde und das die anderen auch so gesehen haben, haben diejenigen jetzt alle ne 7900XT drin oder eben eine 4080, wobei meist eher eine 7900XT, da die voll ausreicht für FHD und WQHD.
Abseits solcher spielbaren Techdemos wie hier, hat man im normalen täglichen Betrieb mit einer 4090 oder so kaum Vorteile, zumindest nicht soweit ich bei den Auflösungen sehen kann, die die meisten damit fahren.
Bei 4K Only oder WQHD 240Hz von mir aus, aber selbst für letzteres täte es eine 4080.
HaRdWar§FreSseR schrieb:
Das ist echt bitter, so kann man nicht zocken.
Das ist eine Techdemo, Macharbeitsstudie oder als was auch immer du das bezeichnen möchtest.
Spielbar auf 4090 und 4080 auch nur mit DLSS inkl. FG und selbst da nur mit 2 stelligen mittelmäßigen FPS, war doch klar dass das nicht "zum zocken" gedacht ist.
Und wenn dann maximal fluffy nur mit ner 4090....
HaRdWar§FreSseR schrieb:
Wer kann, der kann, gönn ihn doch ihr Spaß.
Gönnen ja, aber für FHD braucht man keine 4090, wobei die meisten die Tests auch gemacht haben werden damit sie gemacht sind.
3440x1440, 2560x1440 oder 3840x2160 werden die regulären Auflösungen sein, dafür ist das schon in Ordnung.
Wer für 1080p (non E-Sport) solch eine Karte (oder auch andere Karten bis 7900XT runter) kauft, mit dem stimmt etwas nicht :daumen:

So, noch Treiber und BIOS Updaten, Timings straffen, CPU Ocen und dann mach ich auch mal paar Tests :schluck:
 
  • Gefällt mir
Reaktionen: ThePlayer
System: RTX 2080 OC, i9-12900K OC, 3200CL16
1.920 x 1.080, FRS 2/DLSS „Performance“: 38,39
1.920 x 1.080, native Auflösung: 11,37

----------------------------------------------------

Weitere Informationen >>>
12900k OC Allcore P-Core 5,1 GHZ / E-Core 4 GHZ
RTX 2080 OC GPU: +65 MHZ - VRAM +200 MHZ
 

Anhänge

  • Path-Tracing ohne DLSS.jpg
    Path-Tracing ohne DLSS.jpg
    157,6 KB · Aufrufe: 126
  • Path-Tracing mit DLSS Performance.jpg
    Path-Tracing mit DLSS Performance.jpg
    166 KB · Aufrufe: 127
  • Gefällt mir
Reaktionen: Hawk1980 und .Sentinel.
Hatte jemand auch das Problem das die DLSS Einstellungen nicht immer korrekt übernommen wurden?

Wenn ich z.B FG aktiviert habe und dann die DLSS Stufe dann hat das Spiel nur das FG übernommen und DLSS auf Ausgeglichen gestellt. Das habe ich aber erst nach dem Benchmark angezeigt bekommen.

Zum Glück konnte ich immer auf @Taxxor seinen Ergebnissen schielen während der Benchmarks. Er hat nahezu das gleiche UV System.👀 Anfangs habe ich nämlich gar nicht so wirklich auf den Einstellungen in der Auswertung geachtet sondern nur auf den FPS ^^
 
Zurück
Oben