Bericht Cyberpunk 2077 mit Pathtracing: Die Community testet den Raytracing-Overdrive-Modus

Wenn man bedenkt, dass es den algorythmus seit den 1960er Jahren gibt, sind die Ergebnisse dann schon ernüchternd. Selbst die angeblich schnellste GPU schafft nichtmal konstante Minimum 24 Bilder/sec. Alles andere schafft diese Karte auch nur mit den technischen "Tricksereien". Somit lässt sich feststellen, das da noch viel Arbeit auf GPU Hersteller wartet......
 
Ganz schön viele mit eine 4080/90 vertreten. Ich tue es meiner GPU nicht an. Ich möchte sie nicht demütigen :D
Allen anderen wünsche ich viel Spaß beim testen.
 
  • Gefällt mir
Reaktionen: Gotex
System: RTX4090, 13900KS, DDR5-6400CL36
1.920 x 1.080, DLSS „Performance“ + Frame Generation: 230,9
2.560 x 1.440, DLSS „Performance“ + Frame Generation: 151,1
3.840 x 2.160, DLSS „Performance“ + Frame Generation: 100,1
1.920 x 1.080, DLSS „Quality“ + Frame Generation: 183,6
2.560 x 1.440, DLSS „Quality“ + Frame Generation: 130,41
3.840 x 2.160, DLSS „Quality“ + Frame Generation: 69,3
1.920 x 1.080, FRS 2/DLSS „Performance“: 128,0
2.560 x 1.440, FRS 2/DLSS „Performance“: 112,1
3.840 x 2.160, FRS 2/DLSS „Performance“: 64,7
1.920 x 1.080, native Auflösung: 70,8
2.560 x 1.440, native Auflösung: 44,3
3.840 x 2.160, native Auflösung: 21,2

Korrektur: 1920 x 1080, DLSS "Performance" + Frame Generation -> Hatte Quality statt Performance aktiv
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gotex und floTTes
LamaMitHut schrieb:
Krasses Crysis der Neuzeit... In Wahrheit sind es hier nur zusätzliche / veränderte Effekte für ein Spiel, dass auf jedem Toaster spielbar ist. ;-p

(Jaja, ich versteh schon wie das gemeint war)
Auch die Anforderungen von Crysis ließen sich damals verdammt deutlich zurückschrauben...
 
  • Gefällt mir
Reaktionen: JohnDonson
BloodGod schrieb:
Die Benchmarks passen jetzt doch schon nicht mehr… warum gibt es mit DLSS Performance mit einer 4090 sichtlich weniger FPSin 4K als mit DLSS Qualität?

Hach ja 👍
Weil pathtraycing nunmal anspruchsvoller ist wie nur raytraycing. Selbst eine 4090 geht bei nativer 4k Auflösung in die Knie. Da helfen dann nur noch die technischen Tricks wie dlss usw.
 
joel schrieb:
Ein schöner Test der nur wiederholt zur schau stellt wie Leistungsfressend RT ist.
Oh nein, deutlicher Fortschritt kostet Leistung! Wer hätte es nur gedacht!

Das bei abermilliarden Strahlen, die allesamt noch der bisherigen Pipeline entgegen laufen, eine Einbuße bei rumkommt, sollte klar sein...
 
  • Gefällt mir
Reaktionen: haf-blade
Laphonso schrieb:
Die Bestätigung die einzige redaktionell geführte Technik Plattform zu sein, die reale Community Tests außerhalb von "Laborsystemen" gegenüberstellt.

Es ist eine spannende Datenbasis zur Orientierung, auch für die User.

Vielleicht bestätigt das die eine oder den anderen die 4090, 4080, 4070 Ti dann doch oder dann doch NICHT zu kaufen. :)

Ich schmeisse die Tage meine Werte auch mal rein.
Ja. Da hast du wohl recht.
Befürchte nur echt, dass es von den Ergebnissen her kaum Unterschiede gibt (ob jetzt 22 fps oder 8 ist imho ziemlich egal). Ich denke dass Themen wie Pathtracing im Alltag halt erst in 2-3 Grafikkarten-Generationen Sinn ergeben. Das normale Raytracing finde ich aber schon ziemlich cool und es läuft auch mit vernünftig gewählten Einstellungen bei Spielen wie Metro Exodus ziemlich gut. Ich bin auch absolut dafür, dass man die Technik weiter entwickelt und die Entwickler damit rumexperimentieren. Ohne das kommt Technologie nie weiter. :)
Ich drücke nur CB die Daumen, dass der Thread kein Hater-Paradies wird.
 
Schreedr schrieb:
Allerdings hab ich noch einen älteren Treiber 531.29 und update gerade.
CD Projekt sagt:
To make sure Ray Tracing: Overdrive Mode works correctly on your PC, update your NVIDIA Game Ready Driver to version 531.41 at minimum.
Vielleicht liegts auch daran und mit älteren Treiber-Versionen läuft Pathtracing einfach nicht korrekt? 🤔
 
  • Gefällt mir
Reaktionen: .Sentinel.
EnginCtn schrieb:
Wo bleiben die 3090, 7900xtx usw?
Ne 3090 haben wir schon drin, aber auf RDNA3 Karten warte ich hier auch.
Selbst zwei 6800XT haben sich bereits in 4K mit ~2FPS durchgequält^^
 
Chris.78 schrieb:
System: RT6800XT, R9 5950, DDR4-3600CL17
1.920 x 1.080, FRS 2/DLSS „Performance“: 28,91
Kannste mal paar Details zu dein System senden / bzw deren Einstellungen , weiss gerade nicht wieso du bessere Ergebnisse erzielst.
 
haf-blade schrieb:
Nicht böse gemeint.
Ich verstehe nur den Sinn hinter diesem Community Test nicht.
(...)
Was hat CB davon?
Verstehe einen Community-Test, dann verstehst du alle: Es geht um das Aufstellen einer breiten Datenbasis; vor allen Dingen dann, wenn Zeit knapp ist.
Da der Patch CB nicht im Vorfeld zur Verfügung gestellt wurde, ist die Zeit hier mehr als knapp gewesen; sie war gar nicht vorhanden.
 
  • Gefällt mir
Reaktionen: haf-blade und Vitche
System: RTX4090, 13700K, DDR5-6000CL30
2.560 x 1.440, DLSS „Performance“ + Frame Generation: 150
2.560 x 1.440, native Auflösung: 45

Dank der Kommentare hier nochmals geschaut und Korrektur native Auflösung, hatte beim ersten Mal noch DSSL an °°.

4090 zog 451 Watt bei 69 Grad GPU Temp, endlich waren mal die Lüfter an :-) 70%. (Silent Bios)
 
Foxel schrieb:
System: RTX 4090 OC, 5950X DDR4-3600CL14
2.560 x 1.440, DLSS „Performance“ + Frame Generation: 180,34
2.560 x 1.440, DLSS „Quality“ + Frame Generation: 138,79
2.560 x 1.440, FRS 2/DLSS „Performance“: 112,49
2.560 x 1.440, native Auflösung: 46,57
Hey, danke für deine Ergebnisse! Du wärst damit ganz oben, auch über einer 4090 mit einen 7950X3D. Könntest du vielleicht einen Screenshot vom Benchmark-Ergebniss machen? Bzw, wie hoch taktet deine 4090 bitte? :D
 
feidl74 schrieb:
Wenn man bedenkt, dass es den algorythmus seit den 1960er Jahren gibt, sind die Ergebnisse dann schon ernüchternd. Selbst die angeblich schnellste GPU schafft nichtmal konstante Minimum 24 Bilder/sec. Alles andere schafft diese Karte auch nur mit den technischen "Tricksereien". Somit lässt sich feststellen, das da noch viel Arbeit auf GPU Hersteller wartet......

Die "Tricksereien" sind aber Bestandteil der technischen Weiterentwicklung und ermöglichen es, das ganze flüssig darzustellen.

TAA ist übrigens auch "Trickserei". Ganz klassisch müsste man für AntiAliasing nämlich das Bild in höherer Auflösung berechnen (FSAA), damit man die Kanten glätten kann. Dank TAA braucht man das aber nicht.

Letztendlich besteht jede technische Entwicklung aus tricksereien, weil sich schlaue Köpfe überlegen, wie man etwas mit gegebenen Mitteln verbessert und optimiert und sich dadurch neue Möglichkeiten ergeben.


Natürlich wird es mit den Entwicklungen weiter gehen, aber ich verstehe trotzdem nicht, wie man sich an 24 Bilder/s festklammern kann.

Die Praxis sieht so aus, dass ich nicht die schnellste Karte habe und trotzdem mit durchschnittlich 90 FPS super flüssig mit Pathtracing spielen kann. Sieht top aus. Ich wüsste also beim besten Willen nicht, worauf ich noch warten soll :confused_alt:
Du kannst dir jetzt irgendwas einreden, aber währenddessen haben ne ganze Menge Leute spaß damit.
 
  • Gefällt mir
Reaktionen: Grestorn, Zwirbelkatz und .Sentinel.
CDLABSRadonP... schrieb:
Verstehe einen Community-Test, dann verstehst du alle: Es geht um das Aufstellen einer breiten Datenbasis; vor allen Dingen dann, wenn Zeit knapp ist.
Da der Patch CB nicht im Vorfeld zur Verfügung gestellt wurde, ist die Zeit hier mehr als knapp gewesen; sie war gar nicht vorhanden.
Got it. :)
 
Syntron schrieb:
Dank der Kommentare hier nochmals geschaut und Korrektur native Auflösung, hatte beim ersten Mal noch DSSL an °°.
Danke fürs Dranbleiben! Kannst du dann bitte die Ergebnisse aus deinem ersten Kommentar löschen? :)
 
Laphonso schrieb:
Es wäre grandios, wenn FSR 3 ausgrechnet auch für Cyberpunk noch kommt :)
Jetzt ist ja mittlerweile alles andere drin, auch XeSS(war das vor dem Pach auch schon drin?), da würde es mich wundern, wenn FSR 3 nicht irgendwann auch dazu kommt, vielleicht sogar zum DLC Release, wenn AMD bis dahin mal fertig ist.
 
  • Gefällt mir
Reaktionen: Laphonso
System: RTX4090, 13900K, DDR5-5600CL36
2.560 x 1.440, DLSS „Quality“ + Frame Generation: 132
2.560 x 1.440, native Auflösung: 42

System lief ohne OC alles auf 100% Stock. Maximal GPU verbrauch lag bei 400 Watt

Falls ich ein Fehler gemacht habe ! Bitte bei mir Melden
 

Anhänge

  • 2023-04-11_1754_1.png
    2023-04-11_1754_1.png
    3,4 MB · Aufrufe: 136
  • 2023-04-11_1806_1.png
    2023-04-11_1806_1.png
    3,4 MB · Aufrufe: 142
  • Gefällt mir
Reaktionen: MoinWoll und Vitche
Zurück
Oben