Bericht Cyberpunk 2077 mit Pathtracing: Die Community testet den Raytracing-Overdrive-Modus

naja, dafür aber über 100fps in 4K anstatt unter 10fps.
 
@Taxxor kommt halt auch auf das Spiel und den Menschen an, inwieweit es auffällt. Wir reden hier von 30% höherer Latenz, dem ein oder anderen fällt sowas sicherlich auf. Mangels Ada Karte, kann ich das leider nicht selbst an mir testen. :D

FG kostet eben Latenz, ob man will oder nicht. Weiß nicht ob es da zielführend ist zu sagen, dass es ohne Reflex ja auch nicht besser wäre.
 
WebBeat84 schrieb:
naja, dafür aber über 100fps in 4K anstatt unter 10fps.
Aber es ging um die Bildqualität.

Welche Grafikkarte meinst du mit deinem Satz?
 
7900XT z.B. Power ohne Ende. Und selbst meine vorherige 6800 reichte, solange man den RT Mist aus lässt.
RT ist einfach nur dafür da, eine 4090 zu rechtfertigen. Mehrwert bietet es nicht gerade.
 
  • Gefällt mir
Reaktionen: Lord B. und Anon-525334
Solche Beiträge erfreuen mein Herz immer ganz besonders.

Nur weiter so :)
 
ich hab da mal ne andere frage:
ist das gegenseitige publicity von/fuer CDPR und Nvidia?
die UE5 ist bei weitem besser als CDPR's engine, oder nicht?
aber ich schaetze mal die sind vertraglich aneinander gebunden.

AMD sollte sich fuer Epic stark machen und ihre neue FSR3 mit ner UE5 PathTracing TechDemo demonstieren.

ich hab mir das video angesehen und es sieht nicht unbedingt realistischer aus als im normalen RT modus.
also cyberpunk.

und VERDAMMT! .. ich war schon ewig nimmer hier :D
 
_Cassini_ schrieb:
Warum nicht? Wüsste nicht, was dagegen sprechen sollte.
Natürlich setzt FG Reflex vorraus, weil ansonsten die Latenzen unzumutbar wären. Das macht doch aber den Einsatz und damit den Vergleich von Reflex ohne FG jetzt nicht irrelevant.

Es ist doch nicht eine Frage des Blickwinkels, wenn man bewusst Reflex für alles außer FG ausschließt. Wenn ich FG beurteilen will, dann will ich nicht Reflex mit beurteilen, denn das geht eben auch ohne FG.
So ganz verstehe ich das Argument nicht. Vor FG hat sich doch niemand an der Latenz ohne Reflex gestört. Und mit FG und Reflex zusammen ist die Latenz nun noch niedriger. Dass FG alleine die Latenz leicht steigern würde, ist da doch zweitrangig..?
Auch gibt es zahlreiche Spiele die Reflex ohne FG verwenden. Verboten wird da nichts.
 
  • Gefällt mir
Reaktionen: .Sentinel.
System: RYZEN 5800X3D 7900XT 32GB DDR4 3600CL18
2.560 x 1.440, FRS 2/DLSS „Performance“: 28,49

Screenshot 2023-04-12 233237.jpg
 
u53r schrieb:
ich hab da mal ne andere frage:
ist das gegenseitige publicity von/fuer CDPR und Nvidia?
die UE5 ist bei weitem besser als CDPR's engine, oder nicht?
aber ich schaetze mal die sind vertraglich aneinander gebunden.

AMD sollte sich fuer Epic stark machen und ihre neue FSR3 mit ner UE5 PathTracing TechDemo demonstieren.

ich hab mir das video angesehen und es sieht nicht unbedingt realistischer aus als im normalen RT modus.
also cyberpunk.

und VERDAMMT! .. ich war schon ewig nimmer hier :D

Ich bin einfach nur an irgendeiner Stelle stehen geblieben und habe Shots gemacht.

Cyberpunk 2077 Screenshot 2023.04.12 - 23.40.13.71.jpg
Cyberpunk 2077 Screenshot 2023.04.12 - 23.38.52.66.jpg


Stimmt. So gut wie kein Unterschied. :lol:

(RT High gegen RT Overdrive)
 
  • Gefällt mir
Reaktionen: MalWiederIch, NMA und karl_laschnikow
Stimmt, kaum Unterschied. Nur etwas heller und komisch reflektierend.
Mach mal den gleichen Shot komplett ohne RT...
 
WebBeat84 schrieb:
kaum Unterschied. Nur etwas heller und komisch reflektierend.
Dass der komplette Flur nahezu gleichmäßig ausgeleuchtet ist, obwohl da nur 2 weit auseinander hängende lichtquellen vorhanden sind, ist also "nur etwas heller" ?
Das Licht im 2. Shot macht absolut keinen Sinn.

Auch die Schattenwürfe sind entweder falsch oder schlicht nicht vorhanden(siehe z.B. die Ecke in der Wand rechts oder der Türrahmen links).
 
  • Gefällt mir
Reaktionen: MalWiederIch, MrHeisenberg, Tornavida und 2 andere
WebBeat84 schrieb:
7900XT z.B. Power ohne Ende. Und selbst meine vorherige 6800 reichte, solange man den RT Mist aus lässt.
Das liegt an der Grafikkarte und nicht am Spiel. NVidia bekommt das hin, AMD nicht (so sehr).

WebBeat84 schrieb:
RT ist einfach nur dafür da, eine 4090 zu rechtfertigen. Mehrwert bietet es nicht gerade.
Sehr unsachlich. Ich freue mich mit meiner 4070 Ti das Spiel mit PT mit fast 80 FPS zu zocken.

Selbst ohne FG 70 FPS. Wenn das eine 4070 Ti hinbekommt und eine 7900 XT(X) nicht, dann liegt das an AMD.

Vielleicht wäre das mit FSR 3.0 anders aber das lässt auf sich warten --> ebenfalls AMDs "Schuld".

Zudem handelt es sich immer noch klar kommuniziert um eine Tech Demo, die selbst nativ eine 4090 schwitzen lässt.
 
  • Gefällt mir
Reaktionen: MalWiederIch, MrHeisenberg, derMutant und eine weitere Person
u53r schrieb:
die UE5 ist bei weitem besser als CDPR's engine, oder nicht?

Oh Gott, nein.

Die Unreal Engine hat mit Nachladerucklern und Shader Rucklern zu kämpfen, ist zudem stark Single Thread limitiert und die Frametimes sind im CPU Limit zudem eine Katastrophe.


Die Engine von Cyberpunk hingegen hat weder Shader- noch Nachladeruckler und braucht auch keine lange Shader Kompilierung vor Spielstart.
Mehrkern CPUs werden gleichmäßig ausgelastet und die performance ist angesichts der Spielwelt extrem gut (viele NPCs, sehr hohe Detaildichte, hohe Bewegungsgeschwindigkeit im Fahrzeug, Raytracing, welches auch die CPU belastet). Selbst im CPU Limit sind die Frametimes noch glatt.

Das alles auch noch bei außerst geringem RAM und VRAM verbrauch.

Die Engine von Cyberpunk ist eine der besten, die wir in den letzten Jahren gesehen haben. Die Probleme die es anfangs gab waren hauptsächlich Bugs mit den Spielinhalten oder der Spiellogik. Das meiste nur kosmetisch. Performancemäßig lief das Spiel hingegen seit release immer absolut sauber. Heutzutage ist sowas schon lange keine Selbstverständlichkeit mehr.
 
  • Gefällt mir
Reaktionen: daknoll, NMA, derMutant und 2 andere
System: RTX4090 OC, 5800X3D UV , DDR4-3600CL16
3.440 x 1.440, FRS 2/DLSS „Performance“: 99,6
3.440 x 1.440, native Auflösung: 36,3
 

Anhänge

  • cppathtacingperformance.png
    cppathtacingperformance.png
    4,4 MB · Aufrufe: 108
System: RTX 4090, 13900KF oc+uv, DDR5-6800CL32 -- Vollbild
3.440 x 1.440, DLSS „Performance“ + Frame Generation: 159,56
3.440 x 1.440, DLSS „Quality“ + Frame Generation: 115,36
3.440 x 1.440, FRS 2/DLSS „Performance“: 102,38
3.440 x 1.440, native Auflösung: 38,09
 

Anhänge

  • Screenshot 2023-04-13 005656.png
    Screenshot 2023-04-13 005656.png
    4,5 MB · Aufrufe: 101
  • Screenshot 2023-04-13 005903.png
    Screenshot 2023-04-13 005903.png
    4,5 MB · Aufrufe: 96
  • Screenshot 2023-04-13 010940.png
    Screenshot 2023-04-13 010940.png
    4,5 MB · Aufrufe: 103
  • Screenshot 2023-04-13 012713.png
    Screenshot 2023-04-13 012713.png
    4,4 MB · Aufrufe: 101
  • Gefällt mir
Reaktionen: MalWiederIch
Ich habe mich jetzt mal ein wenig umgeschaut und Vergleiche zwischen RT Psycho und PT gemacht.
An einigen Stellen fällt der Unterschied sofort auf. Mir Gefällt das ganze. Hätte schon Bock ein neues Savegame zu starten, ich will aber warten bis das DLC im Laufe des Jahres kommt. Vielleicht ist das PT bis dahin noch ausgereifter.
 
  • Gefällt mir
Reaktionen: NMA, Grestorn und Garack
Mimir schrieb:
Oh Gott, nein.

Die Unreal Engine hat mit Nachladerucklern und Shader Rucklern zu kämpfen, ist zudem stark Single Thread limitiert und die Frametimes sind im CPU Limit zudem eine Katastrophe.

auf demselben PC system wie jetzt NVIDIA fuer ihr video genutzt hatte?
und klar, bei den massen an texturen sind ruckler verstaendlich. aber shader ladeprobleme? :(
ich dachte die UE5 waere ziemlich gut. zerstoer mir diesen traum nicht!! :D :D
ich hab auch nicht gesagt dass CDPR's engine crap is, nur dachte ich sie sei nicht so "noice" wie die UE5.
und apropos UE5, deren Witcher4 wird doch mit der UE5 laufen?

aaaaanyway.. meint ihr ne AMD wird das PathTracing mit FSR3 schaffen?
 
DevPandi schrieb:
Genauso die Kritik hier an dem Artikel durch die Redaktion: Klar, Computerbase hätte die "paar" Karten selbst testen können.
Man sollte meinen, dass zumindest jene, die bei CPU Benchmarks immer mit dem Ruf nach zusätzlichen Benches mit anderen / höheren Auflösungen, RAM Taktungen und den unterschiedlichsten GPU der letzten Jahre nerven, „weil man ja gar nicht einschätzen kann, wie toll die CPU oder aus Gründen beim CPU Test die eigene GPU wäre“ (oder was auch immer deren Argument ist) nun bei solchen Communitybenches ob der Vielfalt an Hardwarekombinationen vor Glückseligkeit himmelhoch jauchzend ihre Dankbarkeit im Forum wiedergeben würden…
Ergänzung ()

WebBeat84 schrieb:
RT ist einfach nur dafür da, eine 4090 zu rechtfertigen.
Hier muss ich wiedersprechen. Hier soll nicht die 4090 gerechtfertigt werden…
hier geht es um Frame Generation, dem Grund aus dem alle mit nicht Lovelace Karten doch bitte in den nächsten Laden sollen und…
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA
Dama schrieb:
System: RX6700 XT, 5600x, DDR4-3200CL16
1.920 x 1.080, FRS 2/DLSS Super Resolution „Performance“: 11,58
Meine 6800xt läuft schlechter.
Kann es sein, dass bei Pathtracing die CPU einiges wichtiger ist als, dass sie das sonst ist im Spiel?

i7 5820K
RX6800xt
Ultra Performance = ca. 8-9fps im Spiel
 
Pleasedontkill schrieb:
Kann es sein, dass bei Pathtracing die CPU einiges wichtiger ist als, dass sie das sonst ist im Spiel?
Das galt auch schon für das normale RT vs Raster, PT macht das also nur noch stärker.
Ergänzung ()

u53r schrieb:
aaaaanyway.. meint ihr ne AMD wird das PathTracing mit FSR3 schaffen?
Kannste doch ausrechnen, FSR3 wird maximal in der Lage sein, die FPS zu verdoppeln, und das auch nur, wenn die GPUnicht vorher auf Anschlag lief.
Dann schafft es eine 7900XTX eventuell in 1440p mit FSR3 Performance knapp auf die 60 FPS.
 
  • Gefällt mir
Reaktionen: Pleasedontkill
Zurück
Oben