Test Cyberpunk 2077: Phantom Liberty im Test: GPU-Benchmarks mit und ohne Raytracing

Painkiller72 schrieb:
Liegt es daran, das in diesem Spiel so viele ähnliche Elemente existieren, die ich schon in anderen RPG Spielen gesehen habe ?

Mich holt es auch nicht ab, aber das liegt bei mir am Genre. Open World hatte ich immer Probleme mit und eigentlich hat mich nur BOTW auf der Switch richtig abgeholt, weil es einfach auch mega ironisch und liebevoll ist. Ähnlich ging es mir dann noch bei Spiderman mit dem Kampfsystem.
Aber Witcher 3, CP oder auch RDR (2) sind für mich einfach zu aufgesetzt "böse". Und das erkenne ich dann auch immer wieder und finde die Story dann schnell als dick aufgetragen. Far Cry ist wenigstens so nett und lässt einen einfach drauflosballern, weil es letztendlich doch nur darum geht. Zeitdruck hat man eh nicht, egal wie schlimm oder dringend irgendein Problem in der Open World auch ist.
 
Zur Umfrage:
Ich habe es damals gleich gekauft, ausprobiert und dann eingemottet.
Manche Games sind einfach nicht gut genug, dass sie die enormen Hardwareanforderungen rechtfertigen.
 
Edit: Hier stand Mist.🤣
 
Ich zocke seit 1987 an HC/PC, Konsolen waren nie so mein Ding.
Was war es damals lästig, an autoexec.bat oder config.sys rumzuwerkeln, von den Soundtreiber ganz zu schweigen.
Dann gab es schöne, ruhige Jahre, mit gemäßigten Preisen für Grafikkarten, Presets waren okay.

Dann kam RT als nutzbare Option und quasi ab da war ich raus. DLSS, FSR, Pathtracing, DLAA undundund.
Da ich vor einiger Zeit auf PS5/Series S umgestiegen bin, kannte ich das alles nicht mehr.
Disc rein und tüdelü.

Habe mal GeForce Now angetestet, mit der 4080er Option. Sieht toll aus, aber bei Cyberpunk brauche ich ja quasi ein Studium, denn Ultra ist ja nun kein Ultra mehr, man kann da frickeln und dort fummeln, allein was ich hier auf den letzten Seiten gelesen habe, verwirrt mich mehr als mir lieb ist.
Es kommt mir vor, als ob manche mehr Zeit in den Einstellungen verbringen, als sie letztlich ingame zubringen^^

Was ich damit sagen will?
Keine Ahnung, aber ich glaub', ich werde zu alt für den Sch**ß 😔
 
  • Gefällt mir
Reaktionen: Painkiller72 und mannefix
Cempeg schrieb:
Ich habe es jetzt wie im Video gemacht. RT Overdrive, DLSS Frame Generation, DLSS Qualität und DLSS Ray Reconstruction. Läuft mit 49 FPS im Benchmark und sieht besser als vorher aus. Danke
 
  • Gefällt mir
Reaktionen: Cempeg
Danke für den Test Wolfgang!

Pathtracing wurde nicht gebencht?

Der Artikel verfehlt die Bedeutung dieses Spiels total.

Das Spiel ist ein Meilenstein. Den letzten davon gab es mit Half Life 2 vor rund 20 Jahren.

Die Technologie ist richtungsweisend. Ohne DLSS und Konsorten wird es keine Entscheidenden Steigerungen der Grafik mehr geben. Klar, dafür muss man die Grafikkarten entsprechend umgestalten, so dass die Hardware natürlich auch wichtig ist. Ray Reconstruction ebenfalls ein wichtiger Teil auf dem Weg.

Ja, es ist ein Werbeträchtiger Titel für Nvidia. Und mir passt das Marketing der Firma nicht. Trotzdem ist der Titel in Bezug auf Raytracing unerreicht. Ohne Licht kein Bild.

UND der Titel lief schon ziemlich schnell reibungslos auf dem PC und auf der Konsole auch (in der Abstimmung konnte man nur eins wählen (habe beide). Nur PS 4 war ein Problem. Sorry, da hat sich CDPR keinen Gefallen getan (wegen dieser impotenten Maschine).

Die Artikel von CB sind sehr oft auf qualitativ hohem Niveau. Dieser Artikel wird dem nicht gerecht. Und ich habe das Gefühl, dass CB hier eine entscheidende Entwicklung verschläft.

Da ist PCGH Hardware meilenweit voraus.

Sorry, wenn es zu hart klingt (Wolfgang).
Ergänzung ()

Nookyn schrieb:
Ich zocke seit 1987 an HC/PC, Konsolen waren nie so mein Ding.
Was war es damals lästig, an autoexec.bat oder config.sys rumzuwerkeln, von den Soundtreiber ganz zu schweigen.
Dann gab es schöne, ruhige Jahre, mit gemäßigten Preisen für Grafikkarten, Presets waren okay.

Dann kam RT als nutzbare Option und quasi ab da war ich raus. DLSS, FSR, Pathtracing, DLAA undundund.
Da ich vor einiger Zeit auf PS5/Series S umgestiegen bin, kannte ich das alles nicht mehr.
Disc rein und tüdelü.

Habe mal GeForce Now angetestet, mit der 4080er Option. Sieht toll aus, aber bei Cyberpunk brauche ich ja quasi ein Studium, denn Ultra ist ja nun kein Ultra mehr, man kann da frickeln und dort fummeln, allein was ich hier auf den letzten Seiten gelesen habe, verwirrt mich mehr als mir lieb ist.
Es kommt mir vor, als ob manche mehr Zeit in den Einstellungen verbringen, als sie letztlich ingame zubringen^^

Was ich damit sagen will?
Keine Ahnung, aber ich glaub', ich werde zu alt für den Sch**ß 😔
Da ist was dran! Bin mehr mit dem Lesen über das Spiel als mit dem Spiel beschäftigt!! Aber ist das schlimm? Das faszinierende an dem Spiel ist die Grafik und die Beleuchtung. Absolut genial!!!

Ohne Machine Learning würde das alles nicht gehen. Noch vor ein paar Jahren wäre alles undenkbar. Oder mit 0,2 FPS! Geniale Entwicklung. Die sich Nvidia gut bezahlen lässt. Aber man, verdammt, was da an Technologie drin steckt. HAMMER!!

BTW ich habe eine PS 5 auf der das Spiel auch super aussieht (alles AMD :-)). Da hat also jemand seinen Job nicht gemacht (RDNA 3 Sparte bei AMD/ Die Kündigung zum Jahresende ist gerechtfertigt)

Habe jetzt nur für Cyberpunk ne 4070 geholt. Ja, der Preis tut weh. Aber die Zeit ist kostbar!

PS 5 Mega!!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: H6-Mobs
Donnidonis schrieb:
Ist der DLC ein separater Karriere Strang, also kann man den auch guten Gewissens erst später kaufen?
Hab das auch schon recherchiert. Ich werde es so machen, dass ich mit 2.0 einen neuen Durchlauf starte, da sich ja wirklich einiges getan hat und dann Phantom Liberty dran hänge. Hätte zwar noch zwei fertige Spielstände, aber ich bin eh auch etwas raus aus dem Game. Ansonsten sagen die Quest Writer von CDPR, dass man zumindest in Pacifica angekommen sein sollte, falls dir das schon was sagt. Möglich ist es aber überall und die Empfehlung wäre es möglichst spät zu machen.

Zum technischen Aspekt des Games muss ich sagen: Mal wieder schade! Es stürzt regelmäßig ab. Der "optimierte" Treiber verschlechtert bei mir die Performance und bringt die CPU auf nahezu konstant 99%. Mit einer älteren Version läuft es gute 15% schneller und die CPU Last bewegt sich im normalen Rahmen, wobei sie dann immer noch ordentlich gefordert wird und häufiger limitiert als vor dem großen Update. Droppt aber selten unter 60FPS und die Mengendichte auf Medium schalten entschärft das ganze auch direkt, falls man mehr FPS auf so einer CPU haben möchte. Abstürze ziehen sich aber bei beiden Treiberversionen durch. Hatte schon das Game mal neuinstalliert, was für ein paar Stunden Ruhe sorgte. Jetzt warte ich die ersten Patches ab. Wenn es dann läuft, dann eigentlich auch gut. Mit der 6800 in WQHD bietet sich entweder Ultra nativ an, Ultra+FSR für mehr FPS oder im Gegenzug eine (!) RT Option. Dann lande ich bei rund 50 FPS je nach Option. Mit etwas Feintuning beim Rest bekomme ich auch nahezu Ultra Settings mit RT Beleuchtung und 60FPS in. Aber das ist auch genau das, was viele AMD Fans in Cyberpunk nicht wahrhaben wollen. RDNA2 und RDNA3 können im Grunde nur "RT-light" sobald RT für diverse Dinge eingesetzt wird, brechen die Karten eben gnadenlos ein. Die 7900er bekommen es zwar trotzdem noch einigermaßen hin, aber einbrechen tun die FPS da genauso.

Inhaltlich sagt es mir aber sehr zu bisher!
 
holio schrieb:
Ich hasse es wenn meine Grafikkarte nichtmehr in den Benchmarks vertreten ist.
5700XT :(
Normal dann immer ein Signal eine neue zu kaufen, aber hab keine Lust und die Preis/leistung ist finde ich immernoch nicht wieder hergestellt im Vergleich zu vor-bitcoin.
Ist es noch so eine mit schwarz-weiß Grafik?
 
Wolfgang schrieb:
Ja, es ist DLSS 3.5

Es wird sicherlich noch eine Menge Spieler da draußen geben, die Cyberpunk 2077 ohne RT spielen. Wahrscheinlich ist es sogar die Mehrheit. Mit Sicherheit sogar. Für uns hier als Enthusiasten-Forum fällt das natürlich anders aus, aber reine Rasterizer-Benchmarks sind nach wie vor interessant. Und das wird auch noch länger so bleiben.
Nein ist es nicht. Man kann die Version mit Hilfe eines Tools von TechPowerUp auslesen, und es ist Version 3.1. Man kann ja aber die DLLs händisch austauschen. Macht aber keinen Unterschied in Bezug auf die Leistung.
 
Ich habe das auch gerade versucht nachzustellen, aber bei mir kommt DLSS Quality auf 4K und nativ WQHD auf in etwa das Gleiche heraus, minus 5%. Einen ähnlichen "Abschlag" gibt es bei Zuschalten von DLAA im Gegensatz zu nativ ohne. Mit und ohne RT ändert da auch nichts. Das bleibt den den max. 5% Abzug bei Verwendung von DLSS vs. nativer geringerer Auflösung.
 
tayna21 schrieb:
nicht vergessen - das ist keine Counterstrike wo 300+ FPS nötig sind
Doch, das vergessen alle, ausnahmslos. Bzw viele. Wollen es auch vergessen, fürs ego.
Das ist nvidias vorzeigetitel seit Release und wird für jegliche Vergleiche hervorgeht um zu zeigen wie gut die Technologien sind, dass es kein klassisches high fps Game ist und auch nie sein sollte spielt da keine Rolle
 
  • Gefällt mir
Reaktionen: tayna21
tayna21 schrieb:
Was ist denn FG sonst?
Wird bei AMD nicht anders sein, sind dann auch getrickste Frames. Kann man mögen, muss man nicht.
Da gibt es auch eine tatsächlich objektive Sichtweise darauf.
Sobald die getricksten Frames den nicht synthetisierten zu einem hohen Prozentsatz gleichen, sind sie aufgrund des erheblichen Performancevorteiles zu bevorzugen.

tayna21 schrieb:
Ich bin auch grundsätzlich der Meinung, dass dlss/FSR/xess aktuell eher dazu führen, dass sich Entwickler darauf verlassen, statt anständig zu optimieren, aber das ist nochmal ein anderes Thema.
Für die Szenarien, für die diese Techniken im Ursprung entwickelt wurden (heavy raytracing) sind diese Techniken unerlässlich. Dass diese als Abfallprodukt auch Raster- Spiele beschleunigen ist wiederum eine andere Sache.
Und wie kommen die Leute immer auf den Trichter, dass die Studios ihre Produktion nicht anständig optimieren würden? Immer wieder höre ich den Vorwurf.

Wieviele % Zusatzperformance holen denn Spieleentwickler in den Enhanced, Definitive und Ultimate- Versions, die X- Iterationen an Optimierungsläufen hinter sich haben in der Praxis noch raus?

Wenns gut läuft 10%? Szenenbedingt vielleicht auch mal 20% (von groben verbugten Launches wie z.B. Jedi Survior 2 mal abgesehen, für was sich ein Entwickler grundsätzlich schämen sollte).
Macht das das Kraut dann bei niedrigen FPS fett?
 
  • Gefällt mir
Reaktionen: Schokolade
.Sentinel. schrieb:
Da gibt es auch eine tatsächlich objektive Sichtweise darauf.
Sobald die getricksten Frames den nicht synthetisierten zu einem hohen Prozentsatz gleichen, sind sie aufgrund des erheblichen Performancevorteiles zu bevorzugen.


Für die Szenarien, für die diese Techniken im Ursprung entwickelt wurden (heavy raytracing) sind diese Techniken unerlässlich. Dass diese als Abfallprodukt auch Raster- Spiele beschleunigen ist wiederum eine andere Sache.
Und wie kommen die Leute immer auf den Trichter, dass die Studios ihre Produktion nicht anständig optimieren würden? Immer wieder höre ich den Vorwurf.
Meine Meinung (und ich weiß, dass ich damit nicht alleine bin) - wenn für "normale" Rasterisierung dlss/FSR benötigt wird, damit das Spiel anständig läuft, ist es nicht gut programmiert/optimiert. Da gab es in letzter Zeit deutlich zu viele Spiele dieser Art, die grafisch ihren Leistungshunger in keinster Weise rechtfertigen konnten. Das ist dann auch selten mit irgendwelchen enhanced o. ä. Editionen zu reparieren, da es von Anfang an hätte ordentlich gemacht werden müssen.

RT ist da ein anderes Thema, dafür Upscaling zu haben passt sicher, auch wenn es ohne schöner wäre.
 
  • Gefällt mir
Reaktionen: Innocience
Mit meiner 3080 erreiche ich das Optimum grob mit 1440p, ultra, RT Pathtracing, RT reconstruction und DLSS balanced. 40-60fps grob (näher an 40 als an 60 aber was solls), muss reichen. Spielt sich sehr gut mit nem Freesync Monitor und sieht verdammt gut aus quasi.
Aber 4k selbst mit DLSS im Super-Performance-Modus funktioniert schlechter.
 
Tylok schrieb:
Nein ist es nicht. Man kann die Version mit Hilfe eines Tools von TechPowerUp auslesen, und es ist Version 3.1.
nvngx_dlss.dll (Super Resolution) und nvngx_dlssg.dll (Frame Generation) sind 3.1.
nvngx_dlssd.dll, also die Datei für Ray Reconstruction, ist aber 3.5
 
  • Gefällt mir
Reaktionen: Tylok
mannefix schrieb:
Die Artikel von CB sind sehr oft auf qualitativ hohem Niveau. Dieser Artikel wird dem nicht gerecht. Und ich habe das Gefühl, dass CB hier eine entscheidende Entwicklung verschläft.

Was meinst du damit? CB berichtet doch ganz oft über neue Entwicklungen im Grafiksegment und Raytracing-Titel sind in jedem Test vertreten. Phantom Liberty ist ein DLC und der Patch 2.0 eben ein Patch. Das ändert ja nichts am Zustand des alten Spiels bei Release oder an der Tatsache, dass RT außer einer optischen Verbesserung bisher keinen Mehrwert hat. Cyberpunk ist damit für mich eher ein Crysis als ein Half Life 2.
 
  • Gefällt mir
Reaktionen: Grundgütiger und Hate01
mannefix schrieb:
Pathtracing wurde nicht gebencht?
rr.jpg
 
Ich hatte schon immer die Vermutung, dass in CP2077 die Radeons bei Raytracing unterdurchschnittlich schlecht performen. Viele Nvidia-Freunde argumentierten stets damit, dass die RT-Last in dem Spiel zu groß sei und deswegen die AMD-GPUs komplett einbrechen würden. Das hätte auch durchaus so sein können, doch hier ist der Gegenbeweis. Dafür braucht man einfach den 3DMark Raytracing Feature Test her nehmen, welcher bekanntlich die reine RT-Performance einer GPU testet.

Und siehe da: Die RX 7900 XTX ist im Benchmark (in 1440p) 6% schneller als eine RTX 3080 FE. In CP2077 (1440p, RT Ultra) ist die RTX 3080 FE hingegen 12% schneller.

Dabei ist der Leistungseinbruch der Radeon in Wahrheit sogar noch größer, weil der 3DMark Test mit einem Intel Core i9-12900K durchgeführt wurde. Das heißt es fehlt hier AMD SAM, was in der Praxis noch einmal einen zusätzlichen Performancegewinn für die RX 7900 XTX bedeutet.
 

Anhänge

  • Screenshot_20230928_121735_Chrome.jpg
    Screenshot_20230928_121735_Chrome.jpg
    973,8 KB · Aufrufe: 112
  • Screenshot_20230928_121823_Chrome.jpg
    Screenshot_20230928_121823_Chrome.jpg
    684,6 KB · Aufrufe: 100
  • Screenshot_20230928_150540_Chrome.jpg
    Screenshot_20230928_150540_Chrome.jpg
    709,5 KB · Aufrufe: 103
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: tayna21
Hi
Ich hab 59FPS bei 4K RT Psycho DLSS Qualität

bei Pathracing+ Ray Construction 43FPS

nativ ohne DLSS hab ich 44FPS bei RT Psycho und nur 22FPS bei Pathtracing.

Dazu komm ich auf bis zu 720w Verbrauch, am.Netzteil abgelesen.
 
Zurück
Oben