• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Cyberpunk 2077 im Test: Grafik zum Staunen, wenn der PC sie denn packt

Laphonso schrieb:
Cyberpunk ist demnach das erste "echte" Spiel, welches eine Engine liefert, die MESSBAR besser performt mit mehr als 8 Kernen, ist das richtig?
  • Ghost Recon Breakpoint
  • Battlefield V
  • Ashes of the Benchmark
  • Death Stranding
  • Troy: A Total War Saga
... was mir gerade so einfällt.
 
  • Gefällt mir
Reaktionen: KarlsruheArgus, LukS, Dai6oro und 2 andere
ZeroStrat schrieb:
Die 20% sind doch harmlos. Dann schau dir mal CoD: Black Ops Cold War (Fracture Jaw) an, dann weißt du, wie hart Raytracing die CPU zerlegen kann.

Egal wie, ich finde es lohnt sich in Anbetracht der schlechteren Leistung einfach nicht.
Dann spiele ich lieber mit 75+fps und alles ist megasmooth.
Smoothness ist mir deutlich lieber als "Qualität", weil für mich ist Smoothness (120+HZ und 60++ FPS) die tatsächliche Qualität am PC. :-)
 
Danke cyberpunk... Das erste mal das ich das Gefühl habe mein 3600 ist trash
 
  • Gefällt mir
Reaktionen: Zitterrochen, Veitograf, 1unknown_user und eine weitere Person
Serphiel schrieb:
Leider habe ich so meine Befürchtungen wird CDPR durch dieses Launch-Desaster entmutigt werden.
Anstatt neuer Marken/Welten könnte sich CDPR die Hörner abgestoßen haben und zu "sichereren" Investitionen zurückkehren.
Das glaube ich nicht, Cyberpunk zeigt doch das dieses Setting Mainstream fähig ist. Ich denke das ganze hier liefert definitiv eine Basis für weitere DLCs und auch für Nachfolger ab. Der dicke Elefant im Raum bleibt aber wie lange sie brauche um die Technik und die Bugs in den Griff zu bekommen.

Ich bin auch an der No Point of Return Mission angekommen und mache die Nebenquest (Einige von diesen fühlen sich an als würden sie zur Main Quest dazu gehören, wer nur die Story rusht verpasst eine Menge). Und bis jetzt, trotz der ganzen Bugs und technischen Unzulänglichkeiten, wurde ich sehr gut Unterhalten wie lange nicht mehr von einem Spiel.
 
  • Gefällt mir
Reaktionen: Vigilant und Laphonso
Serphiel schrieb:
Ich hab jetzt mittlerweile die 60 Stunden Marke in gutes Stück hinter mir gelassen

Real life: Error 404 not found.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Veitograf, speedfire2, Sly123 und eine weitere Person
@Phear @Capthowdy
Ja, ihr habt Recht, aber anno März 2019 war das immer noch das Top Modell. Den i7 720 vorher hatte ich 10 Jahre.

Na gut, vielleicht beheben ja ein paar Patches noch einiges.
 
Laphonso schrieb:
Cyberpunk ist demnach das erste "echte" Spiel, welches eine Engine liefert, die MESSBAR besser performt mit mehr als 8 Kernen, ist das richtig?

Ich glaube, dass es für viele die Realisation ist, dass 12 Kerner doch manchmal für die 60 FPS nützlich sind bzw. gebraucht werden.
Bei den anderen genannten Spielen hat mehr mehr FPS, aber nicht so signifikant wie hier.
Man muss aber abwarten, ob die Auslastung durch Patches nicht bei Zen besser wird. Dann könnte der 5800X am Ende auch reichen.
Bleibt aber dennoch ne Ausnahme. Wenn der 5800X etwas billiger wäre, würde ich ihm den 5900X vorziehen.
 
  • Gefällt mir
Reaktionen: Laphonso
Caramelito schrieb:
Smoothness ist mir deutlich lieber als "Qualität", weil für mich ist Smoothness (120+HZ und 60++ FPS) die tatsächliche Qualität am PC. :-)
Verstehe ich, deswegen habe ich's in CoD abgeschaltet. Aber in CP geht's eigentlich mit der 3090 in UWQHD.
 
Ich warte auf den 5900X, das die Preise vernünftig werden. Will mir auch noch ein neues Board holen und hoffe das im ersten Quartal was hübsches kommt. Am besten weißes PCB, da gibt's leider gar nix im Moment :(
 
Perfekt eigentlich, ich warte dann bis März nächstes Jahr dann zahle ich 30€ für das Spiel und bekommen ein benutzbares Produkt
 
MiniM3 schrieb:
Danke cyberpunk... Das erste mal das ich das Gefühl habe mein 3600 ist trash
Stellvertretend für CP2077: Gerngeschehn ... :D

Verstehe dein Problem nicht ganz. Mein 3600 ist knapp bei der Hälfte. Die 5700 limitiert.
 
Wolfgang schrieb:
Wirklich flüssig läuft Cyberpunk 2077 erst ab einem Core i5-10400F (6K/6T), Ryzen 7 3700X (8K/16T) oder Ryzen 5 5600X (6K/12T).
der fett markierte wurde gar nicht gebencht und ist nicht in der tabelle. sollte wohl Ryzen 9 3900XT heissen.

Damit die Grafikkarte nicht zu sehr limitiert, wurde für die Benchmarks n Full HD zusätzlich DLSS auf die Stufe Performance gedreht. Die Asus GeForce RTX 3090 Strix OC bliebt bezüglich des Power Limits voll ausgefahren.
typo
 
MiniM3 schrieb:
Danke cyberpunk... Das erste mal das ich das Gefühl habe mein 3600 ist trash
Ja, das ist hart. Zen 2 sieht eh ziemlich alt aus. Der 10900K ist teils 30% schneller als der 3900XT. Das ist richtig bitter.

Gab ja Stimmen hier im Forum, die Zen 2 immer so knapp auf Augenhöhe mit der Konkurrenz gesehen haben. Passt wohl nicht so ganz die Einschätzung... :D
 
@Wolfgang

Mit Raytracing sollten es 8 schnelle CPU-Kerne sein (Update)


Mit Raytracing [...}. Damit die Grafikkarte nicht zu sehr limitiert, wurde für die Benchmarks n Full HD zusätzlich DLSS auf die Stufe Performance gedreht. Die Asus GeForce RTX 3090 Strix OC bliebt bezüglich des Power Limits voll ausgefahren.

Sollte das nicht bleibt oder blieb heißen?
So ist es nur ein Mischwort aus beidem.
 
EMkaEL schrieb:
sollte wohl Ryzen 9 3900XT heissen.
Das kann sein.
Ich finde es grad irgendwie faszinierend, dass ein 5600X mit halb so viel Kernen und Threads genau so schnell bzw. etwas schneller ist als ein 3900XT. Wer hätte das gedacht?
Ist aber auch eher die Ausnahme als die Regel.
 
Laphonso schrieb:
Unterhalb einer 3080 und eines 5900XT bzw. 10900K ist Cyberpunk mit Raytracing und DLSS nur mit mehrfacher Reduktion in vielen Grafikoptionen klar (zumindest ab UWQHD und 4K).

Ich habe penetrant weiterhin alle Slider gemaxt. Gib mir Psycho Raytracing! Zum Preis von 2500 Euro GPU+CPU. Ist schon gaga.

Aber sieht toll aus!

Gefühlt läufts bei mir auf WQHD mit RT Ultra und DLSS Q sehr gut und flüssig. FPS je nach Szene zwischen 65 und 75fps. In 4k mit DLSS Performance zwischen 45 und 55fps was sich aber deutlich schlechter anfühlt.

Die 3080 läuft so gut wie immer auf 1950-1980mhz. Rest siehe Signatur. Nach dem Bericht bin ich aber nun echt am überlegen doch nen 10850k zu kaufen. Aber ob das so schlau ist kurz vor Rocket Lake?
 
Wolfgang schrieb:
Mhm? Die Timings sind absolut gleich. Die Ryzen werden mit nicht optimierten Timings betrieben nach Spec, genau wie Intel.

Jein.
Ihr testet ja wie folgt:
10900K - 2933 CL14-14-14-34 => 9.54ns
5X00XT - 3200 CL14-14-14-34 => 8.75ns

Wie du siehst wird Zen2/3 durch dieses Setting bevorzugt. 9% Differenz.

Die schnellsten JEDEC Timings wären:
10900K - 2933 CL19-19-19 => 12.96ns
5X00XT - 3200 CL20-20-20 => 12.50ns

Mit JEDEC nur 3,7% Differenz.

Ich mein ja nur.
Solange es angegeben ist, ists ja kein Problem.
Aber nen Unterschied machts auf jeden Fall.

Und vielen Dank für das Savegame!
 
  • Gefällt mir
Reaktionen: gesperrter_User
@1unknown_user
Hier mal zwei Bilder

Hab die Szene als Spoiler rein, will ja niemandem was vorweg nehmen!
Hab extra auf 1080p@low gestellt damit du siehst was die CPU kann.
cp1.png

Und das sind die Taktraten in der Szene:
cp2.png
 
Warum wird eigentlich im Test nicht mehr der 8700k berücksichtigt ? Den haben sicher noch einige im Einsatz, mich engeschlossen.
 
Ich schließe mich mal der Gruppe an, die sagt es fehlt der 3700X/3800X/3800XT in dem Test.
Vor allem habt ihr den ja in dem letzten CPU Update auch als goldene Mitte empfohlen und jetzt fehlt ein Zen2 8Kerner gänzlich?
 
  • Gefällt mir
Reaktionen: GerryB, zig*zag und Sly123
Zurück
Oben