• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Cyberpunk 2077 im Test: Grafik zum Staunen, wenn der PC sie denn packt

@MiniM3

Was bei einem ausgelaufenen Produkt im Abverkauf aber auch nicht wirklich verwunderlich ist. ;)
Als er aktuell war lag der 9900k bei +500€, also irgendwo zwischen der UVP Preisregion des 5800X und des 5900X.
 
Blackland schrieb:
Es scheint (und gilt zu verifizieren), dass Intel bestückte Systeme weniger Bugs + Abstürze zu verzeichnen haben.
Wo kommt das her, dass AMD Systeme Bugs und Abstürze haben?

Hab überhaupt keine systemseitigen Probleme mit 3700x und 5700xt.
 
  • Gefällt mir
Reaktionen: Foxman, 1unknown_user und GERmaximus
@Caramelito

Du hast Vollkommen recht. Realismus sieht anders aus. Wenn ich mir dann aber noch den Klotzigen Rauch oder Nebel in dem Video anschaue - dann sollte daran erstmal gearbeitet werden.
 
speedfire2 schrieb:
Wo hast du das her. Bei mir gabs noch kein Absturz. Im Video von Rocket Beans wurde auch besprochen das es sehr gut läuft.
Auch bei mir keine Abstürtze inzwischen sogar mit ersten kleinen Mod unterwegs seit 2 Tagen!
image.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1unknown_user
FrAGgi schrieb:
Also nach nun gut 30 Stunden hatte ich noch keinen Absturz auf meinem altbackenen System aus i7 6700k und GTX 1070.
Und ich hatte auf meinem nicht weniger betagten System i7 6700k @ stock und GTX 1080 Ti @ stock. Nach ein paar Minuten schon den ersten Absturz. Spiele aber in 21:9.
Natürlich alle Treiber und Windows auf dem aktuellen Stand.
 
schkai schrieb:
Das gleiche konnte ich heute auch beobachten.
Ergänzung ()

Erschreckend wie wie der 3600 performt. Eine CPU welche nah an den 8700K ist hat plötzlich zum 10400F 30% abstand welcher identisch zum 8700K ist. Ich frage mich auch warum der 8700K in keinem CPU Benchmark mehr vorkommt.
Darfst aber auch nicht vergessen dass Hyperthreading in Cyberpunk aktuell nicht verwendet wird bei allen Ryzen CPUs. Das bringt auch ca. 20% Leistung. Finde ist ein relativ großer bug bzw. großes Problem aktuell. So sind die AMD Benchmarks eigentlich nutzlos. Würde auf Patch 1.05 abwarten.
 
  • Gefällt mir
Reaktionen: Celinna
Intel 6 Kerner + HT Broadwell-E hier und ich war praktisch noch nie im CPU Limit (werde im nächsten Run genau darauf achten, aber die 2080ti ist immer bei 99% bei 40-60 fps). Habe hier aber auch eine Quad Channel Konfiguration, evtl. macht das den Unterschied.

Ich finds ja amüsant wie hier der Test bezüglich der Grafik angezweifelt wird. Ne, glaubt mir, mit einer High End Graka und 4k Monitor/Oled sieht das wirklich so gut aus. Wie gesagt, nicht perfekt (Popp-In) aber in Summe kenne ich kein besser aussehendes Spiel.
 
Visualist schrieb:
Auch bei mir keine Abstürtze inzwischen sogar mit ersten kleinen Mod unterwegs seit 2 Tagen!Anhang anzeigen 1010272
Oha. Welche Graka hast du? Wie ist der Vergleich zu den normalen maximalen Settings?
Ergänzung ()

rulaman schrieb:
Darfst aber auch nicht vergessen dass Hyperthreading in Cyberpunk aktuell nicht verwendet wird bei allen Ryzen CPUs. Das bringt auch ca. 20% Leistung. Finde ist ein relativ großer bug bzw. großes Problem aktuell. So sind die AMD Benchmarks eigentlich nutzlos. Würde auf Patch 1.05 abwarten.

Ein wenig falsch interpretiert das Ganze.

So ohne weiteres bringt das eben nicht bei allen Konfigurationen etwas, geschweige denn 20%.
Ergänzung ()

Oneplusfan schrieb:
Intel 6 Kerner + HT Broadwell-E hier und ich war praktisch noch nie im CPU Limit (werde im nächsten Run genau darauf achten, aber die 2080ti ist immer bei 99% bei 40-60 fps). Habe hier aber auch eine Quad Channel Konfiguration, evtl. macht das den Unterschied.

Wenn du nicht in 720p oder 1080p spielst wirst du auch nie ins CPU Limit kommen denn die 2080 ist hier der limitierende Faktor.
 
Oneplusfan schrieb:
Ich finds ja amüsant wie hier der Test bezüglich der Grafik angezweifelt wird. Ne, glaubt mir, mit einer High End Graka und 4k Monitor/Oled sieht das wirklich so gut aus
Sorry, um festzustellen das das Spiel ohne RTX eine durchschnittliche Grafik hat braucht es kein 4K und kein Oled und auch keine 2080ti. Dafür reicht auch mein WQHD Monitor und meine 2080S aus.
 
ZeroStrat schrieb:
Es wurde doch auch schon einiges dazu geschrieben. Die Performance des 10600K im Verhältnis zum 9900K ist unmöglich. Weniger Kerne, dafür aber nur 200MHz mehr Boosttakt können den Vorsprung nicht erklären.

Außerdem verhalten sich die Lows völlig inkonsistent, 8700K vs. 9900K.

Die Definition, welche sie verwenden für die Lows mittelt x% der unteren FPS und enthält somit Ausreißer. Das verhindert konsistente Vergleiche.

Esenel schrieb:
Wie kann ein 10600K mit 12MB Cache 6 Kerne / 12 Threads und max Boost von 4.8GHz schneller sein als ein 9900K mit 16MB Cache 8 Kerne / 16 Threads und nem max Boost von 5.0GHz?
Und das mit nem Unterschied von 30 Frames?

Totaler Müll.
Ganz einfach.

Einzige Erklärung die ich habe ist wie gesagt, dass CP77 mit der 10er Serie einfach besser läuft Stichwort Compiler oder, dass die Security Fixes des 9900K erneut zuschlagen und Performance kosten. Der 10600K hat ja die Security Fixes in der Hardware und nicht nur im BIOS.

Wie gesagt ich traue Steve da schon bei den Zahlen da er, wie schon gesagt, unter den ganzen Tech YouTubern am meisten auf Kleinigkeiten achtet. Denke da wird es ein Update geben nachdem er sich von seiner OP erholt hat. Muss man halt etwas warten.
 
speedfire2 schrieb:
Oha. Welche Graka hast du? Wie ist der Vergleich zu den normalen maximalen Settings?
Ergänzung ()



Ein wenig falsch interpretiert das Ganze.

So ohne weiteres bringt das eben nicht bei allen Konfigurationen etwas, geschweige denn 20%.
Man weiß ja aber auch nicht ob der Hack das richtig implementiert. Wenn es so einfach gehen würde das mit nem Hex Editor zu implementieren hätte CD Projekt das selbst integriert. Also wird es größere Probleme geben. Und zusätzlich werden wohl nicht mal 8gb VRAM verwendet? Für mich ist das aktuell uninteressant. Ich spiel es wenn es fertig entwickelt ist.
 
  • Gefällt mir
Reaktionen: Celinna
speedfire2 schrieb:
Wo kommt das her, dass AMD Systeme Bugs und Abstürze haben?

Hab überhaupt keine systemseitigen Probleme mit 3700x und 5700xt.

Hatte zwei Abstürze die ich auf mein oc schiebe.
Oc geändert (von 2130mhz auf 2100mhz, 2080ti) und seit dem keinen Absturz mehr
 
@speedfire2
Würde sagen marginal bessere Optik .
Was auffällt ist das der Verbrauch noch mal anzieht bei meiner RTX3080 die klebt dann schon gut an der 380 W Marke+- die FTW @2040/10000 hat da zum Glück noch Reserven!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: speedfire2
B3nutzer schrieb:
@DaHans

Schonmal Division 2 gespielt? Der Detailgrad der Umgebungen ist deutlich höher als bei Cyberpunk. Volumetrische Rauch und Lichteffekte, Schatten usw. alles auf sehr ähnlichem Niveau, wenn nicht sogar noch besser.

Bei Cyberpunk reißts für mich das Artdesign raus und die Beleuchtung wirkt insgesamt nochmal beeindruckender und einfach aufwändiger. Dazu eben das RT das nochmal einen drauf setzt.

Aber grundsätzlich schenken die sich nicht so viel. Nur dass Division 2 mehr als doppelt so viele FPS liefert...
Division hat aber das deutlich monotonere Gameplay und eine Story zum abwinken.
Es ist un bleibt ein Ubisoftspiel, wo die Welt das beste ist und bleibt
 
Cool Master schrieb:
Einzige Erklärung die ich habe ist wie gesagt, dass CP77 mit der 10er Serie einfach besser läuft Stichwort Compiler oder, dass die Security Fixes des 9900K erneut zuschlagen und Performance kosten. Der 10600K hat ja die Security Fixes in der Hardware und nicht nur im BIOS.
Schau' dir doch einfach die Werte von PCGH an. Der 9900K liegt gar nicht mal so weit weg trotz der 8 Kerne, aber der 10600K darf 125W (der 9900K 95W) ziehen. Drüber kann er aber unmöglich liegen und schon mal gar nicht so extrem wie im GN Test.

Security Fixes haben meiner Kenntnis nach keinen nennenswerten Einfluss auf die Gamingperformance.

1608117048233.png

Cool Master schrieb:
Wie gesagt ich traue Steve da schon bei den Zahlen da er, wie schon gesagt, unter den ganzen Tech YouTubern am meisten auf Kleinigkeiten achtet. Denke da wird es ein Update geben nachdem er sich von seiner OP erholt hat. Muss man halt etwas warten.
Steve ist ein Fuchs, keine Frage. Aber der Test ist lieblos hingeschlunzt und durchweg inkonsistent. Viele kritische Comments auf Youtube wurden einfach ignoriert, Lob aber komischerweise mit positiven Reaktionen bedacht.

Das ist doch auch nicht böse gemeint, jeder macht mal Fehler. Aber ist nun mal offensichtlich in diesem speziellen Fall, dass es nicht stimmen kann.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Esenel
Manegarm schrieb:
Division hat aber das deutlich monotonere Gameplay und eine Story zum abwinken.
Es ist un bleibt ein Ubisoftspiel, wo die Welt das beste ist und bleibt
Hier geht es aber um die Grafik und nicht um das Gameplay.
 
Wie kriegt man diese Psyco Einstellungen genau?
 
schkai schrieb:
Sorry, um festzustellen das das Spiel ohne RTX eine durchschnittliche Grafik hat braucht es kein 4K und kein Oled und auch keine 2080ti. Dafür reicht auch mein WQHD Monitor und meine 2080S aus.
Macht ja nix. Dann hast du auf jeden Fall noch Luft nach oben. :D

Ich würds definitiv auch nicht ohne 4k, Oled, HDR und RTX spielen ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oneplusfan
ZeroStrat schrieb:
Schau' dir doch einfach die Werte von PCGH an. Der 9900K liegt gar nicht mal so weit weg trotz der 8 Kerne, aber der 10600K darf 125W ziehen. Drüber kann er aber unmöglich liegen und schon mal gar nicht so extrem wie im GN Test.

Die Tests kann man nicht vergleichen. Schau doch mal wie getestet wurde. Bei PCGH:

DX12 API, 720p, max. Details (no AF), Version 1.03, PCGH Benchmark 'Overdrive', RAM: 16 GB; DDR4 2666

Bei GN:

DX12 API, 1080p, low Details, Version 1.03, RAM: 32GB; 3200 MHz CL14

Bei 720p und High bist du wieder voll im GPU Limit.

Hättest du das Video dir angeschaut würdest du gehört haben, dass ab 16:15 gesagt wird, dass der Großteil der CPUs raus fliegt weil sie nicht mehr relevant sind - ergo sie sind alle so nah zusammen, dass es kein Sinn ergibt sie zu zeigen.

Da muss man sagen, dass PCGH kein CPU Test gemacht hat sondern ein GPU Test in 720p.
 
Zurück
Oben