-
Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Cyberpunk 2077 im Test: Grafik zum Staunen, wenn der PC sie denn packt
- Ersteller Wolfgang
- Erstellt am
- Zum Test: Cyberpunk 2077 im Test: Grafik zum Staunen, wenn der PC sie denn packt
speedfire2
Ensign
- Registriert
- Sep. 2020
- Beiträge
- 129
Wo kommt das her, dass AMD Systeme Bugs und Abstürze haben?Blackland schrieb:Es scheint (und gilt zu verifizieren), dass Intel bestückte Systeme weniger Bugs + Abstürze zu verzeichnen haben.
Hab überhaupt keine systemseitigen Probleme mit 3700x und 5700xt.
@Caramelito
Du hast Vollkommen recht. Realismus sieht anders aus. Wenn ich mir dann aber noch den Klotzigen Rauch oder Nebel in dem Video anschaue - dann sollte daran erstmal gearbeitet werden.
Du hast Vollkommen recht. Realismus sieht anders aus. Wenn ich mir dann aber noch den Klotzigen Rauch oder Nebel in dem Video anschaue - dann sollte daran erstmal gearbeitet werden.
Visualist
Lt. Commander
- Registriert
- Feb. 2006
- Beiträge
- 1.740
Auch bei mir keine Abstürtze inzwischen sogar mit ersten kleinen Mod unterwegs seit 2 Tagen!speedfire2 schrieb:Wo hast du das her. Bei mir gabs noch kein Absturz. Im Video von Rocket Beans wurde auch besprochen das es sehr gut läuft.
Zuletzt bearbeitet:
AYAlf
Commodore
- Registriert
- Apr. 2005
- Beiträge
- 4.358
Und ich hatte auf meinem nicht weniger betagten System i7 6700k @ stock und GTX 1080 Ti @ stock. Nach ein paar Minuten schon den ersten Absturz. Spiele aber in 21:9.FrAGgi schrieb:Also nach nun gut 30 Stunden hatte ich noch keinen Absturz auf meinem altbackenen System aus i7 6700k und GTX 1070.
Natürlich alle Treiber und Windows auf dem aktuellen Stand.
Darfst aber auch nicht vergessen dass Hyperthreading in Cyberpunk aktuell nicht verwendet wird bei allen Ryzen CPUs. Das bringt auch ca. 20% Leistung. Finde ist ein relativ großer bug bzw. großes Problem aktuell. So sind die AMD Benchmarks eigentlich nutzlos. Würde auf Patch 1.05 abwarten.schkai schrieb:Das gleiche konnte ich heute auch beobachten.
Ergänzung ()
Erschreckend wie wie der 3600 performt. Eine CPU welche nah an den 8700K ist hat plötzlich zum 10400F 30% abstand welcher identisch zum 8700K ist. Ich frage mich auch warum der 8700K in keinem CPU Benchmark mehr vorkommt.
O
Oneplusfan
Gast
Intel 6 Kerner + HT Broadwell-E hier und ich war praktisch noch nie im CPU Limit (werde im nächsten Run genau darauf achten, aber die 2080ti ist immer bei 99% bei 40-60 fps). Habe hier aber auch eine Quad Channel Konfiguration, evtl. macht das den Unterschied.
Ich finds ja amüsant wie hier der Test bezüglich der Grafik angezweifelt wird. Ne, glaubt mir, mit einer High End Graka und 4k Monitor/Oled sieht das wirklich so gut aus. Wie gesagt, nicht perfekt (Popp-In) aber in Summe kenne ich kein besser aussehendes Spiel.
Ich finds ja amüsant wie hier der Test bezüglich der Grafik angezweifelt wird. Ne, glaubt mir, mit einer High End Graka und 4k Monitor/Oled sieht das wirklich so gut aus. Wie gesagt, nicht perfekt (Popp-In) aber in Summe kenne ich kein besser aussehendes Spiel.
speedfire2
Ensign
- Registriert
- Sep. 2020
- Beiträge
- 129
Oha. Welche Graka hast du? Wie ist der Vergleich zu den normalen maximalen Settings?Visualist schrieb:Auch bei mir keine Abstürtze inzwischen sogar mit ersten kleinen Mod unterwegs seit 2 Tagen!Anhang anzeigen 1010272
Ergänzung ()
rulaman schrieb:Darfst aber auch nicht vergessen dass Hyperthreading in Cyberpunk aktuell nicht verwendet wird bei allen Ryzen CPUs. Das bringt auch ca. 20% Leistung. Finde ist ein relativ großer bug bzw. großes Problem aktuell. So sind die AMD Benchmarks eigentlich nutzlos. Würde auf Patch 1.05 abwarten.
Ein wenig falsch interpretiert das Ganze.
So ohne weiteres bringt das eben nicht bei allen Konfigurationen etwas, geschweige denn 20%.
Ergänzung ()
Oneplusfan schrieb:Intel 6 Kerner + HT Broadwell-E hier und ich war praktisch noch nie im CPU Limit (werde im nächsten Run genau darauf achten, aber die 2080ti ist immer bei 99% bei 40-60 fps). Habe hier aber auch eine Quad Channel Konfiguration, evtl. macht das den Unterschied.
Wenn du nicht in 720p oder 1080p spielst wirst du auch nie ins CPU Limit kommen denn die 2080 ist hier der limitierende Faktor.
Sorry, um festzustellen das das Spiel ohne RTX eine durchschnittliche Grafik hat braucht es kein 4K und kein Oled und auch keine 2080ti. Dafür reicht auch mein WQHD Monitor und meine 2080S aus.Oneplusfan schrieb:Ich finds ja amüsant wie hier der Test bezüglich der Grafik angezweifelt wird. Ne, glaubt mir, mit einer High End Graka und 4k Monitor/Oled sieht das wirklich so gut aus
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.788
ZeroStrat schrieb:Es wurde doch auch schon einiges dazu geschrieben. Die Performance des 10600K im Verhältnis zum 9900K ist unmöglich. Weniger Kerne, dafür aber nur 200MHz mehr Boosttakt können den Vorsprung nicht erklären.
Außerdem verhalten sich die Lows völlig inkonsistent, 8700K vs. 9900K.
Die Definition, welche sie verwenden für die Lows mittelt x% der unteren FPS und enthält somit Ausreißer. Das verhindert konsistente Vergleiche.
Esenel schrieb:Wie kann ein 10600K mit 12MB Cache 6 Kerne / 12 Threads und max Boost von 4.8GHz schneller sein als ein 9900K mit 16MB Cache 8 Kerne / 16 Threads und nem max Boost von 5.0GHz?
Und das mit nem Unterschied von 30 Frames?
Totaler Müll.
Ganz einfach.
Einzige Erklärung die ich habe ist wie gesagt, dass CP77 mit der 10er Serie einfach besser läuft Stichwort Compiler oder, dass die Security Fixes des 9900K erneut zuschlagen und Performance kosten. Der 10600K hat ja die Security Fixes in der Hardware und nicht nur im BIOS.
Wie gesagt ich traue Steve da schon bei den Zahlen da er, wie schon gesagt, unter den ganzen Tech YouTubern am meisten auf Kleinigkeiten achtet. Denke da wird es ein Update geben nachdem er sich von seiner OP erholt hat. Muss man halt etwas warten.
Man weiß ja aber auch nicht ob der Hack das richtig implementiert. Wenn es so einfach gehen würde das mit nem Hex Editor zu implementieren hätte CD Projekt das selbst integriert. Also wird es größere Probleme geben. Und zusätzlich werden wohl nicht mal 8gb VRAM verwendet? Für mich ist das aktuell uninteressant. Ich spiel es wenn es fertig entwickelt ist.speedfire2 schrieb:Oha. Welche Graka hast du? Wie ist der Vergleich zu den normalen maximalen Settings?
Ergänzung ()
Ein wenig falsch interpretiert das Ganze.
So ohne weiteres bringt das eben nicht bei allen Konfigurationen etwas, geschweige denn 20%.
GERmaximus
Rear Admiral
- Registriert
- Sep. 2015
- Beiträge
- 5.292
speedfire2 schrieb:Wo kommt das her, dass AMD Systeme Bugs und Abstürze haben?
Hab überhaupt keine systemseitigen Probleme mit 3700x und 5700xt.
Hatte zwei Abstürze die ich auf mein oc schiebe.
Oc geändert (von 2130mhz auf 2100mhz, 2080ti) und seit dem keinen Absturz mehr
Visualist
Lt. Commander
- Registriert
- Feb. 2006
- Beiträge
- 1.740
@speedfire2
Würde sagen marginal bessere Optik .
Was auffällt ist das der Verbrauch noch mal anzieht bei meiner RTX3080 die klebt dann schon gut an der 380 W Marke+- die FTW @2040/10000 hat da zum Glück noch Reserven!
Würde sagen marginal bessere Optik .
Was auffällt ist das der Verbrauch noch mal anzieht bei meiner RTX3080 die klebt dann schon gut an der 380 W Marke+- die FTW @2040/10000 hat da zum Glück noch Reserven!
Zuletzt bearbeitet:
Manegarm
Rear Admiral
- Registriert
- Juni 2015
- Beiträge
- 5.847
Division hat aber das deutlich monotonere Gameplay und eine Story zum abwinken.B3nutzer schrieb:@DaHans
Schonmal Division 2 gespielt? Der Detailgrad der Umgebungen ist deutlich höher als bei Cyberpunk. Volumetrische Rauch und Lichteffekte, Schatten usw. alles auf sehr ähnlichem Niveau, wenn nicht sogar noch besser.
Bei Cyberpunk reißts für mich das Artdesign raus und die Beleuchtung wirkt insgesamt nochmal beeindruckender und einfach aufwändiger. Dazu eben das RT das nochmal einen drauf setzt.
Aber grundsätzlich schenken die sich nicht so viel. Nur dass Division 2 mehr als doppelt so viele FPS liefert...
Es ist un bleibt ein Ubisoftspiel, wo die Welt das beste ist und bleibt
Z
ZeroStrat
Gast
Schau' dir doch einfach die Werte von PCGH an. Der 9900K liegt gar nicht mal so weit weg trotz der 8 Kerne, aber der 10600K darf 125W (der 9900K 95W) ziehen. Drüber kann er aber unmöglich liegen und schon mal gar nicht so extrem wie im GN Test.Cool Master schrieb:Einzige Erklärung die ich habe ist wie gesagt, dass CP77 mit der 10er Serie einfach besser läuft Stichwort Compiler oder, dass die Security Fixes des 9900K erneut zuschlagen und Performance kosten. Der 10600K hat ja die Security Fixes in der Hardware und nicht nur im BIOS.
Security Fixes haben meiner Kenntnis nach keinen nennenswerten Einfluss auf die Gamingperformance.
Steve ist ein Fuchs, keine Frage. Aber der Test ist lieblos hingeschlunzt und durchweg inkonsistent. Viele kritische Comments auf Youtube wurden einfach ignoriert, Lob aber komischerweise mit positiven Reaktionen bedacht.Cool Master schrieb:Wie gesagt ich traue Steve da schon bei den Zahlen da er, wie schon gesagt, unter den ganzen Tech YouTubern am meisten auf Kleinigkeiten achtet. Denke da wird es ein Update geben nachdem er sich von seiner OP erholt hat. Muss man halt etwas warten.
Das ist doch auch nicht böse gemeint, jeder macht mal Fehler. Aber ist nun mal offensichtlich in diesem speziellen Fall, dass es nicht stimmen kann.
Zuletzt bearbeitet von einem Moderator:
Hier geht es aber um die Grafik und nicht um das Gameplay.Manegarm schrieb:Division hat aber das deutlich monotonere Gameplay und eine Story zum abwinken.
Es ist un bleibt ein Ubisoftspiel, wo die Welt das beste ist und bleibt
Maxminator
Lt. Commander
- Registriert
- Juni 2015
- Beiträge
- 2.026
Wie kriegt man diese Psyco Einstellungen genau?
Macht ja nix. Dann hast du auf jeden Fall noch Luft nach oben.schkai schrieb:Sorry, um festzustellen das das Spiel ohne RTX eine durchschnittliche Grafik hat braucht es kein 4K und kein Oled und auch keine 2080ti. Dafür reicht auch mein WQHD Monitor und meine 2080S aus.
Ich würds definitiv auch nicht ohne 4k, Oled, HDR und RTX spielen
Zuletzt bearbeitet:
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.788
ZeroStrat schrieb:Schau' dir doch einfach die Werte von PCGH an. Der 9900K liegt gar nicht mal so weit weg trotz der 8 Kerne, aber der 10600K darf 125W ziehen. Drüber kann er aber unmöglich liegen und schon mal gar nicht so extrem wie im GN Test.
Die Tests kann man nicht vergleichen. Schau doch mal wie getestet wurde. Bei PCGH:
DX12 API, 720p, max. Details (no AF), Version 1.03, PCGH Benchmark 'Overdrive', RAM: 16 GB; DDR4 2666
Bei GN:
DX12 API, 1080p, low Details, Version 1.03, RAM: 32GB; 3200 MHz CL14
Bei 720p und High bist du wieder voll im GPU Limit.
Hättest du das Video dir angeschaut würdest du gehört haben, dass ab 16:15 gesagt wird, dass der Großteil der CPUs raus fliegt weil sie nicht mehr relevant sind - ergo sie sind alle so nah zusammen, dass es kein Sinn ergibt sie zu zeigen.
Da muss man sagen, dass PCGH kein CPU Test gemacht hat sondern ein GPU Test in 720p.