• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Cyberpunk 2077 im Test: Grafik zum Staunen, wenn der PC sie denn packt

B.XP schrieb:
Übrigens ist Standardmäßig die Zielhilfe an...was ich im übrigen direkt mal abgeschaltet habe...

War das erste was ich im Menü deaktiviert habe ;D
 
tackleberry schrieb:
Vorhin mal zum Spass zum digitalen Stromzähler im Keller runtergegangen.
PC an und Cyberpunk läuft: 890 kWh Verbrauch
PC aus: 280 kWh Verbrauch

Greenpeace hates me ;D

kWh - ich glaube da hast du dich vertan mit den Einheiten. Meinst du den Momentanverbrauch? Das wären Watt.
Der bereits "verbrauchte" Strom wird in kWh gemessen und diese Zahl wird mit dem Stromanbieter abgerechnet.

Falls du Watt meinst - dein PC verbraucht 790 Watt? (mit Monitor?)
 
  • Gefällt mir
Reaktionen: Apocalypse, s0ja und Wechhe
tackleberry schrieb:
Vorhin mal zum Spass zum digitalen Stromzähler im Keller runtergegangen.
PC an und Cyberpunk läuft: 890 kWh Verbrauch
PC aus: 280 kWh Verbrauch

Greenpeace hates me ;D
Wohl eher 890W und 270W, was eher hinkommen dürfte, als 890 und 270KW. Und KWh ergibt in dem Zusammenhang schon gar keinen Sinn :D
Aber, das wären dann ca. 600 Watt für PC und Monitor, das doch hinkommen dürfte.
Ich habs nicht gemessen, aber mein PC zieht beim Cyberpunk spielen sicher auch über 400 Watt, mit Monitor dann 500W, und wenn ich auf dem UHD TV mit HDR spiele, sind es über 600W insgesamt. HDR braucht auch mehr Strom da die Hintergrundbeleuchtung bei Bedarf dann alles raus ballert was geht.

Ich spiele es nur nicht auf dem TV weil ich nicht auf Maus und Tastatur verzichten will. Ich wechsle ständig zwischen Maus und Tastatur und Controller, das funktioniert hervorragend. Aber nur eines von beidem wäre mies.
 
@Rumguffeln
Nice :D
@Marcel55
too slow :D

Meine Vega 64 läuft voll ins Powertarget Limit mit 1800 MHz CPU Takt bei 330 Watt. Plus ~140 Watt für die CPU plus Monitor und Drumherum werde ich wohl auch bei 600+ Watt sein
 
Wechhe schrieb:
Meine Vega 64 läuft voll ins Powertarget Limit mit 1800 MHz CPU Takt bei 330 Watt.
1800MHz GPU Takt? 😲
Meine Vega taktet in dem Spiel mit ca. 1530-1560MHz. Mehr kriege ich da nicht raus. ich könnte mit mehr Spannung und mehr Power mehr Takt generieren, aber dann laufen mir die Spannungswandler heiß. Die sind dank Undervolting bei ca. 100°C im Schnitt, ohne aber auch gerne auf 115°C, wenn ich dann noch das Power-Target nach oben schraube, wirds kritisch. Somit muss ich meine Vega eher bremsen als sie voll auszufahren.
Dafür bin ich aber auch nur bei 220-260W, je nachdem. Alles laut Radeon Overlay.

1unknown_user schrieb:
Wie sind deine HDR Settings in game?
Habe einen OLED C9
Weiß ich grad nicht auswendig, habe nur mal ne Stunde so gespielt auf meinem Sony XF90, das sah gut aus und lief erstaunlich flüssig trotz 4K (allerdings habe ich FFX CAS ziemlich hart skalieren lassen, was auf dem TV weniger auffällt, als auf nem Monitor). Habe es aber ungefähr angepasst auf 1000 Nits, der OLED dürfte weniger Spitzenhelligkeit haben, dafür etwas besser bei niedriger Helligkeit abschneiden, kann man also nicht direkt vergleichen.
 
  • Gefällt mir
Reaktionen: Wechhe
Ich komme in 3.840 x 1.600 mit allem was geht und RT + DLSS Quality mit einem per Curve Optimizer optimierten Ryzen 9 5950X und einer leicht übertakteten 3090 TUF OC auf ~ 560 bis 580 Watt bei ~ 55 fps.

Da darf CDPR gerne noch etwas optimieren. Mit ~ 65 bis 70 fps würde ich mich bei voller Grafikpracht schon zufriedengeben.

Nervige Bugs waren bei mir bisher die Ausnahme, aber leugnen kann man sie nicht. Ich habe bisher aber nur einen Grafik- und Technikcheck gemacht und mal geschaut wie die Atmosphäre so ist.

Ich werde erst Mitte/Ende Januar meinen ersten Durchlauf starten und hoffe bis dahin noch auf ein paar Patches.

Auch ein im Grunde großartiges Spiel darf man durchaus kritisieren, solange es nicht wieder in Kindergarten ausartet.
 
  • Gefällt mir
Reaktionen: s0ja, coxon, Hells_Bells und 6 andere
Marcel55 schrieb:
1800MHz GPU Takt? 😲
Meine Vega taktet in dem Spiel mit ca. 1530-1560MHz. Mehr kriege ich da nicht raus. ich könnte mit mehr Spannung und mehr Power mehr Takt generieren, aber dann laufen mir die Spannungswandler heiß. Die sind dank Undervolting bei ca. 100°C im Schnitt, ohne aber auch gerne auf 115°C, wenn ich dann noch das Power-Target nach oben schraube, wirds kritisch. Somit muss ich meine Vega eher bremsen als sie voll auszufahren.
Dafür bin ich aber auch nur bei 220-260W, je nachdem. Alles laut Radeon Overlay.

Temperatur ist bei 54-56 Grad (Zieltemperatur für den Lüfter ist 55 Grad). Hotspot immer unter 85 Grad.
Die Vega 64 LC darf ab Werk schon etwas höher takten und hat selektierte Chips. Habe 1800 MHz eingestellt und in Cyberpunk erreiche ich so 1770 - 1790 MHz.
HBM läuft auf 1050 MHz.

Normalerweise undervolte ich aber und habe dann so um 1700 - 1740 MHz. Je nach Spiel.


Mir macht das Spiel bisher sehrviel Spaß. Bin noch in dem sehr linearen Erzählstrang. Habe gerade Silverhand kennengelernt. Keine Ahnung, wie lang die Story noch ist - spielt sich derzeit eher wie ein Actionfilm.

@SV3N @Marcel55
Hast du dir den AMD SMT "Patch" mal angeschaut? Also die Sache mit dem Hex Editor, damit SMT genutzt wird?
 
Wechhe schrieb:
Hast du dir den AMD SMT "Patch" mal angeschaut? Also die Sache mit dem Hex Editor, damit SMT genutzt wird?

Ich schaue mir das gerade im Detail an und möglicherweise gibt es dazu morgen mehr.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: cmi777, Wechhe und FLCL
Ich habe jetzt das Ende gesehen. Die Story, die Hauptchars, die Inszenierung haben mir richtig gut gefallen. Unglaublich was da für Arbeit gekostet haben muss. Und dann die ganzen Texte und Vertonung in zig Sprachen!
Abseits davon bin ich eher Zwiegespalten. Welt/ Interaktion, Grafik, AI, kleine Bugs und Glitches sind nicht so toll. Dann der Hardwarehunger und der schlechte Realese auf den Konsolen.
Eigentlich schade bei solch einer Story. Aber es wird ja noch einige Patches kommen und DlCs (muiltipl?). Bin gespannt wie sich das Ganze noch entwickelt.
 
Taxxor schrieb:
Hat eigentlich auch mal jemand Fidelity FX CAS ausprobiert?

Ich hab das mal testweise eingeschaltet und selbst wenn ich die Renderauflösung nur auf 80% runtersetze, sieht es direkt komplett verschwommen aus.
Was sehr merkwürdig ist, denn in Death Stranding wurden z.B. fest 75% genommen und da war absolut nichts unscharf. Es wirkt etwas so als würde das Nachschärfen einfach vergessen werden.
laut digital foundry sollte man die Option ausschalten da sie verbuggt ist. Übrigens der Tipp hier mit dem SMT Zusatz von Nexus Mods bewirkt Wunder! Mein Ryzen 2700x kotzt zwar wortwoertkich (70-80%) Auslastung aber in den Min Frames (Auto Fahren) habe ich nun ca 20% höhere Fps. 30 davor nun 40-45
 
  • Gefällt mir
Reaktionen: Mcr-King
  • Gefällt mir
Reaktionen: Mcr-King
  • Gefällt mir
Reaktionen: Mcr-King
Marcel55 schrieb:
Ich betreibe FFX CAS jetzt auf 85% und finde so hat es keine negativen optischen Auswirkungen und läuft etwas flüssiger. Die "kostenlose" Performance nimmt man ja gerne mit.

Bei Terminator Ristance funktioniert das aber super FFX auf 80 plus nachschärfen 20% mehr Leistung und sogar bessere Qualität. 😉

Dass ist ein low Budget Game. 😉
Ergänzung ()

MrVaglna schrieb:
wie oben von mir erwähnt - es gibt die Dateien auf nexusmods zum downloaden (link wurde weiter oben gepostet). Performance boost bei mir 20% im CPU Limit - ca 20-30% mehr Auslastung

Schlimm dass man sowas bei einem Sogenannten AAA Titel machen muss. 😉
 
  • Gefällt mir
Reaktionen: gecan
tackleberry schrieb:
Vorhin mal zum Spass zum digitalen Stromzähler im Keller runtergegangen.
PC an und Cyberpunk läuft: 890 kWh Verbrauch
PC aus: 280 kWh Verbrauch

Greenpeace hates me ;D
Ui 890W... Bei meinen 29 Cent je kwh wären das bei täglich 4 Stunden Cyberpunk 375€ im Jahr, bzw. rund 29€ im Monat. Da sage ich nur, nein danke NVidia 🤬.
 
  • Gefällt mir
Reaktionen: Mcr-King
dieses spiel erinnert mich von der performance technik und texturdarstellung sehr an rage release von 2011 !!!

die texturdarstellungen in manchen stellen katastrophal.

oder es liegt einfach an meine 5700xt mit ihren vram+bandbreite krüppel.

und so viele bugs habe ich noch bei garkeinen spiel erlebt, keine ahnung was die dabei gesoffen oder genommen haben, bei all den jahre langen entwicklungszeit :rolleyes:

wird sich aber zeigen sobald ich in wenigen tagen die 6900xt habe.

und das mit den raytracing optik+performance ist ein totaler witz bzw lächerlich im vergleich von cryteks neon noir raytracing benchmark demo :kotz:

das kommt davon wenn man mit maulwürfe zusammen arbeitet.

die sollen mal rüber zur crytek und eine ausbildungszeit machen, wie man raytracing unter software richtig programiert !!!

wird zeit das crytek zurück kommt, um mal ein ordentliches raytracing titel wie das von der demo version raus haut, um zu zeigen wie das wirklich geht mit der revolutionäres grafik pracht und ordentlichen performance 🙏
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: USB-Kabeljau und Mcr-King
gecan schrieb:
und das mit den raytracing optik+performance ist ein totaler witz bzw lächerlich im vergleich von cryteks neon noir raytracing benchmark demo :kotz:

das kommt davon wenn man mit maulwürfe zusammen arbeitet.

die sollen mal rüber zur crytek und eine ausbildungszeit machen, wie man raytracing unter software richtig programiert !!!
Du solltest eine Demo niemals mit einem vollständigen Spiel vergleichen, wo die Demo als Feature nur einen kleinen Teil aus macht.
Und Crytek hat sich auch nicht gerade mit Ruhm bekleckert was das Crysis Remaster betrifft. ;)
 
  • Gefällt mir
Reaktionen: Apocalypse, Odessit und Fernando Vidal
Zurück
Oben