• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Cyberpunk 2077 im Test: Grafik zum Staunen, wenn der PC sie denn packt

Buggi85,​


crysis remastered ist kein echtes next gen engine, es ist nur ne kopie paste von der alte engine.

lass dich bald überraschen, von der echten next gen engine !

und dieses crytek raytracing demo pracht ist real und wird bald in jedes kommende cryengine games realität 😉
 
  • Gefällt mir
Reaktionen: Mcr-King
Bigfoot29 schrieb:
Woha... dass ne 1080 nichtmal für WQHD reicht und selbst bei FHD nichtmal 60 FPS stabil schafft hätte ich nicht gedacht. o.0

Regards, Bigfoot29
Ich auch nicht bei der Grafik. Also ich hatte es auf Max Setting bei 30-40 fps mit einer Asus 1070 OC und muss sagen die Grafik sieht jetzt nicht besser aus als bei anderen Open World, ich finde die Weitsicht und die umgebung von Walhalla um einiges schöner und da Spiele ich mit meiner noch auf Ultra mit 50-60 fps. Vielleicht kommt da noch ein Update.... ich hoffe. Ne Neue Karte werde ich mir nur wegen einem Spiel sicher nicht Kaufen, ich habe es jetzt auf etwas mehr als auf mittel und 50-60 fps, das muss reichen. Vor allem ich Heutzutage kaum noch ein großen Unterschied zwischen mittel und Max sehe. Früher sah das ganz anders aus, da haste teilweise kaum Kantenglättung gehabt, heute reduziert sich das auf Weite Texturen und schatten.
 
  • Gefällt mir
Reaktionen: Mcr-King
Mein FazitErsteindruck zum Spiel nach 5-6h:
-Grafik haut mich nicht vom Hocker. Besser als gta5, aber schlechter als erwartet. Hab 2x im Optionsmenü noch Regler gesucht, die ich vergessen haben könnte auf max zu stellen.
-story ist der Hammer, fesselt enorm
-Karte ist noch Überarbeitungsbedürftig
-Autosteuerung ist mehr als schwammig

Btw. wer immer nur rumschleicht und allem aus dem Weg geht hat am Anfang enorme Geldprobleme.
Ergänzung ()

Wechhe schrieb:
Falls du Watt meinst - dein PC verbraucht 790 Watt?
890-280=610
Frag mich grad wo deine 790 herkommt?
 
  • Gefällt mir
Reaktionen: USB-Kabeljau und Gsonz
mahama schrieb:
Haha guter Witz :)
Mit einer 480 kannst du 1080p auf mittel zocken, mit stabilem 30fps half rate vsync. Oder unlocked fps wie eine Achterbahn.
Kein Problem. Dann warte ich, bis es CP2077 gut abgehangen im Sale gibt, bis dahin werde ich wohl auch eine neue Grafikkarte haben.
Es gibt ja genügend andere Spiele die man bis dahin spielen kann, ist ja nicht so, als wäre man auf die neuen Veröffentlichungen angewiesen.
 
  • Gefällt mir
Reaktionen: Mcr-King
gecan schrieb:
crysis remastered ist kein echtes next gen engine, es ist nur ne kopie paste von der alte engine.

lass dich bald überraschen, von der echten next gen engine !

und dieses crytek raytracing demo pracht ist real und wird bald in jedes kommende cryengine games realität 😉
Auch das ist schon schlimm genug, wenn man sein eigenes Spiel nach Jahren nicht gescheit geremastered bekommt.
Nein nein, Crytek hatte seine Zeit, die müssen sich erstmal selbst finden bis da wieder was vernünftiges kommt. Die sind wie ein Schiff ohne Ruder und haben es bis heute nicht hinbekommen ihre Cryengine unters Entwicklervolk zu mischen.
 
Taxxor schrieb:
Hat eigentlich auch mal jemand Fidelity FX CAS ausprobiert?

Ich hab das mal testweise eingeschaltet und selbst wenn ich die Renderauflösung nur auf 80% runtersetze, sieht es direkt komplett verschwommen aus.
Würde net unter 85% gehen. War damals die Standardeinstellung für 4k@TrixxBoost(=1836p)
Das sind ja schon ca. 28% mehr Fps. Und/Alternativ kannste ja den FOV-Slider runter mal testen, falls die Fps net reichen, oder die CPU zu viel zu tun hat.

Wie läufts mit der 2080Ti? Welche Settings inGame sind für Dich optimal?
Kannst ja mal die Tabelle von Experience noch ergänzen, falls Du weitere Settings anpasst.

btw.
Der CP-Launch hat quasi alle anderen Grakas ausverkauft=krass! (nur noch 3090 erhältlich)
Hätte nun gerade gedacht, das sich die Leute auf die 3090 stürzen, aber anscheinend gibts doch net soviel Enthusiasten, wie der Thread hier immer mal suggeriert.

2080Ti im Outlet:
Jetzt günstig kaufen! | ALTERNATE.de
 

Anhänge

  • GF-RTX-Cyberpunk.jpg
    GF-RTX-Cyberpunk.jpg
    333,8 KB · Aufrufe: 320
  • Settings.jpg
    Settings.jpg
    478,2 KB · Aufrufe: 296
Zuletzt bearbeitet:
DF PC Settings:

 
  • Gefällt mir
Reaktionen: s0ja, karl_laschnikow und GerryB
Buggi85 schrieb:
Die sind wie ein Schiff ohne Ruder und haben es bis heute nicht hinbekommen ihre Cryengine unters Entwicklervolk zu mischen

Ja dass liegt aber an Epic und ihrer sehr Aggressivität in der Vermarktung hust. 😉
 
Für alle die den Patch ausprobieren wollen


https://videocardz.com/newz/cyberpunk-2077-gets-fps-boost-with-a-patch-for-amd-ryzen-cpus



A quick guide has been provided by a Redditor chaosxk. We do not recommend tinkering with the executable files unless you are absolutely certain of what you are doing.

Step by Step:
1. Download HxD hex editor
2. Find your Cyberpunk2077.exe, i have GOG so mines was in Cyberpunk 2077binx64
3. Make a backup copy of Cyberpunk2077.exe just in case
4. Drag Cuberpunk2077.exe to HxD, a bunch of hex numbers should appear (like 01 FF 0D, etc)
5. Press CTRL+F, change column to Hex-Values
6. Put in “75 30 33 C9 B8 01 00 00 00 0F A2 8B C8 C1 F9 08” in the search string without quotes, those values should be highlighted
7. Copy “EB 30 33 C9 B8 01 00 00 00 0F A2 8B C8 C1 F9 08” without quotes
8. Back in HxD right click the highlighted values and select “paste insert”
9. Now go to top bar and click the save icon logo


Noch mehr Infos

https://adoredtv.com/intel-compiler-hinders-amd-cpu-performance-on-cyberpunk-2077/

Irgendwo nen Problem mit GPUOPEN https://gpuopen.com/

GPUOpen ist eine Middleware-Software-Suite, die ursprünglich von der AMD Radeon Technologies Group entwickelt wurde und erweiterte visuelle Effekte für Computerspiele bietet. Es wurde 2016 veröffentlicht. GPUOpen dient als Alternative zu und direkter Konkurrent von Nvidia GameWorks
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bigfoot29 und Neophyte77
UVLWheezle schrieb:
Hmm bei meiner Konfiguration liegt der Verbrauch inkl. Monitor bei ca. 390W.

Hier ca. 100 Watt für CPU und Mainboard und ca. 155 Watt Grafikkarte. Plus Peripherie werden es ca. 300 Watt sein. Ohne Lautsprecher.
 
KuroSamurai117 schrieb:
Wie schon selbst geschätzt CAS@85% und nur für die minFps nutzen (hier 60 Fps als dynCAS gewählt)
Bzgl. der minFps sollte man sich die adv.Sync-Range vom Moni/TV mal genauer anschauen. Oft 48Hz.
Wer bis 40Hz runter kann ist natürlich besser dran. (evtl. per CRU)
DLSS Perf. ist net zu empfehlen. = Bildfehler im Video von DF.
btw.
Ganz interessant, ein Vorschlag bei den Kommentaren: AO=off, weil ja RT-Shadows bereits Ähnlich wirksam.
dito
Tip: If your gonna have Ray Traced Reflections turned ON, turn Screen Space Reflections OFF. Otherwise the game is having to work too hard to draw the same reflection twice.
zu HDR:
Currently it’s broken and it is better to play in sdr instead even if you have a high end hdr display unfortunately. The problem is that it’s an sdr game that is converted to hdr not that the hdr is implemented properly and that causes your entire image to shift depending on the peak brightness (so let’s say you use 1000nits peak brightness then blacks will become washed out as the game just shifts everything up to reach 1000nits peak brightness)
Speku:
RT wurde nachträglich reingepappt und deswegen gabs dann ebenso (wie bei HDR) nur ein schlecht konvertiertes DX12 auf der uralten Witcher-DX11-Engine. Der Eintrag für Bulldozer spricht ja Bände.
 

Anhänge

  • CAS85%dyn60Fps.png
    CAS85%dyn60Fps.png
    694,1 KB · Aufrufe: 298
  • Vgl_CAS@85%dyn60Fps.png
    Vgl_CAS@85%dyn60Fps.png
    3,3 MB · Aufrufe: 295
  • DLLS-Perf_Mirrors.png
    DLLS-Perf_Mirrors.png
    2,2 MB · Aufrufe: 297
  • DLLS-Perf_Mirrors2.png
    DLLS-Perf_Mirrors2.png
    1,8 MB · Aufrufe: 290
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kaxi-85
Buggi85 schrieb:
Ui 890W... Bei meinen 29 Cent je kwh wären das bei täglich 4 Stunden Cyberpunk 375€ im Jahr, bzw. rund 29€ im Monat. Da sage ich nur, nein danke NVidia 🤬.

Achso. Und eine 6900XT verbraucht soviel weniger als eine 3090?
Alles klar :-D
 
  • Gefällt mir
Reaktionen: cruse
Mcr-King schrieb:
Ja dass liegt aber an Epic und ihrer sehr Aggressivität in der Vermarktung hust. 😉
Epic hat frühzeitig ein Modell angeboten was 500k$ für Lizenz ablöste und waren wesentlich offener die Engine jedem zugänglich zu machen. Bei Crytek war es zu viel hin und her, z.B. das Abomodell bei Steam. Denen hatte man angemerkt das sie nicht wissen wie sie die Cryengine noch anbieten könnten. Hätten die Gebrüder mal nicht gleich den Fuhrpark um Ferrari aufgestockt als sie ganz oben waren... 😂
 
Esenel schrieb:
Achso. Und eine 6900XT verbraucht soviel weniger als eine 3090?
Alles klar :-D
Hab ich nicht weiter verfolgt, nachdem ich trotz aller Bemühungen am Launch Tag keine bekam 😂. Naja und bei Nvidia, da sprechen die ausgelegten Custom Modelle für sich. Wenn ich schon lese das Hersteller XY 400W ermöglicht.
 
  • Gefällt mir
Reaktionen: Mcr-King
Abseits von DLSS Quality arbeitet bei mir in WQHD Automatisch am besten. Im Vergleich ein Ergebnis irgendwo zwischen Qualität und Ausgeglichen. Bei Performance oder Ultra Performance sieht man insbesondere in der Weitsicht den Qualitätsverlust deutlich.
 
DeMeP schrieb:
Was genau meinst du damit? Habe ich wohl verpasst und google brachte mir keine Ergebnisse
Moin,

die Wallpaper Emgine ist ein Programm welches deinen Desktophintergrund lebendig macht. Du hast dann anstatt eines Bildes einen animierten Hintergrund zum teil mit Sound.
(96) Top 50 All Time Best Wallpaper Engine Wallpapers - 2020 - YouTube
Das haben einige am laufen und war bisher auch nie ein Problem, aber bei CP77 zerrt es doch ordentlich an der Performance.

Was ich gestern aber rausgefunden habe ist viel spannender.
Mich hat die ganze Zeit dieses körnige grisslige Aussehen gestört und ich hab endlich rausgefunden welcher Schalter dafür verantwortlich ist.

Und zwar "Screen Space Reflections" muss man ausstellen. Nicht nur das die Performance über 30% zulegt im Vergleich zu "Hoch" auch hat man endlich ein scharfes klares Bild!
 
  • Gefällt mir
Reaktionen: Volvo480 und GerryB
Esenel schrieb:
Achso. Und eine 6900XT verbraucht soviel weniger als eine 3090?
Alles klar :-D
Buggi85 schrieb:
Hab ich nicht weiter verfolgt, nachdem ich trotz aller Bemühungen am Launch Tag keine bekam 😂. Naja und bei Nvidia, da sprechen die ausgelegten Custom Modelle für sich. Wenn ich schon lese das Hersteller XY 400W ermöglicht.
3090 bis 520W. Wenns net auf den Cent ankommt ist noch ne Skalierung ggü. 450W da.
6900 Ref. 349W bei Customs sicher auch mehr möglich, wobei ich net glaube, das>370W noch groß Was bringt. Igor war eher durch die Chipgüte limitiert.
https://www.igorslab.de/radeon-rx-6...me-spy-dank-wasserkuehlung-und-morepowertool/
 
  • Gefällt mir
Reaktionen: Esenel, Mcr-King und Buggi85
Ich bin jetzt am Anfang des zweiten Akt, werde das Spiel aber für den Moment zur Seite legen und auf Patches warten.
So ein Spiel sollte man in einer Technischer guten Fassung Spielen, auch wenn ich keine Absturz Problem habe. Sondern nur wie die meisten auch irgendwelche Bugs, Glitsches und Cliping Fehler.

Mit FidelityFX CAS lässt es sich Spielen in 1440p auf Ultra.
Und wer kein Bock hat auf diese Unschärfe im Spiel einfach Filmkörnung, Chromatische Aberration und Bewegungsunschärfe deaktivieren.

Ich hoffe die RX 6800XT Red Devil wird Anfang nächstes Jahr besser verfügbar sein, ich möchte das Spiel mit Guten FPS geniessen können.
 
  • Gefällt mir
Reaktionen: GerryB und Mcr-King
Zurück
Oben