• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Cyberpunk 2077 im Test: Grafik zum Staunen, wenn der PC sie denn packt

cmi777 schrieb:

Also mein Beamer im Keller kann das seit 4 Jahren! TVs noch länger, Monitore ebenfalls! Jedes Jahr kommt ne neue achso geniale High End Grafikkarte raus, wo sich alle Gaming Kiddies gegenseitig battlen wer denn die größte und bunteste hat, nur um kurz darauf festzustellen das es wieder Games gibt wo es nicht 100% ausgereizt werden kann und man Abstriche machen MUSS!

Jetzt wo es schon die ersten 8K Modelle gibt und welche Zeit seit 4K Einführung verstrichen ist, sollte das definitiv Standard sein!
 
Draco Nobilis schrieb:
Du hast aber gelesen was ich schrieb? Vielleicht verstehe ich dich falsch.
Wie kann es Wettbewerb sein, wenn der Publisher / Entwickler in dem Spiel Raytracing nach DXR Standard(!) einbaut und auch auf Konsolen für identische(!) AMD Hardware nutzt, aber es am PC nicht freigibt?[/QUTOE]
Auf den neuen Konsolen ist RTRT noch nicht verfügbar. Es soll nachgepatcht werden.
Draco Nobilis schrieb:
Es war immer schon so, sobald NVIDIA Techniken einbauen lies, war es nicht nur zur Bedienung der eigenen Kundschaft (das ist ja gut), sondern auch dafür das es bei Mitbewerbern schlechter lief bzw mit weniger Features.

Ich sehe es so, dass es nicht von Nachteil ist, zusätzlich für die eigene Kundschaft Techniken einzubauen, die es sonst so nie ins Spiel geschafft hätten.
Dass man nicht viel Mühe darauf verwendet, es auf der Hardware der Konkurrenz performant zu kriegen sehe ich als völlig normal an.
Es ist ja mit nichten so, dass nvidia dahingehend manipuliert, dass z.B. obwohl die Möglichkeiten zur Nutzung bestehen würden, es eine Vendor- Abfrage gibt, wie es z.B. bei Godfall passiert ist. So etwas finde ich ist unter aller Kanone.
Es läuft eben dann auf Konkurrenzhardware schlechter, wenn die Leistung in entsprechenden Bereichen nicht da ist (früher Tesselation). Somit rückt man seine eigene Hardware mit einem Showcase in den Mittelpunkt.

Draco Nobilis schrieb:
ich muss jetzt nicht wirklich die ganze Batman Reihe ausgraben mit den ULTRA-Tesslation auf flachen Boden und jeden absolut flachen Betonblock? Ein Schelm das damalige NVIDIA Karten dies 40% schneller darstellen konnten :D
Wie gesagt- Ich sehe das differenzierter. Die AMD Hardware war schwächer. Man hat aber keinerlei Funktionalität eingeschränkt.

Draco Nobilis schrieb:
NVIDIA wurde da schon sehr oft überführt, von Entwicklern selbst. Das stinkt mir einfach. Vor allem wenn kein Datum für AMD Raytracing Patch angekündigt ist und man auch als Publisher kein Statement dazu gibt.
Das wäre mir neu. Mir ist kein Fall bekannt und nach diversen analysen der Gameworksbibliotheken komme ich auch nicht zu einem entsprechenden Schluss, dass nvidia hier absichtlich blocks, locks, busycycles eingebaut hätte, die mit Vorsatz der Konkurrenzhardware mutwillig eingebremst hätte.

Sieht man jeweils daran, dass die nvidia Bibliotheken jeweils mit den Generationen, die bezüglich der spezifischen Leistung nachgebessert wurden, dann auf der Konkurrenzhardware ähnlich schnell lief/läuft.

Der Raytracing- Patch von AMD hat ein ganz anderes Problem. AMD hat ein erhebliches Leistungsdefizit, wenn kein Inline- Raytracing benutzt wird. Du kannst aber nicht jedes Renderszenario auf inline- Raytracing zwingen.
Die gesamte Hardwarestruktur von AMD entspricht im günstigen Fall in Sachen RT der Gen1 von nvidia.
Erschwerend kommt hinzu, dass 30+x % zusätzlich fehlen, weil AMD kein DLSS- Derivat zu bieten hat.

Mit der 2080TI schaffst Du in Cyberpunk 1440p ohne DLSS 25FPS.
mit DLSS Balanced auf 1440P dann 90% mehr.

In RT- lastigen Multieffekt- Szenarien taxiert man nun die 6900XT auf einem Level einer 2080TI (als Referenz nehme ich mal die Performance von Control) und hat keine Technik wie z.B. ein DLSS, dann wird eine Implementation ziemlich sinnlos.

Vor diesem "Problem" steht man nun.
Man wird auf Teufel komm raus für AMD einen neuen Renderpfad aufmachen müssen und DLSS- ähnliche Verfahren einsetzen müssen, um auf den AMD- Karten ohne erhebliche Einschränkung der Effektqualität dann über die für uns Entwickler magische 30FPS+ Grenze zu kommen.

Und das ist ein Mammut Projekt, welches man zwar mit Sicherheit angehen und stemmen wird, jedoch wird das viel Zeit und viele Ressourcen in Anspruch nehmen und meines Erachtens nicht innerhalb der nächsten zwei Monate was werden. Das Team hat alle Hände voll zu tun Schadensbegrenzung bei der alten Konsolengeneration zu betreiben und die PC- Version auf einen technisch sauberen Stand zu kriegen.

Schlichtweg deutlich zu viele Baustellen, um das mal eben so nebenbei noch zu integrieren, weil es starke Eingriffe in die Shader bzw. Renderstrukturen bedeutet.

AMDs Wette bei Raytracing läuft halt darauf, dass während der Hauptlaufzeit von Big Navi nur einzelne RT- Effekte zum tragen kommen bzw. RT nur spärlich eingesetzt wird. Dafür konzipiert, liefert Big Navi ausreichend Leistung. Gehts darüber hinaus, ist das aktuelle Design inkl. Softwareökosystem deutlich schwächer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: C3LLoX, Michaa46, AlfoGTA und 4 andere
foo_1337 schrieb:
Man hätte einfach die PS4/Xbox one nicht bedienen dürfen.

man hätte auch einfach gut programmieren können?
andere liefern auf PS4 und xbox one auch grafisch tolle Spiele ab.
das ist einfach Murks.
 
  • Gefällt mir
Reaktionen: Der Professor1 und fox40phil
Weiß hier jemand welche Settings wenig visuellen Mehrwert bieten und dafür große Performanceschübe (und umgekehrt was braucht wenig, sieht aber gut aus)?

Hintergrund: Will das Spiel bei 45+ fps in 4k auf einer 3070 und 2080ti betreiben und müsste da entsprechend anpassen.

Aktuell bin ich bei High (Screen Space Reflections auf Mittel, Ambient Occlusion auf Mittel), RT alles an (Lightning Medium), DLSS Performance. Hier passt mir die Bildqualität, aber die Performance noch nicht ganz.

1080p Renderauflösung sieht nicht mehr gut aus. Das fällt für mich weg.

Evtl. ist 1440p @ DLSS Qualität eine Option. Ist halt die Frage wie hoch der Vorteil/Nachteil gegen 4k @ DLSS Performance ist. Möglicherweise könnte man auch noch mit DLSS Ultra Performance und dafür RT Psycho experimentieren.

Oder ganz ohne RT - allerdings nur ungern. Das gibt dem Game den gewissen Next-Gen Punch, was gut zum Setting passt. Wäre toll wenns von CB da einen Guide geben würde.

cruse schrieb:
gelber zettel!
inzwischen sogar per Telefon - 2x reinhusten - win
wait - that's illegal

Cordesh schrieb:
man hätte auch einfach gut programmieren können?
andere liefern auf PS4 und xbox one auch grafisch tolle Spiele ab.

Sicher, zeig mir ein Spiel mit dem Umfang von CP 2077.
 
  • Gefällt mir
Reaktionen: cruse
Vielen Dank für den Test. Vor allem aber vielen Dank für die an uns Spieler gerichteten mahnenden Worte, was das crunchen und den Umgang damit durch uns angeht! Dies kann nicht genug gewürdigt werden!

..wenngleich es bei mir zu spät ist, da ich gleich anfange mit spielen. Mal schauen was so geht mit 0,8V & 1,8Ghz max. auf der 3090.
 
Cordesh schrieb:
man hätte auch einfach gut programmieren können?
andere liefern auf PS4 und xbox one auch grafisch tolle Spiele ab.
das ist einfach Murks.
CDPR sucht sicher noch gute Leute: Wenn das mehr als eine Stammtischparole war, bewirb dich!
 
  • Gefällt mir
Reaktionen: C3LLoX, gesperrter_User, konkretor und 4 andere
Hampelkrause schrieb:
aber das ist mir doch echt zu bunt alles auch die kämpfe finde ich mit controller recht träge irgendwie
Sorry, aber solche Spiele spielt man auch mit Maus und Tastatur. Kann diesen Controllerquatsch bei Spielen aus der Ego Perspektive einfach nicht nachvollziehen.

Bin mal gespannt ob zukünftige Patches noch etwas mehr Performance rausholen. Bugfixes müssen aber definitiv relativ schnell kommen.
 
  • Gefällt mir
Reaktionen: Valdasaar, fox40phil und foo_1337
foo_1337 schrieb:
Auf PS5 und Series X läuft es gut. Mit AMD und NV hat das nix zu tun. Es läuft auch auf Nvidia Karten von 2013 bescheiden. Was erwartest du denn? Man hätte einfach die PS4/Xbox one nicht bedienen dürfen.
Klar, weil PS5 und Series ja nur die current-gen-Version befeuern müssen, die sind da (noch) ziemlich unterfordert. Ich red ja von PS4 und Xbox One. Diese Konsolen können grafisch WESENTLICH mehr, siehe Deus Ex Mankind Divided, last of us 2 etc.. Ich kanns letztlich nicht wirklich beurteilen, inwiefern die Vertikalität von Night City die Grafikleistung einschnürt, aber ich wär auch nicht so sicher, dass die dürftige Optik auf diesen Konsolen nicht auch ein wenig der schlechten Optimierung für AMD-Grafiklösungen geschuldet ist...
Kann man letztlich wohl nicht wissen. Da aber noch extrem viele PS4 und Xbox One/S in Gebrauch sind, kommt CDPR wohl nicht um eine Optimierung auf den alten Systemen rum...
 
foo_1337 schrieb:
CDPR sucht sicher noch gute Leute: Wenn das mehr als eine Stammtischparole war, bewirb dich!
was ein dummer Kommentar. ich darf also nichts kritisieren was ich nicht selbst besser kann?
 
  • Gefällt mir
Reaktionen: osf81 und eXe777
amd_24 schrieb:
Meine 3070 kommt schon gut ins Schwitzen ohne DLSS und RT Ultra für "hohe fps" (60+). 2020er Ausgabe von Crysis? Wie viele Hardware-Generationen wird es wohl dauern, dass es locker-flockig läuft? :D
Crysis? nenenene, das war ein anderes Kaliber. Damals mit 1000 CHF Nvidia 8800 Ultra mit Max Settings @ 1680x1050 15-20fps ;) oder so... Ich spielte das Spiel auf High also dem zweit höchsten mit ca. 25-30 fps. Heute sind wir immerhin bei 70-80fps unter 1440p mit max Settings (abgesehen von Raytracing).
 
  • Gefällt mir
Reaktionen: amd_24
Pisaro schrieb:
Sorry, aber solche Spiele spielt man auch mit Maus und Tastatur. Kann diesen Controllerquatsch bei Spielen aus der Ego Perspektive einfach nicht nachvollziehen.
Noch einer, der sich selbst als Maßstab der Menschheit sieht...
DU machst das so, aber du bist nicht "man".
Typisch dogmatische Sichtweise eines PC-Egomanen und vermutlich Konsolenhassers.
Stell dir vor, nicht jeder hat Bock auf 2000€+ Kosten für einen einigermaßen guten Gaming-PC und die damit verbundene Bastelei und Konfiguration. Sofa, 85 Zoll und Heimkinosound ist mir persönlich da lieber, als am Schreibtisch auf nem vergleichsweise kleinen Moni zu zocken. Kannst du das jetzt nachvollziehen...?
Menschen sind verschieden, und so auch ihre Empfindungen und Vorlieben.
 
  • Gefällt mir
Reaktionen: C3LLoX, Michaa46, Kadamis und 4 andere
HageBen schrieb:
Also durchaus mit meiner R9 390 und R5 2600 spielbar? Kann ich mehr als Daumenkinoqualität erwarten?
Ja bisschen mehr als Daumenkino. Habe der APU aber auch 8GB zur Verfügung gestellt für den VRAM-Ersatz. Es wurden auch knapp über 5GB genehmigt für das Spiel. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HageBen
Cordesh schrieb:
was ein dummer Kommentar. ich darf also nichts kritisieren was ich nicht selbst besser kann?
Wenn mein Kommentar dumm war.. ne, lassen wir das.
Natürlich darf kritisiert werden. Aber deiner Kritik fehlte jegliche Untermauerung.
Barren Militia schrieb:
Klar, weil PS5 und Series ja nur die current-gen-Version befeuern müssen, die sind da (noch) ziemlich unterfordert. Ich red ja von PS4 und Xbox One. Diese Konsolen können grafisch WESENTLICH mehr, siehe Deus Ex Mankind Divided, last of us 2 etc..
Eigentlich wollte ich dazu was sagen, aber du hast ja die passende Erklärung geliefert:
Ich kanns letztlich nicht wirklich beurteilen
Vielleicht einfach mal selbst spielen, dann auch nochmal TLOU oder Deus Ex und dann realistisch vergleichen?
Und jetzt bringst du schon wieder das AMD Argument. Wo genau stinken die RNDA2 ggü. den Ampere Karten so richtig ab? Und wie du in den Benchmarks siehst, sieht es bei Pascal und vorher auch nicht gut aus.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Col.Maybourne
Ich bin begeistert wie gut es auf dem LG C9 (dank Gsync) aussieht und läuft in 4K Ultra+ Ultra RT DLSS Performance.
 
Ich werde noch etwas mit dem ersten Playthrough warten. Meine RX5700XT sollte mit noch mehr Optimierung dann auch auf Mittel stabile 60FPS liefern. Das wird wohl noch Treiberupdates durch CDPR und AMD brauchen. Der Nvidia game ready Driver hat ja auch durchaus einen Unterschied gemacht.
 
Barren Militia schrieb:
Typisch dogmatische Sichtweise eines PC-Egomanen und vermutlich Konsolenhassers.

Nope. NES, SNES, PS1, PS2, Nintendo Wii U, Nintendo 3DS, PS4 Pro waren meine Konsolen bis jetzt.

Es ist einfach ein Fakt das du mehr Kontrolle hast bzw das Spiel besser spielbar ist wenn du Maus und Tastatur benutzt. Sorry, da diskutiere ich auch nicht.

Es geht hier nicht um Vorteile oder Nachteile von Konsole/PC, sondern einzig und allein um dem Fakt das Spiele aus der Ego Perspektive schon immer mit Maus und Tastatur besser zu Steuern waren, sind und auch bleiben werden.

Mehr will ich damit gar nicht sagen. Aber BTW, kann man mittlerweile nicht auch Maus und Tastatur an eine Konsole hängen?
 
  • Gefällt mir
Reaktionen: Michaa46, osf81, han123 und 2 andere
Das Game läuft sogar auf meiner alten GTX970 noch moderat. Grafik auf Mittel dann gehts eigentlich ganz gut :)
 
Palitore schrieb:
Hoppla, da hat Nvidia wohl Pascal bei der Treiberoptimierung kurzfristig vergessen.

Die 1060/1070/1080er laufen allesamt 20-30% schlechter als ihre normalen Gegenspieler.
Ist sicher nur dem hastigen Day1-Treiber geschuldet, aber da müssen Die Damen und Herren wohl nochmal ran...
Wieso denkst du, dass Nvidia da was falsch gemacht hat?
Die Spieler sollen doch nicht auf der ollen 10XX er Reihe sitzen und gefälligst die neue Gen holen.
So machen das die Smartphonehersteller doch auch mit ihrer Updatepolitik.
Cyberpunk ist ein Kaufanreiz für Nvidias neue Karten in Spieleform.
 
Zurück
Oben