• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Cyberpunk 2077 im Test: Grafik zum Staunen, wenn der PC sie denn packt

Ach ja, was man noch anprangern darf: Die HDR Umsetzung.
 
Na ich hoffe, ihr habt Spaß am Spiel, denn mit gesundem Menschenverstand kann man wohl nicht erklären, wie man für ein Spiel 1000 Euro mit mehr ausgibt. Da sind die 60 Euro fürs Spiel eher ein Durchlaufposten. Auf der anderen Seite, bei 4 Millionen verkauften Exemplaren und der durchschnittlichen HW auf Steam wird der Katzenjammer der lowdps Geplagten noch kommen und der Metascore unter 70 sinken.
 
  • Gefällt mir
Reaktionen: Der Professor1 und ShowOff
Chismon schrieb:
Wie ausschlaggebend Speicher fuer einen selber beim Grafikkartenkauf wohl sein wird, muss man selber wissen und das haengt natuerlich auch vom individuellen Nutzerverhalten ab und ob man bspw. schon in 2 Jahren spetestens dann wieder/noch teurer eine Grafikkarte kaufen will ;).

Das halte ich einfach nur für eine Wette. Wie schon mal geschrieben: Spielehersteller wollen Spiele verkaufen. Die richten sich nach der Mehrheit der Spieler, nicht nach irgendwelchen >600eur Enthusiastenkarten die erst 2021 wirklich verfügbar sind. Welche Grafikkarte hat denn Stand heute mehr als 10 oder 11 GB? Die kann man an einer(?) Hand abzählen, vor allem wenn man die Titans weglässt.

Meinst du wirklich, dass in 2 (das wäre 2023) Jahren all die Karten mit 8GB für FHD/WQHD obsolet sind? Da wette ich dagegen.

Für mich hat das aktuell alles etwas von dem "Immer mehr Megapixel"-Wahn der Kompaktkameras und jetzt Smartphones.
 
9,3 stunden bisher und bin bisher sehr positiv gestimmt. Setting und Welt kommen glaubhaft Rüber, die Grafik is 2080ti mit All+Ultra+RT Ultra +DLSS Ausgewogen bei 2560x1440 passabel mit 50-60fps spielbar aufm TV. Bei 5120x1440 tu ich mich aber mit der Bildqualität schwerer. DLSS kann 16:9 einfach besser.
 
  • Gefällt mir
Reaktionen: darkspark
Sashalala schrieb:
Also mein Beamer im Keller kann das seit 4 Jahren! TVs noch länger, Monitore ebenfalls! Jedes Jahr kommt ne neue achso geniale High End Grafikkarte raus, wo sich alle Gaming Kiddies gegenseitig battlen wer denn die größte und bunteste hat, nur um kurz darauf festzustellen das es wieder Games gibt wo es nicht 100% ausgereizt werden kann und man Abstriche machen MUSS!

Jetzt wo es schon die ersten 8K Modelle gibt und welche Zeit seit 4K Einführung verstrichen ist, sollte das definitiv Standard sein!

Ist es aber nicht. 4k ist nachwievor absolute Nische. Guck dir die Steamstatistiken an. FHD mit weitem Abstand vorndran, dann WQHD und dann (einstellig) 4k.
 
  • Gefällt mir
Reaktionen: Col.Maybourne
Hoffe auch mal auf ein paar Patches, sonst werde ich auch refunden. Hab auch eine 5700 XT und kann den Benchmark bestätigen .. läuft so mit 35-40 FPS @wqhd bei hohen Details.

Dachte ich mir, ok 5700 XT ist ja schon etwas betagt geh ich halt auf Medium runter wo das Spiel auch spürbar schlechter ausschaut. Ergebnis? Etwa 4-5 FPS Gewinn

Das Spiel ist aktuell noch so schlecht optimiert.
 
  • Gefällt mir
Reaktionen: Mahagonii
foo_1337 schrieb:
... Dick Move seitens AMD gab es bei Godfall. Anpassung im ini File und RT läuft mit nvidia Karten. Bei CP2077 glaube ich nicht, dass es an nvidia liegt, sondern wirklich daran, dass man wartet, bis es FFX SR fertig ist. Denn schließlich hat man trotz nvidia sponsoring auch FFX CAS eingebaut. Dazu kommt, dass es potentiell weitere RNDA2 optimierungen gibt, da es auch noch nicht für die next gen Konsolen fertig ist.
Zu der HWU Nummer hatte ich schon im anderen Thread was gesagt: Geht gar nicht. Fail^10.

Naja, das wissen wird eben nicht, es kann an AMD/RTG selber liegen in Cyberpunk 2077 - wie ich schrieb - oder am Sponsoring von nVidia oder auch an CD Projekt Red.

Ob es daneben ist, weil AMD/RTG das bei Godfall nicht so vorgesehen hat bzw. man Hand anlegen muss und die Entwickler eine RTX 3080 von vornherein eben mangels 12 GB bei Hoechsttexturmodus ausschliessen, ist dann die Frage.
Gut ist es natuerlich, wenn es dann per Modifikation auf einer RTX 3080 fluessig genug laeuft (der Ausschluss wegen weniger als 12 GB grundlos war), aber ob es dann am Entwickler oder AMD/RTG liegt, ist schwer aus zu machen.

Genauso koennte man nVidia fuer den mangelnden Speicher einer RTX 3080 bei einer High End Grafikkarte zum empfohlenen Startpreis von ca. 700 Euro selber anprangern bzw. der Speicher (und Effizienz) betreffend mangelhaften/verkorksten RTX Ampere Produktplatzierung am Markt.

Godfall ist mit Sicherheit nicht erst seit dem RTX 3080 Launch in der der Entwicklung und wenn nVidia mit dem Speicher beim kompletten RTX Ampere Lineup geizt (die RTX 3090 einmal ausgenommen, bei der es in die komplett andere Richtung geht und fuer einen heftigen Aufpreis zu viel Speicher fuer einen Gaming-GPU gibt, als dass diese lohnend ueber die Nutzungsdauer der Karte in Computerspielen genutzt wuerde) wuerde ich das nicht wirklich den Entwicklern oder AMD/RTG als Sponsor ankreiden, zumal die Absicht ebenso wie hier bei Cyberpunk 2077 nicht zu belegen ist.

Bei der Einflussnahme auf HU TechTuber ist diese aber veroeffentlicht worden und ja, denen ist eher zu trauen als dem dubiosen Jen-Hsun Huang und seinem Verein, der schon in der Vergangenheit die Kundschaft mehrfach (am Rande der Legalitaet) zum eigenen Vorteil bewusst durch den Kakao gezogen hat (milde/diplomatisch ausgedrueckt).

Uebrigens geht es auch in die andere Richtung, dass eben keine faire/objektive Review eines TechTubers stattfindet, wie im einzelnen bei der RX 6900XT JayzTwoCents Rezension angekreidet und es passt zum "von nVidia(/EVGA) gekaufter Reviewer" Vorwurf bzw. die Kritikpunkte sind nicht wirklich haltlos:


Dass AMD/RTG uebrigens keine Engel sind und Lisa Su und Co. zunehmend auch weniger der Kundschaft produkttechisch bieten, sieht man aber klar beim (auf Zen 2 blockierten) SAM Feature der RDNA2 Karten (was ich deneben finde, eine Freigebung fuer Zen 2 Matisse CPUs ist m.E. mittlerweile ueberfaellig) und der Veroeffentlichung und Preise der letzten beiden AM4 Chipsaetze (moeglicherweise kuenstlichem Zurueckhalten eines X670 Chipsatz?), was ich auch sehr kritikwuerdig finde, aber dennoch nicht auf dem Level dieser nVidia Gefuegigmachung/Bestrafung/Abhaengigmachung von Reviewern/TechTubern.

Wenn das dann groesstenteils nur noch auf gekaufte/Fake Reviews hinauslaeuft, weil nVidia das nahezu allmaechtig glaubt machen zu koennen, dann sieht es wirklich duester fuer die ganze (PC-Hardware-)Branche aus (da koennten sich andere Nachahmer finden, als Kunde weiss man nicht mehr wo man sich halbwegs objektiv noch informieren kann ohne einem geschmierten Reviewer auf den Leim zu gehen, etc.) ... ein wirklich bedenklicher Trend, passend auch zum scheidenden US-Praesidenten und seinem treuen republikanischen, anti-demokratischen Anhang.
 
  • Gefällt mir
Reaktionen: Oneplusfan und GerryB
@Chismon Wenige Stunden nach Freigabe des RT Patches für Godfall wurde der .ini Kniff entdeckt. Auch mit einer 3080 und 10GB ging das problemlos und die FPS gingen sogar hoch. Es gab keinen technischen Grund für die Limitierung. Die Aussage mit den 12GB war nichts wert, das wurde schon oft bestätigt. Und auch mit einer 3070 läuft Godfall Problemlos mit RT (1440p). Ohne jegliche VRAM Probleme oder FPS Einbrüche.

Nvidia selbst hat sich auch geäußert: https://www.pcgamer.com/ray-tracing-amd-nvidia-exclusivity/
 
  • Gefällt mir
Reaktionen: stevefrogs, Esenel, Chismon und 3 andere
4badd0n schrieb:
F an alle, die sich noch vor einem halben Jahr ne 2080Ti für >1000€ geholt haben und jetzt Cyberpunk 2077 auf Max und HFR spielen wollen...

Fassen wir mal zusammen:

  • die 3080 ist nicht verfügbar
  • wenn dann für 900 Euro und mehr und ist somit kaum günstiger als damals eine 2080 TI für 300 Euro mehr.
  • in Cyberpunk 2077 ist die 3080 gerade mal um 25% schneller bzw. mit Raytracing sind es etwas mehr. In 4K mit RTX und DLSS Quality 31 zu 39 FPS.

Ja wegen den lausigen 8 FPS war die 2080 TI vor einen halben Jahr garantiert ein Fehlkauf. Vor einen halben Jahr stand noch gar nicht fest, dass Ampere im September erscheinen wird bzw. genau genommen war das ja ein halber Paperlaunch. Die Karten sind nicht verfügbar. Wer kein Glück hatte steht bezüglich Cyberpunk 2077 ohne Grafikkarte da, also bedeutend schlechter als eine 2080 Ti zu besitzen. Außerdem kauft man immer dann Hardware wann ein Bedarf besteht. Ansonsten braucht man nie Harware zu erwerben, da es immer nur eine Frage der Zeit ist bis was besseres erscheint. Da wäre es deutlich sinnvoller z.B. in 5000 Jahren erst eine Grafikkarte zu erwerben, anstatt heute...
 
  • Gefällt mir
Reaktionen: osf81, fox40phil, Oneplusfan und 2 andere
Wer zockt mit Controller eine Runde Hardcore-3d-Shooter gegen mich mit Maus/Tastatur (natürlich OHNE Autoaim und sämtliche untersütztungen). Damit wäre das geklärt.

Maus und Tastatur sind bei 3d-shootern besser (aber nicht bei Hack-and-Slay...!). Sag ich, der Nes, Snes, N64 und etwas Sega Mega drive gezockt hat. Goldeyneye DM anyone?

Und wer trotzdem mit Controller zocken will, so lange es spaß macht ists ok, für mich ist es nichts.
 
Danke für den ausführlichen Test. Das Spiel sieht schon echt toll aus, werde aber noch warten (müssen) bis ich eine aktuellere Grafikkarte habe, meine Ti dürfte in UHD abkotzen. :D Bis dahin werden bestimmt die ersten Patches da sein und das Game läuft dann auch besser. Die Screenshots machen aber schon echt Lust drauf. :)
MFG Piet
 
cmi777 schrieb:
Ist es aber nicht. 4k ist nachwievor absolute Nische. Guck dir die Steamstatistiken an. FHD mit weitem Abstand vorndran, dann WQHD und dann (einstellig) 4k.

Ja weil die Hersteller wissen wie Sie die Kuh melken und scheinbar springen jedes Jahr viele drauf an!

Geht auch für mich nicht ums Consumerverhalten - ich bin auch Fan von 21:9 UWQHD, sehe mich aber auch nicht als Gamer!

Finde es aber erbärmlich das selbst wenn ich wollte nichtmal könnte, weil die Technik hinterherhinkt, sogar bevor Sie in den Regalen stehen... Stillstand und Häppchen!
 
  • Gefällt mir
Reaktionen: mydayyy
Welche Grafik settings bringen am meisten fps? gibt's irgendwo einen guide dazu?
 
Jetzt werden Spiele also schon so entwickelt, dass man 1000 Euro für eine GPU ausgeben muss um es in FHD daddeln zu können.
 
  • Gefällt mir
Reaktionen: Der Professor1 und konkretor
Chismon schrieb:
Dass AMD/RTG uebrigens keine Engel sind und Lisa Su und Co. zunehmend auch weniger der Kundschaft produkttechisch bieten, sieht man aber klar beim (auf Zen 2 blockierten) SAM Feature der RDNA2 Karten (was ich deneben finde, eine Freigebung fuer Zen 2 Matisse CPUs ist m.E. mittlerweile ueberfaellig)
Da du das so klar siehst, hast du ja sicherlich entsprechende Quellen dafür, dass AMD bewusst die Freigabe für ältere Produkte als die Zen3-CPUs blockiert und es nicht an einem etwaigen Validierungsprozess o.ä. liegt.
Chismon schrieb:
und der Veroeffentlichung und Preise der letzten beiden AM4 Chipsaetze (moeglicherweise kuenstlichem Zurueckhalten eines X670 Chipsatz?), was ich auch sehr kritikwuerdig finde, aber dennoch nicht auf dem Level dieser nVidia Gefuegigmachung/Bestrafung/Abhaengigmachung von Reviewern/TechTubern.
Die Preise für Mainboards kommen weder von von AMD, noch auf der anderen Seite von Intel. Die legen MSI und Co. selbst fest. Wäre ja auch zu schön, wenn die Hersteller für ihre eigenen Produkte Preisvorgaben von Dritten bekommen würden.

Was Cyberpunkt angeht: Optik oftmals - aber auch nicht immer - hui, Performance insgesamt in Relation leider aber pfui. Darüber kann auch DLSS nicht hinwegtäuschen. Statt das Ding mit RT vollzukleistern und die Performance derart in die Knie zu zwingen, hätte man die Ressourcen lieber in ein fertigeres Spiel stecken sollen.
 
Ohne DLSS in 4K in Ultimate mit RT geht meine 3090 auf 30 FPS runter:freaky:.
 
  • Gefällt mir
Reaktionen: MeisterOek, Neronomicon und fox40phil
Bigger schrieb:
Hoffe auch mal auf ein paar Patches, sonst werde ich auch refunden. Hab auch eine 5700 XT und kann den Benchmark bestätigen .. läuft so mit 35-40 FPS @wqhd bei hohen Details.

Dachte ich mir, ok 5700 XT ist ja schon etwas betagt geh ich halt auf Medium runter wo das Spiel auch spürbar schlechter ausschaut. Ergebnis? Etwa 4-5 FPS Gewinn

Das Spiel ist aktuell noch so schlecht optimiert.
Gibt es bei Spielen einen Mindestanspruch auf FPS? Wenn ich mich recht erinnere hatte man vor nicht allzu langer Zeit noch Spass mit 30 FPS in 720p oder FHD. Ich besitze zwar keine Konsole aber in Single-Player spielen werde ich teilweise auch mit 40 FPS glücklich. Ist Medium die niedrigste Einstellung? Auf den Fotos hier sieht es auf Low jetzt auch nicht soo viel schlechter aus, als auf High. Aber gut, Fotos können täuschen.

Da ich auch eine 5700XT habe werde ich einfach warten. Es gibt so viele tolle Spiele, die in den letzten Jahren rausgekommen sind, die ich jetzt mit meiner GPU flüssig in 4K spielen kann :)
Mit meiner RX580 war da vor ein paar Wochen noch nicht dran zu denken.
 
Pisaro schrieb:
Du kannst doch einfach mal ne FPS Anzeige reinhauen. Komm schon, ist nicht so schwer :)
Deinstalliert, da ich klausurenphase habe.
Also nix mit kucken.
 
  • Gefällt mir
Reaktionen: Vendetta192, fox40phil, Pisaro und eine weitere Person
Zurück
Oben