• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Cyberpunk 2077 im Test: Grafik zum Staunen, wenn der PC sie denn packt

Hmm Nvidia zeigt mal wieder das wahre Gesicht.
(für die, die 1 Stunde Zeit für Geschichte haben und evtl. vergessen haben oder zu jung sind um es direkt mitbekommen zu haben wie Ngreedia mit der Konkurrenz, ihren Partnern und den Käufern umgeht))

Es geht garnicht darum, den Spielern neue Features zu bieten oder den Games mit RT/DLSS den Weg in die "Next-Gen" zu zeigen. Es geht darum in der Performance in Benchmarks oben zu stehen. Also werden "Killerfeatures" eingebaut, die überall (bis auf aktuellem eigenem Highend) schlecht laufen und auf der Konkurrenz noch schlechter.

Noch schlimmer finde ich gerade das:
 
  • Gefällt mir
Reaktionen: Beatmaster A.C., Mcr-King, Fernando Vidal und eine weitere Person
ThePlayer schrieb:
Das Grafisch nächst beste Game. Sieht ja nicht 50% schlechter aus was die schlechten FPS erklären würde
Naja die Optik skaliert auch nur selten linear mit der dafür benötigten Leistung. Raytraying ist da doch aktuell das Paradebeispiel für. Volles Raytraying in aktuellen Titeln sieht definitiv besser aus, steht es aber nach deiner Aussage im Verhältnis zur Leistung? Was berechnet werden muss, lässt sich ja noch gut in Zahlen ausdrücken. Aber eine Skala für grafische Qualität gibt es eben nicht. Da hat sogar jeder noch seinen eigenen Geschmack.
 
  • Gefällt mir
Reaktionen: Mcr-King und Laphonso
Hmm. Habs mir bestellt. Hoffe läuft in 1440p mittlere Einstellungen mit ner 1070 halbwegs rund 😅
Sonst muss ichs erstmal in die Ecke packen und warten bis mal neue Grakas zur Verfügung stehen. 🤣
 
  • Gefällt mir
Reaktionen: Laphonso
Also nachdem ich jetzt zwei Tage durchgespielt habe würde ich sagen, dass Cyberpunk sich ähnlich verhält wie Witcher 3 zum Release. Ich habe in den zwei Tagen je einen Crash gehabt, wobei diese nicht reproduzierbar waren und ich vom letzten Checkpoint problemlos weiterspielen konnte.
Nachdem ich gerade meine Session beendet habe wurde schon der nächste Hotfix installiert. Bin also gespannt ob ich am Wochenende dann keine Crashes mehr habe.
Grafisch ist es auf jeden Fall das beste Spiel, das ich bisher gespielt habe. Das heisst aber nicht viel - ich habe glaube ich kein Triple-AAA Spiel gespielt, das nach Witcher 3 erschienen ist. Ich spiele mit einer 2080Ti und den vorgeschlagenen Settings was so ziemlich alles aktiviert (inkl. Raytracing und DLSS) aber zu eher mässigen FPS führt. Ich hatte meist so 40-50 fps wenn ich es mal kontrolliert habe. Dank GSync ist es aber so ganz gut spielbar.
Den Schwierigkeitsgrad (Normal) finde ich als Gelegenheitsspieler gar nicht so ohne. Da haben mich ein paar Boss-Fights ganz schön ins Schwitzen gebracht und ich bin froh den ersten Durchlauf nicht auf einer höheren Stufe versucht zu haben. Geralt hatte es da schon leichter, der wurde aber auch nur gelegentlich von Armbrust-/Bogenschützen geärgert und musst sich nicht auch noch mit Granaten, Snipern und Hackerangriffen auseinandersetzen. :)
 
  • Gefällt mir
Reaktionen: Hells_Bells, bertlinger und Laphonso
3090 ist also eine Full HD Karte, naja.
 
  • Gefällt mir
Reaktionen: Mcr-King
Schalk666 schrieb:
Hmm Nvidia zeigt mal wieder das wahre Gesicht.
Was für ein dummes Zeug.
Nvidia hat Pionierarbeit geleistet, ist Impulsgeber bei ML und der AI, bei den "self-driving cars", in der Vr und in Advanced Robotics. Dank Nvidia haben wir Gsync und Raytracing auf Konsumer GPUs, der Rest der Industrie zieht hier nur nach.

Hardware Unboxing hat sehr viel Unsinn erzählt, was Raytracing angeht, was in der Branche als der Heilige Gral gilt. Ich war auf der Dreamhack mit CAD und VR Designern der Autoindustrie, welche vor Nvidia den Kniefall dank der Tensorcores machten.
Aus Nvidias Sicht kann ich nachvollziehen, dass diese Ignoranz sauer aufstößt, denn diese Problemdenker verhindern Innovationen.

Dass die next gen Konsolen mit Raytracing als feature werben, beerdigt jede Diskussion ob Raytracing ein Gimmick ist oder nicht.

Dass last GPU Gen nur die 2080Ti und diese Gen nur die 3090 = die Top End GPUs am besten weggkomen und überhaupt die 60 fps mit RT und DLSS knacken bei aktuellen AAA Games, ja das kennen wir, mag bei der 4080Ti oder 4090 whatever auch so sein.

Dass diese Technik nochmal 1-2 Generationen braucht, bis sie "sauber" läuft, wussten alle.

Aber:
Es wird keine GPUs zukünftig mehr geben ohne native RT Berechnung.
Klassische Raster+Render Berechnung ist 90er Jahre.

Watchdogs Legion, Cyberpunk, Metro Exodus, Control etc sehen mit Raytracing einfach besser aus, mehr Immersion, mehr Atmosphäre. Es ist "natürlich", pre rendered Schatten und Licht sind einfach nicht mehr das Gleiche, wenn man den Unterschied kennt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: C3LLoX, adAstra, Blackland und 4 andere
Tom_1 schrieb:
3090 ist also eine Full HD Karte, naja.
Ich spiele 3440*1440 = UWQHD mit Ultra+Psycho Settings maxed, und natürlich DLSS an.

Demnach nicht auf 2 Millionen Pixeln, sondern auf knapp 5 Millionen.

Also bitte nicht so absurde Relationen nutzen ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cmi777 und foo_1337
Da haben wir nun das erste Spiel, was man aus Sicht vieler als Next-Gen bezeichnen kann. Und es ist Hardwarehungrig. So viele haben danach gerufen und jetzt wird gejammert, dass es ja nur ordentlich auf der (jetzt) current-gen HW läuft. Was wolltet ihr denn sonst? Next-Gen Qualität auf Last-Gen?
Früher(tm) war es völlig normal dass Spiele selbst auf der zu dem Zeitpunkt aktuellen High-End HW nicht full-maxed sauber liefen. Und damals galten oft auch noch 30fps als sauber..
 
  • Gefällt mir
Reaktionen: C3LLoX, Hells_Bells, luda und 2 andere
könnt ihr schon deutsche Sprachausgabe einstellen?
 
Schalk666 schrieb:
Noch schlimmer finde ich gerade das:

Ich war ja noch recht unentschlossen, welche neue Graka es nun werden sollte (3070/80 oder 6800/XT), aber gerade schlägt das Pendel wieder in Richtung AMD aus. Geht gar nicht, was nvidia da abzieht.
 
GerryB schrieb:
Im Prinzip ist das RT ja in FHD, oder?

Der Rest ist ja nur KI-Gimmick.
Und das klappt herrvorragend. Wenn man eine Nvidia GPU hat.

Das "Gimmick" ist ein Durchbruch im AI Scaling. So sieht das die Industrie. Und AMD will etwas "Kontern". Müssen sie.

Wenn Du das nicht "siehst", ....sorry bro :D

btw, PCGH:
Nvidias DLSS-Upscaling hat gigantische Auswirkungen auf die Leistung, sobald maximale Raytracing-Qualität aktiv ist.

"Gimmick" 🤣
 
Zuletzt bearbeitet:
Draco Nobilis schrieb:
Entschuldige, aber das ist Unsinn.
Für sowas hab ich keine Geduld mehr.

Draco Nobilis schrieb:
Es ist absolut klar und bewiesen das NVIDIA ein Feature das Sie besser performen als die Konkurrenz in einem Maße bei Publishern einsetzt das jeglichen Sinn vollständig entbehrt, nur um damit die Konkurrenz schlechter dastehen zu lassen.
Dann solltest Du Dir Dein eigenes Video vielleicht mal ansehen. Siehe Fallout 4 Sequenz. nvidia hat am Patch 1.3 mitgewirkt und unter Anderem nvidia Flex eingebaut mit folgendem Ergebnis:
1607728775036.png


Da haben ALLE nvidia Karten gegenüber den AMD Karten Federn lassen müssen. Hat nvidia sich also von AMD bezahlen lassen, dass ihre eigenen Karten schlechter performen?

Draco Nobilis schrieb:
Wenn du das nicht mal weißt, ist jegliche Unterhaltung über Gameworks und NVIDIA Machenschaften direkt sinnfrei.
Sinnfrei sind die unreflektierten und nicht überprüften Stammtisch- und Nachplapper Parolen, die einer Untersuchung nicht standhalten.

Die Mythen um den Tesselationsirrsinn bei Crysis+cp. wurden längst debunked.
In der Wireframe Ansicht waren erstens im solid rendermode nicht genutzte Tesselation- Faktoren in Benutzung und zudem wurde das Culling komplett unter den Tisch gekehrt.

Die Entwickler dazu:
The wireframes may look overtessellated, but it's the nature of the technique. Also, wireframe mode has no culling - you can see everything behind anything in wireframe mode, including the ocean. It doesn't necessarily mean you can see these things in normal mode. I hope everyone takes this into account when they're judging tessellation in wireframe mode.

https://forums.guru3d.com/threads/v...added-to-cryengine.409451/page-2#post-5324419

oftmals eingesetzt:
https://www.gamedev.net/forums/topic/609635-tessellation-frustum-culling/

Diese ganzen Themen wurden schon x- mal durchgekaut;
https://www.computerbase.de/forum/t...mit-nvidia-grafikkarten.1983004/post-24914579

https://www.computerbase.de/forum/t...rscheint-am-19-november.1982204/post-24898955

https://www.computerbase.de/forum/t...-guter-vega-performance.1855922/post-22318907

Und auch schon mal daran gedacht, dass TressFX auf AMD Karten anfangs besser lief, weil die eine höhere GPGPU Leistung hatten?

In der Praxis funktioniert dies auch ganz gut, allerdings hatten AMD-Grafikkarten bei Release einen Vorteil: Grafikkarten der Graphics-Core-Next-Architektur haben erfahrungsgemäß mehr GPGPU-Leistung als das äquivalente NVIDIA-Pendant. Daher konnten AMD-Grafikkarten TressFX-Haare auch schneller berechnen

Ich bin es langsam leid, dass diese immer und immer wiederholten, schon längst aufgeklärten Urban Myths von vielen Usern ohne Recherche weiter übernommen werden. Klar - Hat ja alles immer ein bißchen was von Sensation und Aufregung.
DAS verschwendet Zeit.

Draco Nobilis schrieb:
Alleine der Gedanke das die Konsolen, deren Markt größer ist als die des PCs weniger zu optimieren bzw da Raytracing nicht mit zu erledigen grenzt an Irrsinn.
Sieh mal wie schwer RTRT mit der modernen Generation und Big Navi abzuhandeln ist, zumal Big Navi wie ich weiter vorne schonmal ausgeführt habe einen ganz anderen Shaderansatz fürs inline- Raytracing braucht, um effektiv arbeiten zu können.

Und da willst Du so mir nichts Dir nichts dann RTRT auf den Konsolen integrieren, die noch weniger RTRT Leistung bieten?
Wie ich bereits sagte, man wird es mühevoll integrieren, jedoch kann man sich auf erhebliche Abstriche in Sachen Qualität und Effektvielfalt gefasst machen.
Draco Nobilis schrieb:
Du kannst deine Meinung behalten, sowie ich meine, aber ich höre an der Stelle direkt auf, meine Zeit zu verschwenden^^
...sagt derjenige, der unreflektiert seit Jahren widerlegte Markenkriegs- Stimmungsmache in die Foren trägt...
Aluhut absetzen und Dinge kritisch hinterfragen, wenn man sie dazu benutzt, jemanden ans Bein Pinkeln zu wollen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ragnarök88, RushSyks, Zer0Strat und 7 andere
Schalk666 schrieb:
Nvidia: the way you are meant to be played... MfG ;)
Exakt! Gsync, Raytracing, DLSS.
Meiste FPS, optisch best case features. "Schöner" kann man Games derzeit nicht erleben.
Danke, Nvidia!
 
  • Gefällt mir
Reaktionen: darkspark, foo_1337 und LipsiaV
Laphonso schrieb:
Wenn Du das nicht "siehst", ....sorry bro
Mein lieber Bro,
Du solltest mal den Spass zw. den Zeilen verstehen.

Der Kollege hatte Recht, weil das RT nur in FHD erstellt wurde. Die KI erzeugt keine zusätzlichen Ray´s.
 
Hab mir ein Gameplay auf deutsch bei Youtube angeschaut..
mich schreckt das Spiel eher momentan noch ab... sieht alles sehr kompliziert aus mit der Steuerung, Bildschirm überladen mit Infos die man lesen muss, dann noch die Steuerung recht komplex...
dazwischen dann aber ewig lang wirkende Dialoge und Filme...

sorry bisher hat mich das Spiel nicht gehyped.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack
GerryB schrieb:
Der Intel-Compiler in Perfektion: krass, Was so die User bei PCGH herausfinden
Das hat schon ne größere Bedeutung als man denkt, Wer die Studios so fördert.
Das linke Bild (Intel) hat eine Uptime von 3 Minuten und 6 Sekunden. Was soll uns das sagen? Dass der gerade in einen Spielstand von Cyberpunk Lädt? Dass der Besitzer dieses Computers beim Systemstart viel Gerümpel lädt :) ?

Der rechte Screenshot hat entweder ne ziemliche gute WaKü am Start oder zockt gerade nicht. 34°C GPU Temperatur wären mir sonst ein bisschen niedrig.
 
Biermaschine schrieb:
Was hat er gestrippt??!^^
Alles bis auf die Unterhose (wegen R-15).

Ihr könnt euer Geld natürlich ausgeben wofür ihr wollt, aber für mich sind die Nv-Features nicht besonders attraktiv. Evtl. werde ich auch einfach zu alt und spiele eh kaum noch AAA-Games.

Nach ein paar Videos voller Glitches usw. werde ich auch erstmal abwarten auf Performance- und Bugfixes, oder evtl. sogar die ersten Addons / DLCs und dann bei Verfügbarkeit und normalen Preisen mal wieder eine neue Graka holen für entspanntes Zocken.

Das Spiel hätte wohl lieber noch ein paar Monate in einer Closed / Open - Beta gebrauchen können.
Bis dahin hätten sie auch das RT auf AMD bringen können und die "old-gen" Konsolen besser optimieren können.
 
5 Stunden probiert, Steam zahlt alles zurück.

Bugfest.

Rotz, keine 60 Euro wert.

2020-12-12.png
 
  • Gefällt mir
Reaktionen: DarkerThanBlack, Hawk1980, Mcr-King und 3 andere
Zurück
Oben