Bericht Cyberpunk 2077 mit Pathtracing: Die Community testet den Raytracing-Overdrive-Modus

System: RX6900XT RED Devil OC Bios on , 5950X PBO on , 32DDR4@3600MHZ CL16
2.560 x 1.440, FRS 2/DLSS „Performance“: 21,15

CB2077Bench- 6 WHQD.JPG
 
Zuletzt bearbeitet:
TigerherzLXXXVI schrieb:
Cyberpunk 2077 ist in Bezug auf die Optimierung für Nvidia-GPUs die wohl mit Abstand frechste Umsetzung überhaupt.
Es liegt aber auch an AMD daran was zu ändern. Man könnte ja auch auf die Entwickler zugehen und ebenso eine Kooperation anstreben.
 
derMutant schrieb:
@TigerherzLXXXVI
[...] AMD in der Rohleidtung/synthetisch besser, in der Realität werden die PS aber nicht auf die Straße gebracht [...]
Das ist nichts weiter als eine Verallgemeinerung. Aber weil wir gerade dabei sind: die RTX 3060 Ti, 3070 und 3070 Ti haben gewaltige Probleme (ironischer Weise) bei aktivierten Raytracing ihre PS auf die Straße zu bringen, weil sie nur 8GB Videospeicher besitzen... Mehr werde ich nicht mehr zu diesem Thema sagen.
 
@KeLcO
das würde aber Geld kosten, was AMD zur Zeit gerne spart. Auch die AMD Karten verkaufen sich noch "zu gut" als dass man da was ändern müsste.
AMD lebt von Beginn an vom Image des underdogs. Das reicht denen zum Leben scheints aus. Also wozu dann noch Geld in Produktteams stecken?
Ergänzung ()

TigerherzLXXXVI schrieb:
Das ist nichts weiter als eine Verallgemeinerung. Aber weil wir gerade dabei sind: die RTX 3060 Ti, 3070 und 3070 Ti haben gewaltige Probleme (ironischer Weise) bei aktivierten Raytracing ihre PS auf die Straße zu bringen, weil sie nur 8GB Videospeicher besitzen... Mehr werde ich nicht mehr zu diesem Thema sagen.
Davon merke ich hier nichts, bzw. nur wenig. @fullhd lässt es sich mit einer RTX 3070 maxed out zwischen 72 und 29 FPS bei mir ganz passabel spielen.
 
  • Gefällt mir
Reaktionen: Grestorn
KeLcO schrieb:
Es liegt aber auch an AMD daran was zu ändern. Man könnte ja auch auf die Entwickler zugehen und ebenso eine Kooperation anstreben.
4A Games, die Entwickler von Metro Exodus, hatten ebenfalls eine Kooperation mit Nvidia. Nur sieht das Ergebnis hier wie erwähnt völlig anders aus.
Ich vermute daher, dass Cyberpunk 2077 (auf der technischen Seite) vordergründig als Raytracing-Showcase für Nvidia-GPUs entwickelt wurde. Anders kann ich mir die schon skandalös schlechte Performance von AMD-GPUs nicht erklären. Wie gesagt: eine RX 7900 XTX bewegt sich normalerweise auf dem Niveau einer RTX 3090 bis 3090 Ti. In Cyberpunk 2077 mit Pathtracing ist selbst eine RTX 3060 Ti (in 1080p) leicht schneller... Das spricht eine eindeutige Sprache!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Czk666 und Papabär
derMutant schrieb:
Davon merke ich hier nichts, bzw. nur wenig. @fullhd lässt es sich mit einer RTX 3070 maxed out zwischen 72 und 29 FPS bei mir ganz passabel spielen.
Ich habe leider nicht die Auflösung angesprochen. Mit 8GB Videospeicher reicht es maximal für 1080p, obwohl die Performance locker für 1440p reichen würde.
 
  • Gefällt mir
Reaktionen: slamaa
RTX ist Nvidias Kind. Die Chips und die RTX-Bibliotheken zur Implementierung für die Engines sind dahingehend extrem optimiert und vollständig aufeinander zugeschnitten. Das ist auch kein Open Source, damit rücken die grünen Jungs nicht raus. Das betrifft DLSS, DLAA und eben RTX.

Und selbst wenn die Bibliotheken frei zugänglich wären (was ja einige bestimmt sind nach dem Hack bei Nvidia vor einiger Zeit) , ist es trotzdem noch ne ganz andere Architektur.

Und das erklärt eben die skandalös schlechte Performance der AMD-Karten. Das machen die Entwickler nicht mit Absicht. Da kannst Du vermuten was Du willst.

So gern mindestens einen leistungstechnischen Gleichstand zwischen AMD und NV sehen würde, da fehlt gerade bei RT noch ne ganze Menge. Wenn man mit RT spielen will, geht nun mal zur Zeit leider kein Weg an NV vorbei.
 
  • Gefällt mir
Reaktionen: slamaa
System: RX 6900xt (250W), 5900x UV, DDR4-3600CL16
3.440 x 1.440, FRS 2/DLSS „Performance“: 16,35


Katastrophe 😅🤣

Screenshot (79).png
 
TigerherzLXXXVI schrieb:
Dann vergleiche doch bitte mal die RT-Performance zwischen der RTX 3060 Ti und der RX 7900 XTX in Metro Exodus EE... Das AMD Flaggschiff sollte sich normalerweise auf dem Niveau einer RTX 3090 bis RTX 3090 Ti befinden.
Dann vergleiche auch mal den Umfang der RT-Implementierung in Metro mit der PT-Implementierung in Cyberpunk.
Mit dem Standard RT befindet sich die 7900XTX auch zwischen 3080 und 3080Ti
 
  • Gefällt mir
Reaktionen: slamaa
System: RTX4090 OC, 7950X3D OC, DDR5-6000CL30
3.440 x 1.440, DLSS „Performance“ + Frame Generation: 155,73
3.440 x 1.440, DLSS „Quality“ + Frame Generation: 113,59
3.440 x 1.440, FRS 2/DLSS „Performance“: 97,33
3.440 x 1.440, native Auflösung: 38,67
 

Anhänge

  • nativ.png
    nativ.png
    4,1 MB · Aufrufe: 114
  • performance.png
    performance.png
    4 MB · Aufrufe: 118
  • Performance_FG.png
    Performance_FG.png
    4 MB · Aufrufe: 111
  • Qualität_FG.png
    Qualität_FG.png
    4 MB · Aufrufe: 112
Mettmelone schrieb:
So gern mindestens einen leistungstechnischen Gleichstand zwischen AMD und NV sehen würde, da fehlt gerade bei RT noch ne ganze Menge. Wenn man mit RT spielen will, geht nun mal zur Zeit leider kein Weg an NV vorbei.

Dann würde ich mich freuen wenn du mal die ganzen unspielbaren rt Titel auf AMD Karten der letzen Jahre aufzählen würdest. :)
(Spoiler, ich habe eigentlich jeden Titel mit rt schon auf meiner 6800 gezockt)
Aber vielleicht ist auch etwas an mir vorbei gegangen.
 
RTX in Cyberpunk 2077 v1.62 ist von nvidia finanziert und entwickel wurden , kein OpenSource Ansatz und daher eigentlich ungeeignet weil dritt Hersteller benachteiligt werden!
 
Papabär schrieb:
RTX in Cyberpunk 2077 v1.62 ist von nvidia finanziert und entwickel wurden , kein OpenSource Ansatz und daher eigentlich ungeeignet weil dritt Hersteller benachteiligt werden!
Wie kommt man darauf? Arbeitest du in der Branche? Es ist eigentlich allgemein bekannt, das AMD immer eine bis zwei Gen hinten dran ist. Sei es RT oder Upsampling sowie Frame Interpolation (FG)
 
  • Gefällt mir
Reaktionen: Connecto und slamaa
Offizielle Meldungen vom Publisher und nvidia selbst ! Gibt genug Nachrichten diesbezüglich auch bei CB.
 
System: RTX3090, 5800X3D, DDR4-3600CL16
2.560 x 1.440, FRS 2/DLSS „Performance“: 57,41
2.560 x 1.440, native Auflösung: 20
 

Anhänge

  • DLSS_cyberpunk.png
    DLSS_cyberpunk.png
    3,6 MB · Aufrufe: 104
  • Native_cyberpunk.png
    Native_cyberpunk.png
    3,6 MB · Aufrufe: 118
Taxxor schrieb:
Dann vergleiche auch mal den Umfang der RT-Implementierung in Metro mit der PT-Implementierung in Cyberpunk.
Mit dem Standard RT befindet sich die 7900XTX auch zwischen 3080 und 3080Ti
Sogar mit dem Grafiksetting Extrem (siehe Screenshot) liegt die RX 7900 XTX in MEEE deutlich vor einer RTX 3090 Ti!
Und das war der Test von ComputerBase zum Release (Stichwort: Fine Wine). Wenn man jetzt noch einen schnellen AMD Ryzen verwendet anstatt eine Intel-CPU, erhält man mit SAM nochmal einen zusätzlichen Performanceschub.

Also ich weiß nicht, woher du deine Zahlen hast.
 

Anhänge

  • Screenshot_20230417_185633_Gallery.jpg
    Screenshot_20230417_185633_Gallery.jpg
    874,3 KB · Aufrufe: 121
  • Screenshot_20230417_185627_Gallery.jpg
    Screenshot_20230417_185627_Gallery.jpg
    712,7 KB · Aufrufe: 117
  • Screenshot_20230417_185620_Gallery.jpg
    Screenshot_20230417_185620_Gallery.jpg
    720,7 KB · Aufrufe: 122
  • Gefällt mir
Reaktionen: Czk666
MEEE ist kein Path-Tracing. Es ist "nur" RT Global Illumination und RT Schatten jeweils ohne Fallback-Implementierung.

Path-Tracing gibt es bislang nur in MineCraft, Quake II RTX, Portal RTX und HL RTX. Und eben jetzt CP.

Die AMD hat schlicht nicht die dedizierte RT Hardware. Selbst wenn man jetzt auf NVidia Bibliotheken komplett verzichten würde, wäre die Performance auf AMD nicht besser - sie wäre vermutlich lediglich auf NVidia etwas schlechter und grieseliger (mangels HW Denoising).

Niemand hindert AMD daran, selbst mehr dedizierte RT HW bereitzustellen und ggf. auch optimierte Bibliotheken bereitzustellen.

AMD-gesponsorte Spiele scheinen gefühlt einfach mal die anderthalbfache Speichermenge als vergleichbare Spiele zu nutzen. Auch ein bemerkenswerter Zufall, oder? Also, einfach mal die Kirche im Dorf lassen.
 
  • Gefällt mir
Reaktionen: slamaa
@Mettmelone Und die roten Jungs haben zu der aktuellen Bedeutung von Raytracing einen anderen Standpunkt, wobei auch sie mit RDNA 3 einen ordentlichen Leistungssprung hingelegt haben. Die Wahrheit ist, dass rein objektiv betrachtet Raytracing immer noch in den Kinderschuhen steckt und aktuell noch längst kein Gamechanger ist. Dafür ist die generelle Leistungsfähigkeit der Hardware noch viel zu gering und die technische Umsetzung in Spielen zumeist sehr ausbaufähig. Sicherlich ist Nvidias "RT-Wahn" auch ein Grund für die deutlich gestiegenen Grafikkartenpreise, die ab Turing einen ersten deutlichen Sprung gemacht haben und jetzt mit Lovelace einen erneuten Negativrekord verbuchen können. Und all das, um eine schönere Beleuchtung in ausgewählten RTX-Spielen zu erhalten. Ein ziemlich hoher Preis... Für mich persönlich viel zu hoch, von daher freue ich mich schon auf den Vormarsch der Unreal Engine 5 in den kommenden Jahren. Sie ist der deutlich bessere (vernünftigere) Weg als Nvidias Brechstange.
 
  • Gefällt mir
Reaktionen: slamaa und Papabär
Wenn AMDs RT Leistung so gut sein soll, wenn man denn nur für AMD optimieren würde, wo bleiben denn dann die AMD Pathtracing Demos und Spiele?

Natürlich ist klar, dass Overdrive für Nvidia optimiert wurde. Muss es ja auch, denn die Performance ist trotz der Optimierungen ja selbst auf Nvidia hardware der letzten Generation nicht so berauschend. Man setzt ja unter anderem bei den RTX4000 auf Shader Execution Reordering, was bei Ada eben sehr viel bringt, Dazu ist Frame Generation praktisch pflicht. Man sieht zudem bei bisher jedem RT Spiel, dass AMD Karten mit hohen Raycounts viel stärker einbrechen, als die Nvidia Karten, warum sollte es dann im Worst Case, also path Tracing anders sein? Selbst ohne Nvidia Optimierung müsste der Unterschied ja weiterhin gewaltig sein und dazu kommt eben, dass die Technik noch in den Kinderschuhen steckt. Nicht CD Project Red hat hier das Pathtracing entwickelt, sondern da steckt auch viel Forschung und Entwicklung von Nvidia drin, wie man pathtracing in echtzeit überhaupt spielbar umsetzen kann. Denoising, temporale akkumulation, diverse heuristiken usw. Da gibt es sicher sehr viel Grundlagendarbeit, die Nvidia hier geleistet hat und für Entwickler bereitstellt.

Soll heißen, ohne der Hilfe von Nvidia (oder meinetwegen auch AMD, wenn sie es denn täten) würden Entwickler sowas nicht mal eben in ein Spiel reinpatchen können, weil sie schlichtweg nicht dazu in der Lage sind.
Raytracing ist viel zu neu am Markt, man kann ja schon froh sein, wenn Entwickler Hybrid RT in ihre Engines integrieren, aber Pathtracing???
Bis vor kurzem hat fast kaum jemand überhaupt für möglich gehalten, dass Pathtracing in einem Spiel wie Cyberpunk mit aktueller Hardware möglich ist. Also warum zur Hölle soll ein Entwicklerstudio dann Geld und Ressourcen in die Forschung (ja, das ist teilweise wirklich Forschung was hier betrieben wird) von pathtracing stecken, wo man wahrscheinlich noch nichtmal Erfahrung mit RT sammeln konnte. Wie will man denn solche finanziellen Aufwände rechtfertigen? Klar wird der Ball jetzt langsam ins rollen gebracht, aber es muss klar sein, dass wir hier GANZ am Anfang stehen. Es darf hier eigentlich keinerlei Erwartungshaltung geben, dass sowas auch auf AMD Hardware laufen sollte oder müsste, weil es eben keinerlei vergleichbare Spiele gibt und das hier ein reines Nvidia Projekt war.

Ich weiß manchmal echt nicht, wo diese abstrusen Erwartungshaltungen herkommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: slamaa
Zurück
Oben