• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Cyberpunk 2077 Patch 1.2 im Test: Raytracing auf AMD Radeon RX kostet bis zu 75 Prozent FPS

daknoll schrieb:
Nein, der richtige Ansatz ist nicht DLSS oder was vergleichbares, sondern die GPU's so schnell zu machen das sie RT nativ schaffen.
Äh nein, warte mal 4 Jahre, dann haben eh alle Karten AI-Upscaling inkl Konsolen. Das ist die Zukunft. Keiner verzichtet bald mehr auf Ø60% Gratis-Mehrleistung, wenn man die direkt in Effekte investieren kann. Kannste knicken. Zwar wird es irgendwann Karten geben, die heutige RT-Titel nativ rendern können, aber sicherlich nicht die entsprechenden modernen Titel, die ein Upscaling dringend benötigen werden. AMD muss ein Pendant bringen und Nvidia muss den Ansatz weiter verfolgen.
daknoll schrieb:
DLSS bringt wieviel zusätzliche FPS?
50-60% mehr? RT benötigt aber nicht 50-60% mehr, sondern 5x oder noch mehr Leistung als die stärksten Karten heute.
DLSS bringt meist ca 60%. In Cyberpunk2077 sind es wohl ca 73%.
In Cyberpunk 2077, even Nvidia's DLSS Quality option delivers a staggering 73.48% increase in average framerate.
https://overclock3d.net/reviews/software/cyberpunk_2077_performance_review_and_optimisation_guide/6

Heutiges RayTracing ist nicht 5x so rechenintensiv wie Rasterization. Wo hast du denn das her?
Ist, wie der Test ja auch angibt bei BigNavi eher 4x (-75% FPS) bzw bei Nvidia durch die RT-Cores eher 3x.
DLSS gibt dies aber größtenteils zurück. Je höher das DLSS-Preset, desto mehr.
DLSS-Quality reicht aber in der Regel völlig aus.

daknoll schrieb:
Macht euch nichts vor, RT ist momentan eine reine Vorschau wie es in Jahren mal bei vernünftigen Frameraten aussehen kann.
Ach komm, jetzt wirds langsam lächerlich. 😂
RT ist ein Feature, welches man nutzen kann oder eben nicht.


 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MindofRafi und fullnewb
Zuletzt bearbeitet:
3080 vs 6800XT

RT Aus, 6800XT 105%
RT Aus, 3080 100%

RT Mittel, 3080 86% (DLSS Quality)
RT Mittel, 6800XT 37%

Ich würde gern mal wieder ne ati ähm amd karte kaufen,
aber ohne dlss ist RT auf amd ein verdammt schwieriges thema - leider.
 
foo_1337 schrieb:
Es ist einfach lächerlich. Wäre es umgekehrt, wären die Threads voll mit Lästerein über Nvidia, wie sehr sie es doch verkacken.
Sorry, aber das ist einfach nur Polemik und an der Stelle könnte man dir sehr wohl einen Fanboy-Brille aufsetzen, weil du genau den selben Blödsinn ablässt, wie so manch andere Fanboys, die dann hier immer von AMDbase reden oder von intelbase oder von nvbase.

Lese ich mir die Diskussionen wertfrei durch, dann kommen in jeder Diskussion AMD-Fanboys genau so wie NVIDIA-Fanboys bzw. Intel-Fanboys die rum schwadronieren, dass man - in dem Fall - DLSS nicht braucht oder dass das Feature schlecht hin ist und weil AMD dieses Feature nicht hat, AMD so scheiße ist.

An Ignoranz und Engstirnigkeit nehmen sich dabei die Lager überhaupt nichts und so billige und - entschuldige die Ausdrucksweise, aber die Spitze hast du dir in dem Fall mehr als verdient - auch dumme platte Polemik, facht diese Fanboys-Kriege nur unnötig an.

Ich kann es verstehen, dass man sich über die stumpfen Aussagen mancher Fanboys ägert, aber dann sollte man selbst die Größe haben einfach die Füße still zu halten und Ruhe rein kommen zu lassen, statt genau in die gleiche Kerbe zu schlagen und damit die eigene Doppelmoral allen vorzuführen.

DLSS ist eines der interessantesten Features der letzten Jahre und dass AMD nun einen Konkurrenten entwickelt ist sogar klar. Wir nähern uns langsam wirklich den phsyikalischen aber teilweise auch den mathematischen Grenzen sowohl bei der Hardware als auch Software an, wenn man bedenkt, dass weitere Steigerungen der Auflösung den Arbeitsaufwand expotentiell steigern.

Und selbst wenn AMD und NVIDIA jetzt kurzfristig auf ein "Chiplett"-Design umstellen können, ändert es nichts daran, dass wir zwar dann theoretisch beliebig große GPUs auf das Board schnallen können, diese aber auch Energie benötigen.

Genau so ist es mit RT: Klar, es gibt Tricks, mit denen man auch beim klassischen Rasterizer "Spiegelungen" in Pfützen als auh in Glas und Co gut "simmulieren" kann. Genau so was Schatten angeht. Nur - und dass ist das, was viele hier nicht verstehen: Diese Tricks benötigen oft auch sehr viel Leistung und sind zu dem stark limitiert. RT bietet die Möglichkeit viele diese Effekte "on-the-fly" einfach mit zunehmen.

Gehen wir doch mal das Bespiel Spiegelungen an: Kann man ähnliche Spiegelungen wie in BF5 und Co umseten in Pfützen, Fenster und Co - auch Controll: Ja kann man. Ungenau: Screen Space Reflections. Will man es genau: Ein neune Viewport auf machen aus Perspektive der Fläche und den Inhalt in eine Textur rendern, das ganze mit nem Alpha-Blending auf die Oberfläche projezieren und die Spiegelung ist geschafft. Nur dann kommt es drauf an, wie hochauflösend die Textur sein soll: Je neideriger, um so matschiger die Spiegelung. 4k-Bild - 8M Pixel - eine Spiegelung mit 1024px-Textur: 1M Pixel: 9M Pixel zu rendern. Bei einer 2K-Textur sind wir dann schon bei 12M Pixel. Da haben wir aber nur EINE Spiegelung. Nehmen wir aber mal 5 Fenster an, 2 Pfützen und bleiben wir bei 1k-Textur: 15M Pixel, also knapp doppelt soviel wie vorher. Und jede weitere Spiegelung lässt den Bedarf steigen.

Bei RT? Da ist es egal, ob wir 1 spiegelnde Fläche haben, 3 oder 5: Wir nehmen es on the Fly mit. Genau so was SSAO und Co angeht: Während mann für immer bessere "Verfahren" immer höheren Aufwand betreiben muss, nimmt man es be PathTracing einfach mit. Das ist ja das schöne daran, bei RT nimmt man es einfach mit und es ist quasi egal wie viele Spiegelungen und Co es gibt.

Bei klassischen Rasterizern ist es eben nicht egal, da man viele Sachen über umwege zwar lösen kann, es aber immer komplexer wird. Es ist jedem Entwickler klar, dass die Vereinfachungen, die früher dafür sorgte, dass sich die Rasterung bei Echtzeit-3d-Grafik durch gesetzt hat, irgendwann rächen wird und man ab Punkt X mehr "Rechenaufwand" benötigt als wenn man dann auf RT schwenkt. Und diese Zeit ist nun wirklich langsam gekommen.

Es geht hier nicht mehr darum, dass man ja die Rasterizer nicht weiter entwicklen könnte, es geht nun darum, dass es Leistungstechnisch einfach nicht mehr sinnvoll ist.

Das irgendwann die Rasterzierung bei den Echtzeitanwendungen durch RT ersetzt wird, ist bereits seit den 90er bekannt. Und das DLSS und später auch AMD Gegenpart notwendige "übel" sind - nicht nur wegen RT - ist jedem klar, der sich ein wenig mit den "Pixelmengen" beschäftigt, die da berechnet werden soll:

FHD => 2 MP, UHD => 4 MP, 8k => 16 MP! Und 16K? Steht jetzt auch schon "vor der Tür". Wir bräuchten - die aktuellen Karten schaffen jetzt endlich bei 4k zuverlässig 60 FPS bei hohen Details, für 8k bräuchten wir - bei gleichbleibender Grafik - eine VERVIERFACHUNG der Leistung. Ampere und RX 6000 haben aber gerade mal ca. 30 - 40% drauf gepackt, also nicht mal verdoppelt.

Egal wie man es sehen will: VRS (Variable Rate Shading), RT und "DLSS" sind die Zukunft um überhaupt noch höhere Auflösungen möglich zu machen. Man kann aktuell davon halten was man will und man kann dere aktuellen Nutzen gerne auch in Frage stellen, es ändert aber nichts daran, dass diese Sachen spätestens in der nächsten Generation notwendig sind.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, rumpeLson, Kenshin_01 und 4 andere
Rodman schrieb:
3080 vs 6800XT

RT Aus, 6800XT 105%
RT Aus, 3080 100%
Stimmt nicht mehr, auch wenn's im Test steht.
Resizable Bar bringt 5,9% auf der RTX3080 in Cyberpunk und ist seit gestern, bereits vor dem Test, verfügbar.

CB-Benchmark:
RX 6800 XT @ RT Aus
103,5 FPS
RTX 3080 @ RT Aus
98,2 * 1,059 = 104 FPS

Somit ist es jetzt wohl eher:
RT Aus, 3080 100,5%
RT Aus, 6800XT 100,0%

Nur damit wir es genau haben und nicht wieder falsche Fakten im Raum stehen. ;)
Die Karten sind ohne RT und ohne DLSS jetzt exakt gleich schnell unter gleichen Bedingungen.
Vorher war SAM/RBAR nur bei den RX-Karten aktiv. Jetzt haben es beide.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße
deady1000 schrieb:
Heutiges RayTracing ist nicht 5x so rechenintensiv wie Rasterization. Wo hast du denn das her?
Ist, wie der Test ja auch angibt bei BigNavi eher 4x (-75% FPS) bzw bei Nvidia durch die RT-Cores eher 3x.
DLSS gibt dies aber größtenteils zurück. Je höher das DLSS-Preset, desto mehr.
DLSS-Quality reicht aber in der Regel völlig aus.
Wie Rechenintensiv es ist hängt vom Grad der Implementierung ab.
Glaub mir, interessant wird das ganze in einigen Jahren.
Und dann hoffentlich ohne Upscaling.
 
daknoll schrieb:
Wird aber für Effekte verwendet. Für mehr reicht die Leistung - mit oder ohne DLSS - auf viele Jahre hin nicht aus.
In Quake2 und MinecraftRTX ist das bereits jetzt der Renderer auch für den first Hit.
Da ist die Rasterisierung hintendran geschalten und nicht mehr Master...
 
  • Gefällt mir
Reaktionen: Zwiebelsoße und deady1000
deady1000 schrieb:
Ach komm, jetzt wirds langsam lächerlich. 😂
RT ist ein Feature, welches man nutzen kann oder eben nicht.
Junge, was für dich lächerlich ist, ist gängige Praxis seit es PC´s und Gaming gibt. (Das gilt auch für andere Wirtschaftssparten)
Die ersten die bei einer "neuen" Technologie dabei sind für den Hersteller die Testobjekte.
 
Hat schon jemand einen Fix für das LOD "Problem" finden können? Muss gestehen, wollte jetzt nicht 11 Seiten durchblättern. ^^
 
  • Gefällt mir
Reaktionen: Mracpad
daknoll schrieb:
Wie Rechenintensiv es ist hängt vom Grad der Implementierung ab.
Ja das stimmt.
daknoll schrieb:
Glaub mir, interessant wird das ganze in einigen Jahren.
Bin ich auch bei dir. Da ist noch viel Potential nach oben vorhanden.
Fotorealismus ist oftmals noch nicht erreicht, aber RT wird hier eine maßgebliche Rolle spielen.
daknoll schrieb:
Und dann hoffentlich ohne Upscaling.
Das eher nicht. Würde ich meine Hand für ins Feuer legen. Um AI-Upscaling kommen wir nicht mehr drum herum. Das ist jetzt etabliert und akzeptiert. Außerdem überwiegen die dramatischen Vorteile die wenigen, lösbaren Nachteile, wenn es überhaupt welche gibt.

Vorteile:
Viel mehr FPS, deutlich weniger Leistungsaufnahme, weniger VRAM-Bedarf, höhere Auflösungen auf schwächeren Karten machbar, mehr Effekte, mehr Raytracing, teilweise mehr Details in der Ferne durch 16K-Training des Algorithmus.

Zumal DLSS jetzt sowieso in jede Folgegeneration von Nvidia einziehen wird und auch Spiele damit entwickelt werden. AMD kann und darf das nicht ignorieren.
 
.Sentinel. schrieb:
In Quake2 und MinecraftRTX ist das bereits jetzt der Renderer auch für den first Hit.
Da ist die Rasterisierung hintendran geschalten und nicht mehr Master...
Quake 2 habe ich vor 20 Jahren oder mehr gespielt, Minecraft kenne ich nicht, aber das ist doch so ein Klötzchenspiel?
Um hier beim Thema zu bleiben, was glaubst du wann ein Cyberpunk voll Raytraced dargestellt werden kann?
 
Teralios schrieb:
An Ignoranz und Engstirnigkeit nehmen sich dabei die Lager überhaupt nichts und so billige und - entschuldige die Ausdrucksweise, aber die Spitze hast du dir in dem Fall mehr als verdient - auch dumme platte Polemik, facht diese Fanboys-Kriege nur unnötig an.
Fair enough :) Manchmal lässt man sich dann einfach mitreißen
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, Colindo und Teralios
daknoll schrieb:
Minecraft kenne ich nicht, aber das ist doch so ein Klötzchenspiel?
Minecraft RTX ist vom Spielgefühl her ein völlig anderes Spiel als Minecraft.
Umschaltbar mit einem Klick von "Mäh" nach "Wow". 😂
Glaube die Taste ist Semikolon. ;)


 
  • Gefällt mir
Reaktionen: cruse
edenjung schrieb:
Dem Otto-Normal-Gamer kanns wurst sein, der will viele FPS.
glaube ich nicht dass sich der "otto-normal-gamer" für fps interessiert, ich bin eher der Meinung dass der "otto-normal-gamer" nichtmal die Bedeutung von "FPS" kennt :)
 
  • Gefällt mir
Reaktionen: .Sentinel.
Ylem schrieb:
Ich frag mich, was einige hier für eine Erwartungshaltung haben?

Wir wissen seit langem, dass RT jede Menge FPS frisst. Nun kommt RT für AMD und man schiebt den schwarzen Peter CDPR mit schlechter Optimierung zu, weil Cyberpunk mit RT jede Menge FPS frisst?
Eigentlich eher deshalb, weil CP77 bei AMD mit aktiviertem RT deutlich mehr einbricht als andere Games mit RT-Unterstützung. Im Gegensatz dazu ist bei Nvidia-Hardware und RT der Performanceeinbruch wohl eben mit anderen Spielen mit RT vergleichbar.
Das RT auf AMD etwas weniger leistungsfähig ist bestreitet doch keiner.

Und wie ich vorher schon geschrieben hatte, wenn einfach nur DXR welches in DX12 enthalten ist, verwendet worden wäre, hätte man für AMD keinen Patch gebraucht, da die 6800/6900er mit DX12 incl. DXR kompatibel sind. Da sich aber CP77 sehr lange Zeit gelassen hat überhaupt DXR für AMD anzubieten, spricht das mMn. eher dafür, dass hier auf RTX und nicht auf natives DXR optimiert wurde. Sonst hätte ein Patch'lein gereicht um den Menüpunkt "DXR on/off" in die "Options" einzubauen.

Cunhell
 
AleksZ86 schrieb:
glaube ich nicht dass sich der "otto-normal-gamer" für fps interessiert, ich bin eher der Meinung dass der "otto-normal-gamer" nichtmal die Bedeutung von "FPS" kennt :)
So sieht es aus. Der hat nämlich nicht zwanghaft den Auflösungs, FPS und Frametimecounter im Hintergrund am Laufen, sondern spielt aus Spaß, auch wenn es mal kurz ruckel...

Genau für dieses Verhalten ist in Foren wie diesem komplett die realistische Perspektive verlorengegangen.
 
  • Gefällt mir
Reaktionen: adAstra
Was soll man erwarten. AMDs erste gpu mit rt. Bei Nvidia sah es in der ersten Generation auch nicht wirklich besser aus. Ich kann mir gut vorstellen das bei AMDs nächster Generation es deutlich besser aussieht.
Und dlss macht das AMD noch schwerer
 
deady1000 schrieb:
Stimmt nicht mehr, auch wenn's im Test steht.
Resizable Bar bringt 5,9% auf der RTX3080 in Cyberpunk und ist seit gestern, bereits vor dem Test, verfügbar.

CB-Benchmark:
RX 6800 XT @ RT Aus
103,5 FPS
RTX 3080 @ RT Aus
98,2 * 1,059 = 104 FPS

Somit ist es jetzt wohl eher:
RT Aus, 3080 100,5%
RT Aus, 6800XT 100,0%

Nur damit wir es genau haben und nicht wieder falsche Fakten im Raum stehen. ;)
Die Karten sind ohne RT und ohne DLSS jetzt exakt gleich schnell unter gleichen Bedingungen.
Vorher war SAM/RBAR nur bei den RX-Karten aktiv. Jetzt haben es beide.
Kann man sich nicht darauf einigen, dass Nvidia und AMD gerade einen gleichguten Job machen? Vor allem für AMD ein immenser Schub. Der Schub war sogar so immens, dass man Nvidia zwang eine Generation zu überspringen und eine 2080ti von einen auf den anderen Tag vom Flaggschiff zur unteren Mittelklassekarte zu degradieren. Dazu hat AMD eben ordentliche Karte an allen Segmenten und nicht nur best of the rest. Für uns optimal, wenn sie denn auch normal verfügbar wären. RT auf AMD ist halt frisch und FidelityFX fehlt auch noch. Aber auch da wird man nicht schlafen. Nun ging es erstmal darum die neue Architektur zu etablieren und das ist anhand der Rohleistung mehr als gelungen.

Die ganzen letzten Seiten Trashtalk, sind völlig überflüssig.
 
Tallantis schrieb:
Die ganzen letzten Seiten Trashtalk, sind völlig überflüssig.
Das ist doch kein Trashtalk, wenn es hier um das die nächsten Jahre bestimmende Hauptthema geht....

Das Thema hier lautet doch, dass der Patch getestet wurde und die AMD Karten in diesem Szenario bis zu 75%FPS verlieren.
Und hier redet man grad über mögliche Ursachen, mögliche Weiterentwicklung und ob das für die nahe Zukunft überhaupt relevant ist, oder nicht.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, adAstra und deady1000
Zurück
Oben