• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Cyberpunk 2077 Patch 1.2 im Test: Raytracing auf AMD Radeon RX kostet bis zu 75 Prozent FPS

Freue mich schon wie ein Kind auf die Witcher-Next Gen Fassung mit Raytracing Support.
Soll ja noch im Laufe der nächsten Monate erscheinen.

Für mich von der Atmosphäre her (trotz seiner mittlerweile 5 Jahre) immer noch eines der besten Spiele.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße und fritz ost
122messi122 schrieb:
Ja wirklich schade, dass AMD nach vielen Jahren wieder konkurrenzfähig ist. Wie schön wäre doch die Welt, wenn Nvidia ein Monopol hätte
Ja manche Leute müssen sich scheinbar von Quasimonopolisten :sex: lassen, um sich wohl zu fühlen. Wäre es nicht schön, wenn heute noch die meisten Nutzer / Gamer auf Intel Quadcores sitzen würden, weil 6 Kerner im Desktopbereich unverhältnismäßig teuer wären und von 8 oder mehr Kernen noch gar nicht die Rede ist? Ein Traum :rolleyes::freak:
 
Oh Wunder! AMD scheint wohl mit ihrer RT Implementierung auf einem von NVIDIAs gesponsertem Cyberpunk 2077 deutlich schlechter abzuschneiden. Dies war und ist jedem eigentlich klar außer natürlich den üblichen Fan-Hatern hier die bei jedem RT-Test AMD als unkaufbar darstellen wollen.

Hier einmal das Fazit zum Nachlesen, welches oft wohl überlesen wird.
Zitat:
In Anbetracht des massiven Leistungsverlust, der Raytracing-Leistung von RDNA 2 in anderen Spielen (selbst im Vergleichzu Control) und dem allgemeinen Zustand von Cyberpunk 2077 liegt jedoch die Vermutung nahe, dass CD Project die neue Technologie für die Radeon-Grafikkarten bis dato nur halbherzig umgesetzt hat. Keine Frage, Nvidias Ampere-Architektur ist bei Raytracing RDNA 2 teils deutlich überlegen, aber ein derartiges Verhalten wie in Cyberpunk 2077 gab es bisher noch nicht. Der Leistungseinbruch kommt dabei sofort, auch wenn nur eine einzelne RT-Option auf der niedrigsten Stufe und kein Preset aktiviert wird. Das kann unmöglich alles sein, was auf RDNA 2 möglich ist.
Zitat Ende:

Nichtsdesto trotz nutzen wohl die wenigsten RT wirklich, da es selbst auf NVIDIA-Karte zu viel FPS kostet.
Man kann sich natürlich über Bildvergleich streiten. Aber mir ist ein flüssiges Spielgefühl deutlich lieber und wirkt immersiver, als ein paar Licht- und Reflexionseffekte.

Mein Fazit.
RT is nice to have, aber absolut kein muss.
 
  • Gefällt mir
Reaktionen: Shoryuken94
deady1000 schrieb:
Entwickler kündigt RT für BigNavi an:
  • Hype hype, das wird super, BigNavi ist endlich RT-Ready!!!
  • Mäh läuft ja nur mit 15-25 FPS.
  • RT ist scheiße.

AMD kündigt FidelityFXSuperResolution an:
  • Hype hype, das wird super, BigNavi hat endlich auch ein DLSS-Pendant für Ø60% mehr Gratisleistung.
  • Mäh das kommt ja kaum an DLSS1.0 ran.
  • Upscaling ist scheiße.

foo_1337 schrieb:
Und weiteres Mimimi aus den anderen Threads.
CP2077 Launch ohne RDNA RT Support. AMD Fans: RT braucht man eh nicht
CP2077 Patch 1.2 mit RDNA2 RT Support wird angekündigt. AMD Fans: Yeeah, eendlich!!
AMD Fans haben Patch 1.2 installiert und RT aktiviert. Performance mies. AMD Fans: RT braucht man eh nicht! Für Nvidia Optimiert!

Mit DLSS btw the same: AMD Fans: DLSS braucht man nicht!
AMD FSR wird angekündigt. AMD Fans: Yeah, AMD zieht nach uns es wird mindestens so gut wie DLSS 2.0
AMD FSR delayed bis mindestens Ende 2021. AMD Fans: DLSS braucht man nicht!

Da man sowas immer mal wieder liest (auch bei anderen Themen): Habt ihr mal überprüft, wie groß die Schnittmenge der Leute ist, die jeweils die Punkte 1 bis 3 der Liste so äußern? So eine Schnittmenge gibt's bestimmt, aber ist die denn auch nur im Ansatz groß genug, um das auf "die AMD-Fans" ummünzen zu können? Dass sich in den entsprechenden Themen häufig die gleichen Leute mit einem der 3 Punkte äußern, heißt nicht, dass mehr als 'ne kleine Hand voll tatsächlich ihre Meinung wie beschrieben zeitlich anpasst. Wenn man da für ein, zwei Leute passende Zitate findet, dann zählt das für mich eher unter "die Schnittmenge gibt's" als unter "daraus kann man verallgemeinern".
Ist das vielleicht nur ein gefühlter Effekt, mit denen man (meist unbewusst) Andere gedanklich abwertet und sich selbst so in Relation aufwertet?

Selbst kann ich zu RT bisher keine Erfahrungen äußern, da ich noch keine Spiele gespielt habe, in denen man es aktivieren kann. Mindestens CP2077 steht zwar auf meiner "irgendwann mal"-Liste, aber derweil habe ich noch genügend andere Spiele, die mich reizen und tendenziell zu alt für RT-Support sind.
Bezüglich FSR befürchte* ich (unabhängig davon, dass ich denke, dass es schon eher kommen sollte), dass es qualitativ (Bildqualität und vielleicht auch Performance) nicht an DLSS 2.0 herankommen wird. Hoffentlich wird es dann wenigstens so offen, dass es insgesamt weit verbreitet wird (die UE4 wird ja jetzt auch nicht über Nacht ein Engine-Monopol erreichen), man sich so noch besser bei Spielen seinen eigenen Kompromiss aus Bildqualität und Performance einstellen kann und dabei möglichst unabhängig vom Grafikkartenhersteller ist.
*) "Befürchten", weil es für uns Verbraucher natürlich besser ist, wenn es mehrere vergleichbar gute Anbieter gibt.
 
  • Gefällt mir
Reaktionen: rumpeLson, .Sentinel. und Colindo
Colindo schrieb:
Nicht-Akzeptanzler
Ich denke da verkennst du etwas. Vorerst auf 75% Leistungsverlust zugunsten eines netten Effekts verzichten zu wollen, hat absolut nichts mit "Nicht-Akzeptanz" zu tun.
 
Colindo schrieb:
Ich habe mein Upgrade auf die nächste Generation verschoben
Wenn man wirklich an RT interessiert ist, ist das auch sicher ziemlich clever. Bei Rot und Grün wird da sicher nochmal ein enormer Sprung kommen.
 
  • Gefällt mir
Reaktionen: Colindo
@cvzone Hoffentlich ist die Verfügbarkeit dann gegeben.

Ich fände es übrigens echt interessant, mehr über zukünftige Entwicklungen zu spekulieren. Welcher Hersteller kann besser die Anzahl der RT-Cores erhöhen und dies gut nutzen? Nvidia, die dem RT-Core einen Strahl übergeben und bis zum Treffer alleine rechnen lassen, oder AMD, die die einzelnen Berechnungsschritte immer wieder mit dem Shader abstimmen? Leider gibt es da bisher keine Neuigkeiten zu.
 
cvzone schrieb:
Wenn man wirklich an RT interessiert ist, ist das auch sicher ziemlich clever. Bei Rot und Grün wird da sicher nochmal ein enormer Sprung kommen.
Ja- Aber ist die Problematik dabei nicht, dass in der IT immer enorme Sprüge kommen bzw. zu erwarten sind?

à la
https://i.pinimg.com/originals/32/e1/22/32e1224d93381fd9e4cde246c0d87a8d.jpg

Das Spielchen wiederholt sich doch seit jeher. Wenn es danach ginge, wäre es immer schlau zu warten.

Es kommt doch in erster Linie darauf an, was für Spiele man spielt und welchen Wert man auf Dinge wie die Grafikqualität legt.

Wenn ich SOTTR, Metro Exodus, Cyberpunk und Control zocke und wert auf das Maximum an grafischer Qualität lege, warum sollte ich auf irgendwas warten und RT nicht jetzt schon nutzen...?
 
.Sentinel. schrieb:
IT immer enorme Sprüge kommen bzw. zu erwarten sind?
Kommt drauf an. Bei ganz neuen Verfahren wie RT sicherlich. Bei den GPUs waren die Leistungssteigerungen je Generation ja eher überschaubar und bis zu Einführung von Ryzen hat sich am CPU Markt auch fast nichts mehr bewegt.

20-30% sind wohl immer drin gewesen, aber bei RT reden wir dann ja ggf. von bis zu 100% mehr Leistung bei kommenden Generationen. Und das macht dann schon den Unterschied zwischen nicht-spielbar und spielbar. Anders als wenn ich jetzt bei Pathtracing von 160 auf 200 FPS steige.
 
Naja offiziell ist der Patch ja nicht für CP 2077 sondern nur für dirt. Die Optimierung kommt sicher noch.
Hab selber ne 9600xt und auf WQHD bring ich Max 20-40 fps raus und ohne dlss um den Daumen das gleiche bei der 3080😅
Aber bei den neuen Grka Preisen musst wohl eher die 3060ti mit der 6900xt vergleichen bei uns in Österreich
 
foo_1337 schrieb:
CP2077 Launch ohne RDNA RT Support. AMD Fans: RT braucht man eh nicht
CP2077 Patch 1.2 mit RDNA2 RT Support wird angekündigt. AMD Fans: Yeeah, eendlich!!
AMD Fans haben Patch 1.2 installiert und RT aktiviert. Performance mies. AMD Fans: RT braucht man eh nicht! Für Nvidia Optimiert!

Mit DLSS btw the same: AMD Fans: DLSS braucht man nicht!
AMD FSR wird angekündigt. AMD Fans: Yeah, AMD zieht nach uns es wird mindestens so gut wie DLSS 2.0
AMD FSR delayed bis mindestens Ende 2021. AMD Fans: DLSS braucht man nicht!

Es ist einfach lächerlich. Wäre es umgekehrt, wären die Threads voll mit Lästerein über Nvidia, wie sehr sie es doch verkacken.
100% Zustimmung. Ist jedes Mal das gleiche. Wenn AMD mal was gut macht, dann ist es direkt ein Nvidia-Schlachtfest und es wird drauf rumgeritten ohne Ende, siehe CB-FPS-Benchmarks BigNavi+SAM vs Ampere+Stock in diversen Spielen und natürlich die Cherrypicking-Benchmarks mit den "modernen Spielen" oder so, wo man genau die Pro-BigNavi-Spiele rausgesucht hat... Frage mich echt was CB immer bezwecken will. Naja, wenn man viele Fanboys hat, dann muss man die auch bedienen, schätze ich mal.

Wenn man dann freundlicherweise darauf hinweist, dass Nvidia, im Fall von SAM, die gleiche Technik noch einpflegt, dann will man nichts mehr davon hören und am Ende, wo man 1:1 alle Technologien (mit RT/UPSCALING/RBAR) vergleichen KÖNNTE und sähe, dass Nvidia im Gesamtpaket wieder stärker ist heißt es dann "mach uns unsere Karten nicht madig", "was soll das", "du bist doof" und "Mimimi" aus jeder Ecke. 😂 Vorher ist Nvidia-Bashing total normal und plötzlich zack, sind alle völlig betroffen, wenn man zurücktrietzt.

Naja, es ist eben Selbstbeschiss und jeder wusste es von Anfang an. Und tut mal alle nicht so als sei Nvidia böse und teuer und mäh. Die BigNavi-Karten kann man genau so wenig zur UVP kaufen. Am Ende isses eine Marken-Entscheidung. Vom Preis-Leistungs-Verhältnis bekommt man etwa was einem zusteht.

Man kann ja darüber streiten was wichtiger ist, 16GB VRAM vs 10GB VRAM und DLSS vs kein DLSS, aber dann muss man auch damit leben können, wenn 10GB faktisch ausreichen und DLSS im Schnitt einen 60% Performance-Uplift gibt, bzw im Falle von Cyberpunk2077, Raytracing, im Gegensatz zur direkten Konkurrenzkarte (RTX3080), wo es super läuft, unbenutzbar wird.

cvzone schrieb:
Wenn man wirklich an RT interessiert ist, ist das auch sicher ziemlich clever. Bei Rot und Grün wird da sicher nochmal ein enormer Sprung kommen.
Ahja und was hindert einen daran es jetzt schon zu nutzen? Kurz vor dem nächsten Launch kann man die alte Karte abstoßen und sich direkt zum Release ne neue kaufen. Wer schlau ist, hat für solche Zwecke ne Zweitkarte im Keller oder Zweitrechner. Warten kann man immer bis man tot ist, gerade in Zeiten von Corona, wo alle zuhause versauern. ;)

MeisterMario94 schrieb:
Hab selber ne 9600xt und auf WQHD bring ich Max 20-40 fps raus und ohne dlss um den Daumen das gleiche bei der 3080😅
Nur kein 3080-Nutzer würde DLSS freiwillig deaktivieren.
DLSS-Quality rein und zack 60FPS.
Eventuell noch etwas Sharpness mit NV-GameFilter und gut ist.
DLSS deaktivieren nur Theoretiker.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Nein- Ein Praktiker.

Zeig mir mal Deine Abhandlung zum Thema Raytracing, in der die massive Parallelität der Berechnung bestritten wird.

Und untermauere Deine These, warum Multiprozessor- Architekturen mit Raytracing schlecht skaliert.
Hast Du eine Idee, warum die Ansätze, die wir in Zukunft sehen werden Chiplet und Tile- basiert sind?

Du solltest, bevor Du meine Ausführungen als "steile Thesen" abtust mal etwas tiefer in der Materie stochern...
Hast du mein Posting nicht gelesen/verstanden?
Dann erklär doch mal, wie du durch hinzufügen weiterer RT-Karten die Leistung erhöhst. Das RT in der Theorie bzw. bei CPU Kernen skaliert ist mir klar, das war aber nicht das Thema, du hast was von Karten geschrieben und es geht hier um RTX bzw. DXR.

Immernoch zu langsam? -> Kein Problem. Zwei oder drei Karten rein.
Also bitte nicht ablenken, sondern deine These praktisch untermauern, wenn du kannst, was ich aus gutem Grund bezweifle.


P.S. Sowohl SLI als auch CF sind tot, nicht gemerkt?
 
Sieht ja nicht so pralle aus, aber imho kein Wunder. Ich hätte mich schon sehr gewundert, wenn RT auf AMD-Karten richtig fluppen würde. Da müssen wir uns vermutlich noch eine oder zwei Generationen gedulden.

Und die Moral von der Geschicht?
RT auf AMD? Derzeit lieber nicht!
Wer RT braucht, will: wunderbar!
Dann kauf dir lieber Nvidia!
Doch derzeit ist es eh egal
Gibt's beides kaum im Verkaufsregal
Und Falls doch? Nur zum Wucherpreis!
Das kauf ich nicht, geh weg mit dem Scheiß!

Ob CDPR in CP2077 RT für AMD vielleicht besser hätte optimieren können will ich gar nicht zur Debatte stellen, dafür hab ich zu wenig Ahnung.

deady1000 schrieb:
100% Zustimmung. Ist jedes Mal das gleiche. Wenn AMD mal was gut macht, dann ist es direkt ein Nvidia-Schlachtfest und es wird drauf rumgeritten ohne Ende, siehe CB-FPS-Benchmarks BigNavi+SAM vs Ampere+Stock in diversen Spielen und natürlich die Cherrypicking-Benchmarks mit den "modernen Spielen" oder so, wo man genau die Pro-BigNavi-Spiele rausgesucht hat... Frage mich echt was CB immer bezwecken will. Naja, wenn man viele Fanboys hat, dann muss man die auch bedienen, schätze ich mal.
[...]

Ach komm, hör doch auf, hier Öl ins Feuer zu gießen ist doch Kindergarten.
 
Ich möchte zu Raytracing generell anmerken, daß Effekte wie diffuse und globale Beleuchtung sowie RT-Umgebungsverdeckung für mich eine wichtige Qualitätssteigerung bedeuten, während vor allem RT Spiegelungen vordergründig und störend wirken können (alles bezogen auf Cyberpunk).

DLSS ist eine fantastische Technologie, allerdings wird natürlich die Szene damit noch stärker unterabgetastet und Aliasing weiter gefördert, was aber genialerweise in der Praxis kaum stört.

(Hervorhebungen zur besseren Lesbarkeit)
 
@fullnewb Nettes Gedicht!
fullnewb schrieb:
Ob CDPR in CP2077 RT für AMD vielleicht besser hätte optimieren können will ich gar nicht zur Debatte stellen, dafür hab ich zu wenig Ahnung.
Denke mal aktuell ist es mehr oder weniger 1:1 reingeklatscht. Klar könnten die aus Performancegründen Dinge rausnehmen, aber man kann ja auch einfach die RT-Einstellung nicht auf "Psycho" oder "Ultra" stellen. Es ist ja ein weitverbreiteter Irrglaube, man müsse immer alle Regler nach rechts ballern. ^^
 
  • Gefällt mir
Reaktionen: fullnewb
naja man muss halt auch sagen Cyberpunk ist der bisher krasseste RayTracing Titel und Referenz.
Mit Control und anderen Schlauchlevel Spielen ja schwer zu vergleichen auch wenn die Leistungsunterschiede da nicht so gravierend waren.
Cyperpunk hat eine rießige komplexe Open World wo die Beleuchtung + Schatten + Reflexionen geraytraced sind. Jeder NPC, jedes Auto, jede Oberfläche spielt da mit rein.
Control hatte feste Gänge und die paar Gegner drin...bei dem Game hab ich auch ohne DLSS mit der 3090 bei 3440x1440 um die guten 90fps, was für ein RT Titel schon viel ist.
Bei Cyberpunk ist es im Vorstadt-Gebiet nur um die 45fps, mit DLSS natürlich Bereiche von 70-80 meistens.

Bei Nvidia machen sich halt die extra Raytracing Kerne sehr bezahlt, je fordernder die RayTracing berechnung desto besser schneiden die Karten halt ab.
 
  • Gefällt mir
Reaktionen: fullnewb und deady1000
cvzone schrieb:
Nvidia mit DLSS hat den richtigen Ansatz aber bei AMD ist es wie auf RTX 2000 eher noch ein Gimmick, um es sich mal anzusehen und dann zugunsten von 120 FPS wieder abzuschalten.
Nein, der richtige Ansatz ist nicht DLSS oder was vergleichbares, sondern die GPU's so schnell zu machen das sie RT nativ schaffen.
DLSS bringt wieviel zusätzliche FPS?
50-60% mehr? RT benötigt aber nicht 50-60% mehr, sondern 5x oder noch mehr Leistung als die stärksten Karten heute.
Und das aber nur für einige wenige Effekte wie Spiegelung, Schatten......
Macht euch nichts vor, RT ist momentan eine reine Vorschau wie es in Jahren mal bei vernünftigen Frameraten aussehen kann.
Im Prinzip ist das ganze heute nur ein Anfüttern und Austesten der Leidensfähigkeit der Kunden.
 
vander schrieb:
Dann erklär doch mal, wie du durch hinzufügen weiterer RT-Karten die Leistung erhöhst.
Widerspricht dem hier:
vander schrieb:
Das RT in der Theorie bzw. bei CPU Kernen skaliert ist mir klar,

Doch- Genau das ist das Thema, weil Multi GPU bzw. Multi- Chip- Design dadurch wieder hoffähig wird und dabei nicht die Skalierungsverluste einfährt, die ein SLI oder Crossfiregespann nebst den Framepacing- Problemen mittels AFR leisten kann.

vander schrieb:
das war aber nicht das Thema, du hast was von Karten geschrieben und es geht hier um RTX bzw. DXR.
Ja- Karten, Multichip etc. alles kein Problem mehr, weil Du Pathtracing- Titel Tile- Based angehen kannst.
Du zerlegst ein Bild in viele viele kleine Berechnungshappen. Das geht im klassischen Raster- verfahren nicht.

vander schrieb:
Also bitte nicht ablenken, sondern deine These praktisch untermauern, wenn du kannst, was ich aus gutem Grund bezweifle.
Der Klassiker, wenn einem die Argumentationsbasis flöten geht. Du wolltest mir mit meiner "steilen These" ohne Argumentationsbasis an den Karren fahren. DU bist also in der Bringschuld.
Selbst ein Ablenkungsmanöver einzuleiten, um nicht liefern zu müssen zeugt nicht von gutem Diskussionsstil.

vander schrieb:
P.S. Sowohl SLI als auch CF sind tot, nicht gemerkt?
Beides bedingt noch nutzbar. Nicht gemerkt?
Beides aber mit Problemen behaftet (siehe Framepacing), die es bei einem Tile- Based oder Interlaced Ansatz nicht gibt (Vodoo).
Ergänzung ()

daknoll schrieb:
Nein, der richtige Ansatz ist nicht DLSS oder was vergleichbares, sondern die GPU's so schnell zu machen das sie RT nativ schaffen.
Das widerspricht dem Gedanken der Effizienz. Das wäre, wie wenn Du sagen würdest- MP3 oder FLAC sind kein guter Schritt, weil sie lieber Datenträger vergrößern und die Internetleitungen schneller machen sollen.
daknoll schrieb:
DLSS bringt wieviel zusätzliche FPS?
Zwischen 30% und 300%.
daknoll schrieb:
50-60% mehr? RT benötigt aber nicht 50-60% mehr, sondern 5x oder noch mehr Leistung als die stärksten Karten heute.
Dann ist Minecraft RTX, welches fully path- traced ist, also ein Schwindel? Und lass Dich da nicht von der Klötzchenoptik täuschen. Die Level haben einen Shitload an Polygonen zu berechnen... Sind also keineswegs "primitiv".
daknoll schrieb:
Und das aber nur für einige wenige Effekte wie Spiegelung, Schatten......
Raytracing ist kein Effekt.
daknoll schrieb:
Macht euch nichts vor, RT ist momentan eine reine Vorschau wie es in Jahren mal bei vernünftigen Frameraten aussehen kann.
Es ist bereits jetzt in Spielen nutzbar. Ein Ausblick auf zusätzliche Möglichkeiten.
daknoll schrieb:
Im Prinzip ist das ganze heute nur ein Anfüttern und Austesten der Leidensfähigkeit der Kunden.
Naja- der Kunde hat ja so etwas wie eine Entscheidungsgewalt darüber, was er konsumieren möchte und was nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwiebelsoße, squadric und daknoll
.Sentinel. schrieb:
Widerspricht dem hier:
Kein Stück.
Erstes Zitat = Theorie, funktioniert weder mit RTX noch mit DXR.
Zweites Zitat geht es um RT an sich, unabhängig von Spiele APIs oder Engines, und Berechnung via CPU.

.Sentinel. schrieb:
Doch- Genau das ist das Thema, weil Multi GPU bzw. Multi- Chip- Design dadurch wieder hoffähig wird und dabei nicht die Skalierungsverluste einfährt, die ein SLI oder Crossfiregespann nebst den Framepacing- Problemen mittels AFR leisten kann.
Was du hoffst oder dir wünscht ist eine Sache, der aktuelle Markt eine andere, daher Theoretiker. Keine der Spiele RT APIs unterstützt derzeit Multi GPU, es ist auch nichts angekündigt, außer von dir.

.Sentinel. schrieb:
Ja- Karten, Multichip etc. alles kein Problem mehr, weil Du Pathtracing- Titel Tile- Based angehen kannst.
Du zerlegst ein Bild in viele viele kleine Berechnungshappen.
Du musst mir RT nicht erklären. Cinebench zeigt das schon recht anschaulich auf nem Ryzen, wie man parallelisieren kann.

Du willst dich also um einen Beweis deiner ersten These drücken, versteh schon ...
 
Zurück
Oben