• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Cyberpunk 2077 Patch 1.2 im Test: Raytracing auf AMD Radeon RX kostet bis zu 75 Prozent FPS

Fighter1993 schrieb:
Habs eben mit ner 6900XT getestet. Sofort wieder ausgemacht, die 30fps geb ich mir nicht, Schade...
Dachte statt 100fps gibt's 50fps vllt sogar 60fps.
Ich sehe die Werte und frage mich, wie man so schlecht etwas implementieren kann. Sollte man es bei CDPR nicht direkt lassen?
Warum schaffen andere engines das besser? Ich versteh es nicht.
 
  • Gefällt mir
Reaktionen: Fighter1993
CP mal wieder unterdurchschnittlich, welch wunder^^
Fixed version in weiteren 6 Monaten?
 
So sind sie halt, die Corpos... das Spiel bleibt ein Nvidia-Titel, so wie sich das gehört :p

Spaß beiseite! DLSS ist schon klasse in diesem Titel und auch quasi notwendig für RT; deshalb ist ein Vergleich unfair bzw. eine Implementation unnötig, solange AMD kein Gegenstück parat hat.

Bin gerade im zweiten Durchlauf des Spiels, diesmal ohne RT. Als Pluspunkt ist zu verzeichnen, daß DLSS-Artefakte nun der Vergangenheit angehören. Man sieht ja jetzt das wirkliche Bild, und nicht was sich eine KI zusammengereimt hat ;)

tl;dr Ich würde mir keinen Kopf machen wegen rot oder grün
 
  • Gefällt mir
Reaktionen: nevr und edenjung
Wieso wurden Grafikkarten aus der GeForce-RTX-20xx-Serie (Turing) bei dem Raytracing-Benchmark (mit und ohne DLSS) nicht miteinbezogen?
 
  • Gefällt mir
Reaktionen: TheBeastMaster
deady1000 schrieb:
Test für die Katz, Resizable BAR ist seit heute Nachmittag allumfassend verfügbar und supportet offiziell Cyberpunk2077. Bitte neumachen.

Bei der RTX3080 gibt Resizable BAR knapp 6% und bei der RTX3090 weiß ich es nicht, aber es reicht satt aus um die BigNavi-Karten zu überholen.

Also bitte.
Die Tests können endlich fair gemacht werden.
SAM vs Resizable BAR oder gar nichts.

Technisch gesehen ist euer Test sogar nach dem offiziellen Launch von Resizable BAR für Ampere erschienen.

https://www.nvidia.com/en-us/geforce/news/geforce-rtx-30-series-resizable-bar-support/
Ist ja gut Nvidia Fanboy, werden sie bestimmt nachholen und ebenfalls durch testen. Und nur so nebenbei: so nen Artikel muss auch vorbereitet und veröffentlicht werden und man schmeißt nicht einfach alles weg, weil mein paar Sekunden davor oder danach was an der Momentaufnahme ändert. Sowas reicht man dann nach und gut ist. Bleib auf dem Teppich.

Satt ist es übrigens nicht wenn's am Ende dann wieder nur 3-6% sind. Die aktuelle Generation ist relativ gleich auf, je nach Anwendung und Spiel Mal der eine besser, Mal der andere. Nimm deine Anforderungen und Kauf dir die Karte die am besten dazu passt, fertig.
 
Egal welches Thema ich hier mittlerweile aufmache und lese, zu 80% ist nur noch mimimi.
Einfach mal abwarten.
 
  • Gefällt mir
Reaktionen: MR2007 und Foxel
Zomb2k schrieb:
Ist ja gut Nvidia Fanboy, werden sie bestimmt nachholen und ebenfalls durch testen.
War jetzt absichtlich mal überspitzt und ich finde zu recht. Es ist ja allgemein bekannt, dass hier tendenziell eher die AMD-Fanboys rumhängen und so wie hier der Vorteil durch SAM zelebriert wurde, wodurch die BigNavi-Karten einen kurzzeitigen Vorteil hatten, kann man jetzt auch mal ein bisschen Salz in die Suppe streuen, da Ampere diesen Vorteil nun neutralisiert. Jetzt heißt es auch bei CB mal Rankings aktualisieren. Wenn man ehrlich ist hatte bis vor kurzem, mit den BIOS-Updates, sowieso keiner eine kompatbile CPU oder das passende Board, trotzdem traten natürlich nur noch RX-Karten mit SAM gegen Nvidia-FEs @stock an, obwohl man die Technologie im BIOS aktivieren musste.

Die SAM-"Ich_mach_mir_die_Welt_wie_sie_mir_gefällt"-Vergleiche sind jetzt aber vorbei. Packt bei den Ampere-Karten auch entsprechende Prozente drauf und gut ist. Sind auch deutlich mehr als deine kolportierten 3%.

n8mahr schrieb:
dann ist die komplette letzte Generation (2xxx) von rtx Karten peinlich?
Ich persönlich habe diese Generation boykottiert, da sie mir im Verhältnis zu teuer war, nur die RTX2080Ti ein lohnendes Upgrade gewesen wäre und sowohl RT als auch DLSS1.0 noch nicht in Fahrt gekommen waren, was sich spätestens seit DLSS2.0-Release geändert hat. Darum hatte ich bis Dezember noch die GTX1080. Die RTX3090FE gabs zur UVP bei NBB. Und jetzt sind die Karten auch endlich mal RT-4K-60FPS-fähig, also brauchbar. Vorher waren höchstens die RTX2080Ti und die RTXTitan einigermaßen gute RayTracing-Karten. Ampere ist diesbezüglich deutlich performanter.

Fighter1993 schrieb:
Metro hat aus 100 fps mit RT oft 50 fps gemacht.... Dachte ein ganz neues game schafft das auch.
Dann ist die RT-Implementation in Cyberpunk eben deutlich intensiver. Ich habe Metro noch nicht gespielt, aber wenn der FPS-Einbruch ohne DLSS nur so gering ist, dann scheint nicht viel RT drin zu sein - ganz logisch gedacht. Bei Cyberpunk fällt es an vielen Stellen halt schon sehr auf. Ich könnte jetzt Vergleichsvideos und Bilder rausholen, wenn einer von den üblichen Experten meint es gäbe keine Unterschiede, aber eigentlich ist das bei dem Spiel ein allgemeingültiger Fakt, wenn man es persönlich getestet hat. ^^

Fighter1993 schrieb:
Wenn man bedenkt das nur die Beleuchtung, Reflektionen und Schatten sich ändern sind schon 50%fps Einbruch absolut nicht zu rechtfertigen. 65% aber sind naja, warum implementiert man es überhaupt wenn es absolut unspielbar wird.
Erstens, klar ist es zu rechtfertigen bzw zu erklären. Es ist eben eine hochkomplexe Rechenoperation für die Grafikkarte. Man ging ja vor einigen Jahren nicht davon aus, dass wir Echtzeit-RT in weniger als 10 Jahren überhaupt in eine Heim-GPU bekommen. Zweitens, bei Nvidia läuft es ja perfekt, zumindest mit DLSS2.0. Warum also weglassen? Für AMD kann man es ja weglassen, aber es gab ja Gejammer. Jetzt im Nachhinein hätte man es besser weggelassen.

RTX3090:
WQHD + RT-Psycho(!!) + DLSS-Quality --> ca 60FPS avg
4K + RT-Psycho(!!) + DLSS-Balanced --> knapp 60FPS avg

Super spielbar mit diesen FPS bei bombastischer Grafik.

Und ja Betonung auf RT-Psycho, weil das höher ist als die Voreinstellung im Ultra-Preset und auch sichtbar besser aussieht. Geht auch nochmal deutlich auf die FPS im Vergleich zu "nur" RT-Ultra.

Da kann man halt echt nur noch hoffen, dass AMDs Fidelity FX Super Resolution irgendwas rettet...

MaLow17 schrieb:
Wieso wurden Grafikkarten aus der GeForce-RTX-20xx-Serie (Turing) bei dem Raytracing-Benchmark (mit und ohne DLSS) nicht miteinbezogen?
Warum soll man aktuelle Grafikkarten mit Grafikkarten von 2018 vergleichen? Und falls man es tut, dann bitte mit DLSS2.0, damit es auch richtig schön peinlich wird. :D DLSS gehört bei Nvidia RTX sowieso dazu. Kein Mensch würde das ernsthaft freiwillig abschalten und sich von ca 60% der FPS verabschieden.

(Außer man ist ein Theoretiker ohne entsprechende Karte und macht es für einen sinnlosen Vergleich. ;))
 
Zuletzt bearbeitet:
deady1000 schrieb:
RTX3090:
WQHD + RT-Psycho(!!) + DLSS-Quality --> ca 60FPS avg
4K + RT-Psycho(!!) + DLSS-Balanced --> knapp 60FPS avg

Super spielbar mit diesen FPS bei bombastischer Grafik.
Sollte es auch besser sein, wenn man mit ner nuklearen 1500€ GPU-Brechstange rangeht.
 
kiffmet schrieb:
Sollte es auch besser sein, wenn man mit ner nuklearen 1500€ GPU-Brechstange rangeht.
Ja die RTX3080 macht es quasi genau so gut. Ersetze 60FPS mit 55FPS.
Das Spiel belegt auch in der Regel keine 10GB VRAM.
Und es gab ja einige, die für 699€ rankamen.

- Miningboom, Corona, etc. klammern wir hier jetzt mal aus.
 
JPsy schrieb:
Diese Bildvergleiche sind natürlich immer krass - da sie wie in diesem Fall die komplett falsche Beleuchtung ohne RT im Auto aufzeigen
Wobei auch mit aktiviertem RT da was nicht stimmt, wie man an der Reflektion an der Oberseite des Überrollbügel direkt am Dach und an den Kanten des Fahrersitzes zum Betrachter hin erkennt.
Dafür müsste starkes Licht in einem flachen Winkel aus der Betrachter Perspektive kommen, so dass dann auch wieder der Innenraum besser ausgeleuchtet wäre und entsprechend das Bild ohne RT wieder realistischer wäre.
 
  • Gefällt mir
Reaktionen: WolledasKnäul und edenjung
Dass RT schlecht läuft war ja abzusehen, aber dass es so mies aussieht dafür kann AMD nur bedingt was. Wenn man selbst in Control näher an Nvidia dran ist stimmt hier was nicht :D je nach Erfahrung und Implementierung liegen die Karten ja mal mehr mal weniger hinter Nvidias Karten.

Das ist eher ein Indiz wie viel Arbeit CP noch braucht. Außerdem ist das ganze sowieso solange nicht in der Breite solange es nicht einfach implementiert werden kann und ohne irgendwelche trixereien einwandfrei läuft.

Also dann liebe Entwickler, haltet euch rann. Die Hardware wird sich weiterentwickeln und da müsst ihr dann Schritt halten können ;)

Und das die 8GB Speicherkrüppel ruckeln ist auch nichts neues. Aber das weiß man ja theoretisch vorher
 
deady1000 schrieb:
Gut dann taugt Cyberpunk nichts, denn wer bei dem Spiel den Mehrwert von Raytracing nicht sieht, der hat die Kontrolle über sein Leben verloren.
Ich sehe einen kleinen Unterschied der den Performanceverlust bei weitem nicht rechtfertigt. Man könnte also sagen ich sehe den Mehrwert von Raytraycing nicht. Und nein, ich habe nicht die Kontrolle über mein Leben verloren.
 
  • Gefällt mir
Reaktionen: Der Professor1 und edenjung
PS828 schrieb:
Dass RT schlecht läuft war ja abzusehen, aber dass es so mies aussieht dafür kann AMD nur bedingt was. Wenn man selbst in Control näher an Nvidia dran ist stimmt hier was nicht :D,,,

Das ist eher ein Indiz wie viel Arbeit CP noch braucht.
Nach m.E. hat CD-Projekt ein halbes Jahr dafür gebraucht, um dafür zu sorgen, das Es so ungewöhnlich mies
für AMD ausschaut.(sonst hätte man das DX12 Ultimate "kompatible" RT ab Launch freigeben können)
Wer glaubt, das CD-Projekt das RT nochmal auf lineares RT umstrickt für die Konsolen und AMD macht sich Da wohl falsche Hoffnungen.
Evtl. wäre noch ein separater Renderpfad für die Konsolen vorstellbar.(x)
(aber beim PC ist Scalper Jensen net daran interessiert, das CD-Projekt lineares/performantes RT einführt,
falls mal Jemand die Frage stellt, Wer die Cruncher bezahlt)
Eigentlich traurig, das miese Games den Verkauf der >2k€ Grakas fördern sollen.

(x) falls Sony+MS unbedingt RT wollen+bezahlen
 
Zuletzt bearbeitet:
Hmm, also von dem Test hätte ich mir ja erhofft, dass die RX Karten auch mal mit Fidelity FX CAS getestet werden, da man dort auch die min. und max. Qualität einstellen kann inkl. der gewünschten Framerate.

RT nur nativ zu testen bzw. über das RT Mittel Standard-Profil, macht weder auf ner RTX noch auf ner RX Grafikkarte Sinn.

Daher habe ich mal mit meiner Sapphire RX 6700 XT Pulse getestet. (Quality 55% entspricht FHD)

WQHD @ RT Mittel @ Dynamic FidelityFX CAS (60fps Framerate, Quality 55-100%)

FPS: 39,1 1%: 31,7

RT_med_dyn_Fid_CAS.png


WQHD @ RT Ultra @ Dynamic FidelityFX CAS (60fps Framerate, Quality 55-100%)

FPS: 30,3 1%: 25,2

RT_ult_dyn_Fid_CAS.png


Die Variante mit Static Fidelity FX CAS kann ich nicht empfehlen, ist bei mir abgestürzt mit Treiberproblem.
 
Ich habe es mit einer RTX gespielt aber hätte es auch mit einer AMD ohne RT überlebt.So prall fand ich das Game nun nicht,dass ich es 10 weitere male spielen würde oder mir dafür extra Hardware anschaffen würde.Aber das ist ja alles meine subjektive Meinung.Ich habe es mir nicht selber gekauft,besser so,sonst würde es in der Bibliothek vergammeln.
 
deady1000 schrieb:
Warum soll man aktuelle Grafikkarten mit Grafikkarten von 2018 vergleichen? Und falls man es tut, dann bitte mit DLSS2.0, damit es auch richtig schön peinlich wird. :D DLSS gehört bei Nvidia RTX sowieso dazu. Kein Mensch würde das ernsthaft freiwillig abschalten und sich von ca 60% der FPS verabschieden.

(Außer man ist ein Theoretiker ohne entsprechende Karte und macht es für einen sinnlosen Vergleich. ;))
Ehrlich jetzt? Weil es vielleicht gerade mal drei Grafikkartenserien (RTX 20xx, RTX 30xx, RX 6xxx) gibt, welche Raytracing beherrschen und einige bestimmt gerne 1. den Zuwachs (mit und ohne DLSS) von RTX 30xx Karten zu RTX 20xx sehen würden und 2. wie die erste Raytracing-Generation von AMD im Gegensatz zur ersten Raytracing-Generation von Nvidia performt.

deady1000 schrieb:
Gut dann taugt Cyberpunk nichts, denn wer bei dem Spiel den Mehrwert von Raytracing nicht sieht, der hat die Kontrolle über sein Leben verloren.
Also ehrlich, wer Raytracing so dermaßen überbewertet und solche Sprüche ablässt, der hat tatsächlich die Kontrolle über sein Leben verloren. Verstehe mich nicht falsch, RT ist eine tolle Technik, keine Frage.

deady1000 schrieb:
Die hätten es lieber weglassen sollen. Vorher konnte man wenigstens sagen "der Entwickler ist halt Nvidia-biased". Jetzt ist es draußen und es ist im Vergleich nur peinlich.
Genau am besten weglassen...hörst Du Dir eigentlich auch selber zu? AMD hat gerade einmal die erste Raytracing-Generation herausgebracht und Du erwartest, dass die Karten mit der zweiten RT-Generation von Nvidia gleichziehen bzw. diese sogar überflügeln, damit es nicht peinlich ist? Jeder Anfang einer neuen Technik ist schwer und wird erst mit der nächsten Grafikkartengeneration, falls nicht übernächsten erst gut.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85, bad_sign, MR2007 und eine weitere Person
Gnodab schrieb:
Ich sehe einen kleinen Unterschied der den Performanceverlust bei weitem nicht rechtfertigt. Man könnte also sagen ich sehe den Mehrwert von Raytraycing nicht. Und nein, ich habe nicht die Kontrolle über mein Leben verloren.
https://imgsli.com/NDc0NTc/2/3
https://imgsli.com/NDc0NTc/4/5
https://imgsli.com/NDc0NTc/22/23
https://imgsli.com/NDc0NTc/24/25

Man muss davon ausgehen, dass das entweder eine Schutzbehauptung ist, oder wahlweise nicht die Kontrolle über das Leben aber zumindest über das Sehorgan verlorengegangen ist, wenn man hier von einem kleinen Unterschied spricht (kleiner Scherz).

Wenn einem das keinen gewissen Performanceverlust wert ist, dann ist es das für alle anderen Settings "normaler" Rastergrafik nämlich auch nicht.
Wie bereits erwähnt ist ja Raytracing insofern eine ganz andere Nummer, da es eine andere, automatisch physikalisch korrekte Art eine Szene zu rendern, auch wenn sie volldynamisch ist.

Da brauchen wir dann bei DLSS dann im Gegenzug auch nicht über minimalste Artefakte oder Unschärfe sprechen. Und dass das Argument, dass das Studio DLSS ins Spiel einbaue muss und es sich deshalb nicht durchsetzen würde oder genutzt würde ist fehl am Platz.
Sämtliche TAA Integrationen bzw. moderne AA Verfahren werden manuell in die Software gepflanzt. Es gibt diesbezüglich keinen allgemeingültigen Standard oder Ansatz, der auf jede Software ohne ohne explizite Implementation funktioniert.

Das verbietet das Prinzip!

Man musste auch kein Hellseher sein, um erahnen zu können, dass Cyberpunk auf RX Karten im Bereich RT deutlich einbrechen würde.

Man muss sich nur mal ansehen, wie dort die Shader organisiert sind und wie die Calls daraus erfolgen.
Und nein- Da kann CDPR nichts dafür, dass das so schlecht läuft.
Sie krempeln halt für AMD einfach nicht ihre gesamte Renderengine um, dass es zwar ein wenig besser läuft, aber dennoch zu schlecht, als dass die User das wertschätzen und auch aktivieren würden zumal es, wie hier öfter schon erwähnt wurde, zwingend ein DLSS- Derivat braucht um die Militant- Framzahlverwöhnten Benutzer zufriedenzustellen.
Gerade AMD Käufer betonen ja ständig, dass sie RT nicht brauchen und es überbewertet sei. Da würde ich mir als Firma dann genau überlegen, ob ich einen hohen Aufwand, der hochwahrscheinlich für die Tonne ist, betreibe.

Das mal abseits des (unnötigen) Fanboy- Krieges, der hier schon wieder am brennen ist, aus der Sicht eines Entwicklers....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwiebelsoße, adAstra und Klever
Guyinkognito schrieb:
Ne das ist dem geschuldet dass der Entwickler da keine Liebe reingesteckt hat bisher ;)
Ach ja, den Spruch mit den Ausreden kennt man ja😉
 
Zurück
Oben