• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Cyberpunk 2077 Patch 1.2 im Test: Raytracing auf AMD Radeon RX kostet bis zu 75 Prozent FPS

.Sentinel. schrieb:
Das ist doch kein Trashtalk, wenn es hier um das die nächsten Jahre bestimmende Hauptthema geht....

Das Thema hier lautet doch, dass der Patch getestet wurde und die AMD Karten in diesem Szenario bis zu 75%FPS verlieren.
Und hier redet man grad über mögliche Ursachen, mögliche Weiterentwicklung und ob das für die nahe Zukunft überhaupt relevant ist, oder nicht.
Ja und das Thema ist in ein paar Sätzen erledigt und ab dem Moment drehen sich alle nur im Kreis, wie üblich. Ich hab nichts gegen Debatten, aber manchmal wird es, wie auf manch vorherigen Seiten, dann nur noch albern.
 
  • Gefällt mir
Reaktionen: cruse und Swiffer25
Tallantis schrieb:
Ich hab nichts gegen Debatten, aber manchmal wird es, wie auf manch vorherigen Seiten, dann nur noch albern.
Ja- Auch wenn es mühsam ist, die Diskussionen zu einem Ergebnis oder einen Punkt zu bringen....

Wir sind ja hier nicht bei Twitter oder dem Oma- Kaffeekränzchen Forum sondern in einem, welches sich als Technikforum bezeichnet.

Da darf es auch schonmal ein wenig weiter in die Tiefe gehen, als zu sagen- Schwamm drüber, wir sind doch alles Gamer, oder?
 
daknoll schrieb:
Wird aber für Effekte verwendet. Für mehr reicht die Leistung - mit oder ohne DLSS - auf viele Jahre hin nicht aus.
Das ist so nicht richtig. Gerade Quake 2 RTX zeigt sehr wohl, dass die Leistung von den RTX-Karten bei FHD und WQHD auch für spielbare Erlebnisse reichen.

Klar, man kann jetzt sagen, dass Quake 2 RTX wenige Polygone hat und miese Texturen und wenn das Zeitgemäß wäre, würde die Leistung nicht reichen, aber das stimmt in dem Fall nicht so ganz. Man muss sich nämlich mal ansehen, was in Quake 2 RTX alles an Effekten vorhanden und zwar mit relativ wenig Quelltext, nur in dem man das Spiel konsequenz auf PathTracing umgestellt hat, gleiches Spiel bei MineCraft RTX.

Echtzeitbeleuchtung, Echtzeitschatten, Echtzeitspiegelungen, SSAO in einer nie vorhanden Qualität. Dazu Volumetrische Beleuchtung, Volumetrische Schatten, Volumetrische Texturen. Auch wieder: Alles Echtzeit.

Klar, es gibt eine "Version" von Quake 2 ohne "RTX", die ähnlich gut aussieht, nur wenn man dann dahinter schaut, bekommt man halt mit: Sehr viel wurde vorberechnet und damit entsprechend fehlt auch die Dynamik und man sieht das an allen Ecken und Enden.

Auch bei Minecraft RTX sieht man es. Es gibt ja die SEUS-Shader, die eine ähnliche Qualitä wie MineCraft RTX auf den Schirm bringt und oh wunder: Gerade die SEUS-Shader berechnen vieles Echtzeit und die Leistung bricht ähnlich dramatisch ein wie die Minecraft RTX-Version.

Und genau das ist der Punkt: Spiele wie Quake 2 als auch Minecraft zeigen - Minecraft noch besser weil hier eine quasi gleichwertige Version über Mods geschafft werde kann - sehr gut, dass Texturen als auch Polygone nicht der primäre "fressende" Faktor einer Grafikengine heute sind, sondern die Effekte und dass gerade dynamische Beleuchtung, dynamische Schatten und dynamische Spiegelungen weit mehr Leistung fressen, as viele denken und gerade letzteres wird mit jeder zusätzlichen Spiegelung immer kritischer.

Volumetrische Beleuchtung und Schatten schlage dann noch mal extra zu. Würde man heute eine wirklich moderne Engine von Grund auf auf RT auslegen, dann sind die Texturen kein wirkliches Problem und
.Sentinel. schrieb:
In Quake2 und MinecraftRTX ist das bereits jetzt der Renderer auch für den first Hit.
Schöne Beispiele, vorallem zeigt Quake 2 als "gemodete" Version, dass man zwar ähnlich gut aussehen kann wie die RTX-Version, aber vieles dann wieder aufwendig vorberechnet werden müssen und die fehlden Dynamik merkt man dann, genau so dass die Beleuchtung nur "volumetrisch" vortäuscht.

Und Minecraft RTX zeigt halt, egal ob klassisch oder PathTracing: Beleuchtung, Schatten und Co fressen am meisten Leistung.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, squadric, foo_1337 und eine weitere Person
deady1000 schrieb:
Minecraft RTX ist vom Spielgefühl her ein völlig anderes Spiel als Minecraft.
Umschaltbar mit einem Klick von "Mäh" nach "Wow". 😂

Ähm, genau, ein Klötzchenspiel.
Die Grafik im Video sieht aus wie aus 1990.
Mit oder ohne RT.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und fritz ost
Quake und minecraft rtx sehen beide fantastisch aus wie ich finde. Die ganzen Licht und Schattenspielereien sind beeindruckend.
Wäre schön mal ein paar Indy Titel mit rtx zu sehen und nicht nur bei AAA.
 
  • Gefällt mir
Reaktionen: squadric
daknoll schrieb:
Die Grafik im Video sieht aus wie aus 1990.
Die Grafik sieht aus wie 1990, weil das Spiel sehr niedrig augelöste Texturen verwendet und durch dei "Blocklook" auch noch entsprechend der Eindruck verstärkt wird.

Nur sollte man hier - wenn man denn wirklich an einer Diskussion interessiert ist - erkennen, dass wir hier nicht von Polygonen und Texturen sprechen, sondern von den dynamischen Effekten, die ebenso sehr viel ausmachen.

Ein Spiel mit vielen Polygonen und hochauflösenden Texturen kann man in der Regel sehr direkt bewerten: Beleuchtung und Co ist nicht sofort sichtbar.
 
  • Gefällt mir
Reaktionen: cruse, squadric, YY247 und 3 andere
Um mal was weniger kontroverses zu sagen: finds gut das mehr Spiele RT einbauen das ohne RTX Karten funktioniert, auch wenns miserabel läuft

Hatte mir RT immer wieder in Tests angesehen und im Bild/Video-Vergleich kam das immer "joah, leuchtet/spiegelt etwas anders" rüber, hab mich deshalb für RDNA2 entschieden.
Gab kaum Spiele mit RT die mich interessieren, und RT war dann nur so ein Gimmick.

Als ich RT in Control mal aus Spaß aktiviert habe war ich schon beeindruckt, die 50%+ FPS-Verlust sind schon nicht cool aber der Unterschied Ingame hat mich überrascht.
So "Kleinigkeiten" wie realistische Glastüren sind gar keine Kleinigkeiten, man wird nicht alle paar Minuten dran erinnert "ist nur ein Spiel, gibt halt keine Spieglung oder realistische Beleuchtung".

Hab Cyberpunk noch nicht gekauft (aus gutem Grund gewartet wie sich rausgestellt hat), aber selbst wenn Raytracing mit AMD dort unterirdisch performt: die beste Techdemo für Nvidia "hättest du mal lieber RTX gekauft, dann würdest du statt 25fps 60 bekommen"
Die 40fps Slideshow in Control war beeindruckend genug das ich sagen kann dass beim nächstem Upgrade RT nicht nur ein Gimmick ist.
Steht in den Sternen ob AMD bis dahin aufgeholt hat oder ob Nvidias Ansatz mit extra Hardware einfach besser bleibt.
 
  • Gefällt mir
Reaktionen: squadric und deady1000
kiffmet schrieb:
Technisch ist Cyberpunk leider sowas von zum Kotzen. Die gebotene Grafik steht mit und ohne Raytracing in keiner Relation zum Ressourcenhunger.
Japp. Leider gibt es nicht wenige Schlaubirnen die eine Kritik an miesen technischen Umsetzung des Titels abtun als "Nur weil das Spiel XYZ deine Hardware in die Knie zwingt."

Bezüglich RayTracing kann ich auch nur sagen: Ich schau mir ein Spiel, welches das unterstützt, für ein paar Minuten damit an - dann schalte ich es aus. Die FPS-Einbußen sind die netten kleinen Details, die im aktiven Spielgeschehen nicht mehr auffallen, einfach nicht wert.
 
Joshinator schrieb:
Steht in den Sternen ob AMD bis dahin aufgeholt hat oder ob Nvidias Ansatz mit extra Hardware einfach besser bleibt.
Ich denke nicht, dass AMDs Ansatz falsch ist, es war einfach die erste Iteration. Sobald FF SR fertig ist und von den Studios adaptiert wird, entschärft sich dieses Thema ja sowieso drastisch
 
deady1000 schrieb:
Stimmt nicht mehr, auch wenn's im Test steht.
Resizable Bar bringt 5,9% auf der RTX3080 in Cyberpunk und ist seit gestern, bereits vor dem Test, verfügbar.
[...]
Die Karten sind ohne RT und ohne DLSS jetzt exakt gleich schnell unter gleichen Bedingungen.
Vorher war SAM/RBAR nur bei den RX-Karten aktiv. Jetzt haben es beide.
Ändert ja nix an meiner Aussage, dass AMD dringend ne dlss alternative benötigt.
Ohne dlss ist RT auch auf nvidia Karten nicht zu gebrauchen...
 
  • Gefällt mir
Reaktionen: deady1000
Es ist doch so, wenn einem FPS wichtig ist. Ich für meine Teil kaufen mir keine 120hz OLED, wenn ich es dann nicht nutzen kann. Weder Nvidia noch AMD schaffen mit RT 120hz in 4K. Bis es einer von den beiden schafft, ist für mich wichtig welche Karte mehr FPS schafft und das Preisleistungsverhältnis und das liegt bei AMD. Ich bekommen bei einer 6900XT die selber Leistung wie bei einer RTX 3090, ohne RT. Muss aber weitaus weniger bezahlen. 1200€ für 6900XTvs 2500-3000€ RTX 3090, da viel die Entscheidung nicht schwer. DLLS ist nicht so meins, die Artefakte stören mich.
 
  • Gefällt mir
Reaktionen: fritz ost
Schön zu sehen, wie die Vorhersage, dass die 3060 Ti, 3070 und die 3080 früher oder später - also eher jetzt schon - an ihr Garfikkartenlimit stoßen (werden).
Das war mit Ansage, aber einige Besserwisser mit grünen Schleier wollen es auch jetzt noch sicherlich einfach nicht wahrhaben wollen.
Ich denke, falls nVidia doch noch Karten mit wesentlich mehr RAM herausbringen sollte, könnten diese Karten dann endlich Raytracing tauglich sein.
Ansonsten sind das einfach nur verflixt schnelle Karten für normale Spiele.
Da wiederum kann man jedoch dann auch gleich zu einer AMD Karte greifen, wenn Preis und Leistung für einen stimmen, da die noch mehr Speicher bieten und auch in 5 Jahren noch gute Leistung dann in einem Spiel der Marke Cyberpunk 2 oder 3 bringen werden.
Bei AMD muss man sich eingestehen, ist das halt die erste RT Generation.
Warum sollte das anders laufen als bei NVidia?
Die erste Generation ist da, um die Technik einzuführen, die Software und Treiber dafür zu entwickeln.
Erst im Laufe der Zeit werden die Karten hoffentlich zeigen können, was wirklich in ihnen steckt.
Und auch Computerspiele udn deren Entwickler benötigen auch erst einmal mehr als nur ein paar Monate, um sich auf die neue Technik einzustellen.
Das sieht man ja an den wenigen verfügbaren Spielen, die bereits erschienen sind.
Mangels erhältlicher Karten konnte man diese nur auf NVidia Karten und deren Technik hin optimieren, was in vielen Fällen und vor allem jetzt hier bei Cyberpunk mal wieder deutlich wird.
Das wird dann in 1-2 Jahren aber wohl schon ganz anders aussehen.
Wer sich also eine AMD Karte geholt hat, sollte also nicht unbedingt jetzt alle diese Spiel durchspielen wollen, sondern noch ein wenig warten, um dann nach einer gewissen Reifezeit das womöglich mit einer viel besserem Spielerfahrung belohnt zu bekommen.
Ansonsten bleibt nur der Griff zu einer NVidia Karte - mit hoffentlich viel Speicher- und/oder ggf. ein Spiel in einer niedrigeren Auflösung mit DLSS, ehe die Leistung udn der Speicher zus ehr überstrapaziert werden.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und hanjef
Ich warte immer noch auf ein Spiel das mich interessiert und Raytracing unterstützt, aber die ich auf den Schirm habe wohl eher nicht.

Daher sehe ich das ganze eher gelassen, dafür habe ich mir die Grafikkarte auch nicht gekauft.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Naja, wie CB selbst schreibt, kann die.miserable Umsetzung nur am Entwickler liegen, wenn die Leistung unabhängig von dem RT Einstellungen einbricht.

Ich werde noch ein bisschen abwarten, bis ich AMD's RT Ansatz beurteilen kann. Bald kommt ja RE8 raus, die sollen mit AMD zusammengearbeitet haben. Man darf nicht vergessen, dass die ersten RT Spiele auf Turing auch alles andere als überzeugend waren. Und dabei wurden diese mit und für Nvidia optimiert.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Colindo
Andy1978 schrieb:
da viel die Entscheidung nicht schwer. DLLS ist nicht so meins, die Artefakte stören mich.
Du bist auch son Artefakt. 😂

Das hast doch ne RX-Karte, wie zum Geier willst du beurteilen, dass DLSS dich aufgrund irgendwelcher Artefakte stört? Ich kann dir zeigen, dass DLSS, durch das Upscaling mit 16K-Grundmaterial, sogar Aliasing-Artefakte ENTFERNT, die nativ vorhanden sind.

Das hier ist 4x herangezoomt in WQHD. In 4K ist DLSS übrigens noch besser. Jedenfalls achte mal auf den Zaun bei Nativ und vergleiche mit Quality. Im unteren Bild noch auf die Schrift achten. Wo bei Nativ ganze Buchstaben fehlen sind sie dank DLSS plötzlich da.

Im Video ist das übrigens noch krasser. Da Flimmert der Zaun und die Buchstaben sogar. Bei DLSS wie gesagt kein Flimmern. Also wie du da noch von Artefakten sprechen kannst... Ist doch bei DLSS besser als vorher. 😂

Das Tearing was du wahrscheinlich meinst ist mir persönlich im Spiel NIE aufgefallen.
Und da du wohl DLSS selbst auch noch nicht getestet hast ist deine Kritik an dieser Stelle sinnbildlich für ne 1A "Hab-ich-nicht-brauch-ich-nicht"-Argumentation.

1617196007969.png


1617196018597.png
 
Zuletzt bearbeitet:

deady1000


geht es auch ohne Beleidigung? Fühlst du dich dann besser, wenn du andre runtermachst? Ist schon traurig, das es hier nicht möglich ist, das man normal und sachlich Diskutieren kann. Ist einer andere Meinung wie du, dann machst du ihn runter. Hats du noch nie was von Meinungsfreiheit gehört? Oder das jemand eine andre Meinung haben darf ?
Aber zurück zu Thema:
Ich hatte vor der 6900XT eine 2080Ti und mir hat das Bild mit DLLS nicht gefallen. Das ist meine Meinung und hat nicht damit zutun ob ich Nvidia oder AMD drauf steht.
 
  • Gefällt mir
Reaktionen: Xul, hanjef, Onkel Föhn und 3 andere
EDIT: Ok du hattest ne RTX2080Ti. Das wusste ich bis gerade nicht... Ich lasse das Argument aber stehen, weil es sicherlich auf den ein oder anderen zutrifft. Wobei ich mich aber schon son bisschen frage, warum man von einer RTX2080Ti auf ne RX6900XT upgraded. Naja gibt sicherlich Gründe für +30% FPS. DLSS war dann eben keiner.

--

War das ne Beleidigung? Ok sollte so nicht rüberkommen. Ich finde es nur lächerlich wie "ihr" immer falsche Fakten aufstellt, übelst gegen NV hatet und man da nix gegen sagen darf bzw man dann direkt beleidigt reagiert, wenn man Gegenargumente und sogar Screenshots/Videos vorlegt. 😂 Ich würde ja gar nichts sagen, aber permanent wird hier Unsinn erzählt. Du hast doch selbst gesagt, dass dich Artefakte abgeschreckt haben, aber du hast keine RTX-Karte und beziehst das alles vom Hörensagen von anderen Hatern. :schluck:

Das ist so wie jemand sagt Sex ist scheiße, aber hatte bisher noch gar keinen.

Und hier steckt keine Beleidigung drin.
Das ist ne überspitzte Argumentation.
Darf man auch drüber lachen, ich will hier keinem zu nahe treten.

Es ist halt klassisch für dieses Forum Leute.
Bin ja hier auch kaum unterwegs und solche Sachlagen sind eben der Grund.
Hier gibt es ne parallele Realität, wie man auch an den Tests immer sieht. ^^
Ist ja ok. Finde so David gegen Goliath Geschichten auch manchmal lustig.
 
Zuletzt bearbeitet:
Bei mir gibt es eine Diskrepanz zwischen Stand- und Bewegtbildern. Für Standbilder ist DLSS 2.0 wirklich klasse, aber in der Bewegung gibt es doch noch einiges flackern, was man in dem Video schön an den Bodenplatten sehen kann, mir aber in anderen Spielen mehr auffiel. So oder so ist DLSS eine sehr gute Möglichkeit hohe FPS zum geringen Preis zu bekommen und ohne eine massive Karte zu brauchen. Die Entwicklung zur KI macht auch GPUs ökonomischer. FidelityFX kann nicht früh genug kommen.
 
  • Gefällt mir
Reaktionen: hanjef, fritz ost und deady1000
BxBender schrieb:
Schön zu sehen, wie die Vorhersage, dass die 3060 Ti, 3070 und die 3080 früher oder später - also eher jetzt schon - an ihr Garfikkartenlimit stoßen (werden).
Das war mit Ansage, aber einige Besserwisser mit grünen Schleier wollen es auch jetzt noch sicherlich einfach nicht wahrhaben wollen.


Also ist AMD mit Ihrer Generation jetzt genau so am Ende wie NVIDIA, hab ich richtig verstanden? Weil die Rohleistung reicht auch bei AMD nicht aus, völlig egal wie RTX in Cyberpunk implementiert ist.
 
Ich verstehe gar nicht genau was mit dem Limit gemeint ist. Wo ist denn das Problem?
 
Zurück
Oben