TigerherzLXXXVI schrieb:
Zum einen lassen sich gewisse ältere "weniger anspruchsvolle" Titel mit einer RX 6800 XT in 4K spielen, wo eine RTX 3080 10GB bereits nachweislich Probleme bekommt.
Und auf der anderen Seite lassen sich Titel spielen, in denen die 6800XT Probleme bekommt.
Das Ding ist, du kannst RT abschalten oder reduzieren und bei der 3080 V-RAM fressende Settings wie die Ultra Textur Stufe reduzieren.
Die eine hat den knappen Speicher, die andere die fehlende Rohleistung. Die Karten nehmen sich nicht viel.
Warum du diese Diskussion immer wieder erneut vom Zaun brichst, verstehe ich nicht. Dein Fokus liegt permanent nur auf der Speichergröße, anstatt alle Faktoren zu beleuchten.
TigerherzLXXXVI schrieb:
Es wird noch gefühlte Ewigkeiten dauern bis wir heutige "Raytracing Ultra" Qualität oder gar Pathtracing standardmäßig in jedem Spiel bekommen.
Standardmäßig in "jedem" Spiel haben wir heute nicht einmal Directx10. In den aktuellen größeren Games kann ich mir das in 2 bis 3 Jahren durchaus als Ultra-Standard vorstellen.
Du trittst in jedem Thread als pauschaler RT Gegner und AMD Fan auf und äußerst Dinge die sachlich falsch sind und auch schon mehrmals mit Quellen widerlegt wurden. Sinn?
TigerherzLXXXVI schrieb:
Bei Avatar: Frontiers of Pandora hat man daher bewusst nur auf permanentes "RT Lite" gesetzt. Ansonsten wäre das Spiel zum Schluss nur mit einer 1000+€ RTX-Grafikkarte spielbar gewesen. Wenn überhaupt.
Und diese Behauptung belegst du wie? Man hat in Avatar noch nicht mal alle Reflektionen mit RT umgesetzt, was zwar annehmbar aussieht, wenn man nicht auf Auflösung und SSRs achtet, aber einen großen Teil der Reflektionen einfach aus dem Bild wischen kann, bzw. die Umgebungsverdeckung teilweise gar nicht funktioniert. Die Unoptanium Settings kaschieren das noch etwas, aber um einen RT-Ansatz kommt man einfach nicht mehr drum herum, wenn die Beleuchtungen und Reflektionen gut aussehen sollen.
Deshalb ist die Grafik insgesamt meines Erachtens durchaus noch auf dem Niveau von Alan Wake.
TigerherzLXXXVI schrieb:
Stell dir vor Ubisoft hätte bei Avatar exklusiv mit Nvidia kooperiert. Man hätte auf jeden Fall RT Ultra und vielleicht auch Pathtracing im Spiel gehabt, das perfekt für RTX 4000 optimiert worden wäre.
Ja, das wäre natürlich besser für alle gewesen. Die Radeon Nutzer spielen mit reduzierten RT Settings und die GeForce Nutzer können es ausreizen. Mal davon abgesehen, dass die 7900XTX mit FSR3 FMF sicher auch die maximalen Settings mehr oder weniger gepackt hätte. --> Win Win Situation für alle.
TigerherzLXXXVI schrieb:
Zeitgleich hätte man andere grafische Downgrades hinnehmen müssen, die auch auf Nvidias fragwürdige Speicherpolitik zurückzuführen wären.
Ich habe noch bei keinem Spiel das von Nvidia unterstützt wurde schlechte Texturen gesehen.
Alan Wake hat ausgezeichnete Texturen, Cyberpunk ebenso.
Cyberpunk ist ein Spiel von Ende 2020, also bald 4 Jahre alt.
Damals gab es quasi nur 8GB Karten, heute gibt es fast durch die Bank 12 oder 16GB. Das ist nicht vergleichbar und absurd.
TigerherzLXXXVI schrieb:
Aber auf keinen Fall würde jeder Gamer immer gleich "Hurra!" schreien, wenn ein aktuelles Spiel Raytracing (bezogen auf dem aktuellen Stand der Technik) vollkommen ausreizt und dabei andere ebenfalls wichtige Grafikdetails vernachlässigt werden.
Das ist eben ein erneutes Narrativ deinerseits, um die Implementierung von Raytracing in irgendeiner Form zu kritisieren. Das ist aber völlig ohne Substanz. Denn RT und Texturdetails hängen nicht unmittelbar zusammen. PT braucht zudem überhaupt nicht mehr Grafikspeicher.
Wenn ich deine Beiträge lese dann bleibt mir nur in Erinnerung: Nvidia doof, AMD toll und dann wird dieser Grundeinstellung durch irgendwelche Geschichten und Stories vermeintliche Substanz verleiht, anstatt unabhängig von irgendwelchen Firmen zu denken.