Test Radeon RX 6900 XT im Test: AMDs „RX 6800 XTX“ im Duell mit Nvidias GeForce RTX 3090

@GerryB
Manch Gamer sind auch Minecraft Gamer. ;)

Da das Spiel zusätzlichen Mehrwert durch Modifikationen erlaubt und der erste spielerische Sprung für angehende Programmierer sein kann, mein Neffe hat übrigens durch Minecraft seine ersten Schritte zum Programmieren gefunden, gibt es auch objektive Mehrwerte gute Spiele in einen Test aufzunehmen.

https://www.computerbase.de/suche/?q=LEGO
Man staune und es sind noch weniger rein klassische Computerspiele darunter. Selbst LEGO macht einen Wandel zum Digitalen mit.

Natürlich hängt die Spielauswahl vieler Tester von aktuellen, breit gespielten Titeln ab und ein Testparcour mit mehr Spielen ist aufwendig, doch bedient er genau, die Spieler in der Breite. Spielen nicht genug Leute RDR2? Vorausgesetzt Rockstar erlaubt für den Benchmark ausreichend Grafikkartenwechsel. Als aktuellen Benchmark und vorauseilenden Appetithappen hätte man sogar schon Cyberpunk 2077 mit aufnehmen können. Immerhin läuft das Spiel auf aktuellen Konsolen und auf einer aktuellen AMD RX soll es ja erst recht laufen.

Darauf hätte man sich ja bei der kleinsten RDNA 2 Ausführung in der Konsole schon mal einstellen können.

AMD verspielt leichtfertig die Chance seine Hardware im richtigen Licht bewerben und bewerten zu lassen, wenn man so schon mit halb-kaputten Treibern zur Grafikkarten Veröffentlichung den Anspruch größerer Benchmarkparcours nicht immer gerecht werden kann. Dabei ist genau Pathtracing die Ansage nicht nur an Investoren bei einer funktioniernden Technologieabteilung bei AMD, sondern auch für professionelle Nutzer, die bei Produktdesign und Simulationen auf technische Lösungen bei Lichtberechnungen angewiesen sind. Sei es sogar bei der Autoinnenraumbeleuchtung, wenn schon die Autohersteller den Geruch genau analysieren, damit ein Auto beim Kauf gut riecht. Von der Frischfleischtheke mal abgesehen.

Hardware Unboxed hat zu Cyberpunk 2077 noch ein neues RT plus DLSS Testvideo wohl aus dem nvidia Druck heraus gemacht und bei Filmproduktionen reichten die letzten Dekaden sogar nur stabile 24/25/30 Bilder pro Sekunde. Die Spieler sind mit 60 Bildern und darüber sehr verwöhnt.

AMD hat trotzdem bei den so hohen Verkaufszahlen nicht mal über 4 Millionen potenzielle PC Punk Kunden beim Verkaufsstart angesprochen, das es mit AMD GPU Hardware technologisch auf Augenhöhe mit nvidia vergleichbar ist. Für den DXR Renderpfad hatte AMD reichlich Zeit das Team von CD Projekt Red zu unterstützen. Wenn auch schon wie erwähnt eine gute Spielmechanik manch Grafikbombast überbieten kann, ist Grafik immer noch Immersion, die je nach Spiel sogar ein grundlegender Bestandteil ist. Wer zum Beispiel durch verwünschene Wälder läuft und mit Licht und Schatten gespielt werden kann.
Mordor mit Raytracing? Sicher so einschüchternd wie der Blick Saurons auf einen gerichtet und episch wie Minas Tirith bei richtigen Licht, ja gar vom Vollmond geblendet als in die Höhe rettend auftauchender, im strahlenden weiß ragender, und mit glitzernden Feuerfackeln getauchten Aufbauten bei Nacht vor Verfolgern rettend und doch von der schieren Größe eingeschüchtert für manchen Fremdländer dieser Lande den Mauern entgegen zu reiten. So fangen gute Erzählungen an. Kopfkino ohne durchgängige 8Bit Pixelgrafik, wer lange genug Bücher und ihre Welten fantasiert.
 
  • Gefällt mir
Reaktionen: DannyA4
Der Nachbar schrieb:
Als aktuellen Benchmark und vorauseilenden Appetithappen hätte man sogar schon Cyberpunk 2077 mit aufnehmen können.
Die RX 6900 XT (und der Test von ComputerBase) kam 2 Tage vor dem Spiel heraus. Mit der Review-Version von Cyberpunk 2077 durfte man auch keine Benchmarks machen, da sie einen Kopierschutz beinhaltet, der die Performance beeinflusst.
 
  • Gefällt mir
Reaktionen: IHEA1234 und DannyA4
Der Nachbar schrieb:
Für den DXR Renderpfad hatte AMD reichlich Zeit das Team von CD Projekt Red zu unterstützen.
Darf ich an der Stelle nach einem Beweis fragen, dass die RT-Unterstützung auf AMDs Karten deswegen nicht kommt, weil AMD nicht geholfen hat? Das kann doch mehrere Gründe haben.
 
@ joomoo
Mangelnde Ansätze zur Lösung trifft es eher zu. Man könnte auch ohne Kopierschutz oder erhöhter Aktivierung für die Presse ausliefern.

@Colindo
Der Beweis ist doch, es ist als Spiel bis jetzt nicht in dem technologischen Rahmen trotz der sehr langen Entwicklunsgzeit lauffähig verfügbar, dabei muss AMD den Entwickler zumindestens bei den Renderpfaden für die eigenen Karten mit Bibliotheken unterstützen, am Ende ja per Treiber mögliche Bugs selbst beheben. aber kommunikatv ist alles wischiwaschi und AMD sitzt auch noch im Konsortium für DirectX mit am Tisch. Wenn sie wollten, könnten sie es längst, denn die sitzen sogar mit Microsoft durch die AMD Konsolen sehr fest im Sattel bei der RT Hardware und Software. Ich könnte mich auch fragen ob DXR ensthaft als Lösung spezifiziert wurde, wenn derzeit AAA RTX Titel kommen, aber Cyberpunk 2077 ein voll kompatibler DirectX 12 Titel mit DXR Unterstützung sein soll und damit auf der RX6000 Serie auch RT anbieten. Also greifen die Spieleentwickler lange genug auf DirectX Bibliotheken zu.

Das was wir derzeit in Händen halten, ist leider der Beweis für die tatsächliche Umsetzung.
 
Hat eigentlich irgendwer einmal wie früher Berichte und Performanceanalysen zur Bildqualität in Games mit und ohne AA sowie AF sowie ohne irgendwelche Treiberoptimierungen die man bei beiden noch einstellen kann? Irgendwie geht das mir ein bisschen unter. Ist ja schön wenn GPU X ganz oben steht, wenn das zur Lasten der Bildqualität geht weil wieder getrickst wird (Stichwort GeForce 7 oder AMD X/HD2 Serie etc) ist ja das ja klar das GPU X mehr Fps erzielt. Und im Treiber gibt es ja auch bei beiden Möglichkeiten zur mehr Fps auf Lasten der Bildqualität (wird leider in Benchmarks von Redaktionen oft nicht beschrieben was genau die da eingestellt haben). Leider gibt es keine Vergleiche zwischen Ampere/Turing und RDNA/RDNA2. Oder hat irgendwer solche Berichte gesehen?

@CB könnt ihr das auch nochmal testen. Fand die Berichte damals immer interessant von euch und zeigte wer wirklich mit guter Bildqualität oben steht.
 
  • Gefällt mir
Reaktionen: Iscaran und DannyA4
Der Nachbar schrieb:
Das was wir derzeit in Händen halten, ist leider der Beweis für die tatsächliche Umsetzung.
Ich versuch es mal umgekehrt: Du meinst also es ist auch bei Godfall so, dass Nvidia die Hände in den Schoß gelegt hat und einfach keine Lust hatte, die Entwickler bei RT auf RTX-Karten zu unterstützen? Soweit ich weiß gibt es bei dem Titel kein Raytracing für Nvidias Karten, auch wenn das angeblich per .ini freischaltbar sein sollte.

Ich vermute in beiden Fällen strategische Entscheidungen bei der Entwicklungsunterstützung, die den anderen Hersteller ausschließen sollen und finde das in beiden Fällen nicht in Ordnung. Aber wie so oft gibt es den Beweis erst in Zukunft. Wenn CP-Raytracing in einigen Monaten super auf den AMD-Karten läuft, dann hat man sich mit der Implementation Mühe gegeben und brauchte Zeit, das ordentlich zu machen. Es kann aber auch Grütze laufen wie bei einigen anderen Spielen, dann wäre die Wartezeit nur eine zusätzliche Diskriminierung AMDs.

Bei Shadow of the Tomb Raider würde ich auch erwarten, dass da noch ein Patch für AMDs Raytracing kommt, da Square Enix früher die Spiele sehr gut gewartet hat. Ich erinnere nur an den DX12-Support für Tomb Raider, der auf eigene Initiative implementiert wurde.
 
  • Gefällt mir
Reaktionen: Der Nachbar
@Colindo
Wenn Godfall auch nur DirectX DXR nutzen kann. was sonst, aber ein PS 5 Exklusivtitel ist und auf dem PC mit RT vorerst nur mit der RX6000 Serie laufen darf, dann sind es tatsächlich offensichtliche Verkaufsstrategien, wo ich dir zustimmen würde.

In dem Sinn könnte nvidia durchaus gewollt haben, aber eine Abfuhr seitens Sony und AMD erhalten haben. Gearboxpublishing vertraglich auferlegt bekommen nach Plattform zu liefern und dafür bezahlt zu werden.

Godfall basiert ja auf der UE4 Engine.

nvidia und UE4.
https://developer.nvidia.com/blog/introducing-ray-tracing-in-unreal-engine-4/
Unreal und RT
https://docs.unrealengine.com/en-US/RenderingAndGraphics/RayTracing/index.html

Also sicher ein *.ini Fail oder Bibliothekenparamater, um es etwas schwieriger zu machen, wenn Herr Sweeney RT in den letzten UE Versionen eingepflegt hat.

Jedenfalls ist jeglicher Kleinkrieg zwischen den Plattformentwicklern für den Kunden nicht gut, besonders, wenn es auf den Kundenköpfen ausgetragen wird.
 
@Der Nachbar Man muss tatsächlich lediglich im ini File Raytracing aktivieren, dann geht es auch mit Ampere und Turing Karten. Und als Bonus gibt es sogar ein paar FPS on top ;)

Copy the above into file explorer, amend the "bEnableDXR=False" line to "bEnableDXR=True" IN GameUserSettings.ini and DXR is magically enabled for a slight boost to performance and image quality.
 
@foo_1337
Nun gut, ich habe in dem Punkt auf die Schnelle nicht weiter recherchiert und fand *.ini Parameter fast schon zu billig um wahr zu sein. Aber reddit gab doch Auskunft im geschlossenen Thread und Youtube Link. Umso erbärmlicher seitens der Plattformanbieter zukunftsweisende Rendertechniken als Mehrwert nach Gutdünken zu verteilen.
 
@Der Nachbar

War es nicht so das bei Cyberpunkt RT an DLSS gekoppelt ist?
Damit hätte man schon einen extrem simplen Grund warum die Radeons hier abseits von irgendwelchen Optimierungsdiskussionen ausgesperrt sind.
 
@Silverangel

Dann hatte ich den zitierten Abschnitt aus dem Test leider missverstanden.
Den Großteil des Textes hatte ich im RT Abschnitt seinerzeit übersprungen weil ich primär an den Benchmarks interessiert war.
Raytracing sollte und kann in Cyberpunk 2077 deshalb ausschließlich mit DLSS genutzt werden.
 
Bei mir ist es jetzt doch eine Nvidia Custom 3080er Karte geworden (sofern diese auch brav geliefert wird)...

Nach wochenlangen Überlegungen, Analysen und Recherchen war dies einfach die erste Karte, welche zu halbwegs machbaren, aber immer noch zu hohen Preisen, verfügbar war.
Und wo ich zum richtigen Zeitpunkt auf "Zum Warenkorb hinzufügen" klicken konnte.

Mein Ziel ist es, mit dieser Karte zwei Jahre auf 4K möglichst auf Ultra und Raytracing (inkl. DLSS) auszukommen. Bis dahin sollten die 10GB reichen und ich kann mich in Ruhe mit Raytracing und DLSS beschäftigen. Die Technologien verdienen auf jeden Fall mehr Aufmerksamkeit auch jenseits von Nvidia.

In zwei Jahren werden die Karten neu gemischt.
Je nachdem wie sich die Technologien bis dahin durchgesetzt haben und je nachdem was AMD als (freie) Alternative bietet, würde ich dann auch wieder zu AMD greifen, wenn Preis-Leistung sowie Verfügbarkeit gegeben ist. Ich hoffe mal, dass bis dahin auch Multi-GPU Design verfügbar ist und die Spiele auch dafür entwickelt werden, so dass die Berechungen über mehrere Kerne verteilt werden können.

AMD hat dieses mal einfach Pech gehabt.

Aktuell sind die Preise für AMD-Hardware bei den Händlern noch schlimmer - im Verhältnis zur jeweiligen UVP - als bei Nvidia.

Somit zieht das Preis-Leistungs-Argument bei AMD aktuell nicht.

Mal davon abgesehen, dass es ein absolutes Glücksspiel ist, eine 6800XT oder eine 6900XT zu ergattern.

Außerdem ist noch zu wenig Bewegung bzgl. Super Resolution und Raytracing Performance im Gange.

Für mein Profil
"Ich würde gerne Cyberpunk in 4K (nach ein paar Patches) in Raytracing (+DLSS) gerne selbst ausprobieren"
=>passt da aktuell Nvidia besser.

Und das ist einfach ganz neutral bewertet ohne Fan-Boy Brille.

Die letzten Jahre blieb es meist bei AMD - das hat damals für Full HD auch meistens ausgereicht.
Nun wird es seit 2012 nochmal eine Nvidia Karte.

Zumindest wenn die nicht ein Fehler bei der Bestellverarbeitung gemacht haben.
Aber ich denke das passt, da schon eine Tracking ID zum Versenden erstellt wurde... ;-)

Ich wünsche Allen weiterhin viel Glück und Geduld beim Grafikkarten Kauf und möglichst schöne und gesunde Weihnachtsfeiertage.
 
  • Gefällt mir
Reaktionen: Volvo480, DannyA4 und foo_1337
Für wieviel konntest du eine 3080 ergattern?

Hat schon jemand seine 6900 XT aus dem AMD Shop erhalten oder eine Versandbestätigung?
 
@joomoo

Ich konnte für knapp über 1000 Euro eine Gigabyte Aorus Master 3080 ergattern.

Ich weiß, dass der UVP auch bei der Karte deutlich niedriger ist, aber im Vergleich zu Referenz 3080 mit 700 Euro ist das Verhältnis immer noch besser als z.B. bei der Sapphire Nitro+ SE 6800XT für 1000 Euro im Vergleich zum Referenz Preis von 650 Euro.

Zusätzlich kann ich für den Preis im 1:1 Duell aktuell mehr durch Raytracing und DLSS profitieren. (Cyberpunk)

Da die Aorus Serie auch eher eine etwas hochwertigere Custom Serie ist, hatte ich zumindest ein etwas weniger schlechtes Gewissen hier deutlich mehr zu zahlen.
Ich hätte auch gerne eine ASUS ROG STRIX 3080 gehabt, aber die habe ich noch nie lieferbar gesehen.

Bei dem Aufpreis habe ich zusätzlich die schlechte Verfügbarkeit und das Weihnachtsgeschäft berücksichtigt.

Bei AMD kann ich aktuell gar nicht kaufen (6800XT / 6900 XT) - auch nicht zu überteuerten Preisen oder es ist gaaaanz viel Glück dabei. Ich habe es probiert beim 6900 XT Launch im AMD Shop. No Chance.

Ich möchte auch nicht herausfinden, wie lange es dauern wird bis sich die Preise wieder dem UVP nähern, da ich jetzt gerne damit spielen will. Wer weiß schon, wann die Preise wieder beim UVP oder drunter sind. Dazu müssen die Lager erst mal voll werden.

Mein Vorgehen war:
Ich habe mir zuvor eine Tabelle gebastelt und dort die Top Custom Modelle von Nvidia und AMD aufgelistet.
Dahinter meine Limit Preisvorstellungen je Modell.
Diese waren prozentual am Referenzpreis der jeweiligen Serie und der Ausstattung/Performance der Custom Card bemessen.

Ich habe zugeschlagen bei dem Modell, was als erstes in meinem Preisbereich verfügbar war.

Gleiche Chancen für AMD und Nvidia.
Tendenziell ging es am Ende (nachdem Tests zu Cyberpunk draußen waren) aber auch zu Nvidia, weil mich Raytracing und auch DLSS interessieren und man bei AMD nicht viel neues dazu hört (Super Resolution, etc.)
 
mc_ace schrieb:
Mein Ziel ist es, mit dieser Karte zwei Jahre auf 4K möglichst auf Ultra und Raytracing (inkl. DLSS) auszukommen. Bis dahin sollten die 10GB reichen und ich kann mich in Ruhe mit Raytracing und DLSS beschäftigen. .
Naja, wenn ich in Watch Dogs Legion in 4k mit Ultra Details Raytracing einschalte mit Stufe Ultra, reichen 10 GB nicht.... Das liegt dann schon drüber (10,5 GB). Daher sind zwei Jahre in 4k mit Raytracing sehr sportlich. Zumal wenn dann noch Texture Mods mit 4k oder 8k Texturen hinzukommen oder andere Grafik aufwertende mods (sofern du diese nutzt), reichen keine 10 GB. Also zwei Jahre lang wirst du mit deinen Wünschen nicht hinkommen, zumindest nicht auf Ultra und Raytracing in 4k.....
 
@MMIX
Kann sein, aber es gibt ja immer noch DLSS.
Das könnte hier Abhilfe schaffen, wenn es mal eng wird.

Wenn das dann nicht vom Spiel unterstützt wird oder die 10GB dann doch mal zu knapp werden, dann muss man eben wieder an den Grafikdetails schrauben (High statt Ultra) oder die Karte doch früher ersetzen.
Aber vielleicht klappts ja doch noch mit etwas Glück. :)

Es war für mich den Aufpreis zur 3090 aktuell nicht Wert.

Man muss aktuell sowieso Abstriche machen, egal ob AMD oder Nvidia.
Bei einem wegen Speicher, beim anderen mangels RT und DLSS.
Ergänzung ()

Vermutlich wäre eine 3080Ti mit ggf. 20GB besser, aber wer weiß schon wann diese kommt und wie dann die Lieferbarkeit und Preise aussehen. Somit nehm ich einfach das, was ich aktuell bekomme und mach mir keinen weiteren Stress.

Aber hier geht es ja auch um die 6900XT - somit genug jetzt davon.
 
Yep, entweder zweite Generation von Raytracing bei Nvidia oder mehr VRAM bei AMD, aber "nur" erste Raytracing Generation. Lassen wir DLSS Mal außen vor, es ist ja bekannt das MS und AMD an Super Resolution arbeiten, also ein Konkurrent dazu kommt ja.

Und man kann heute halt schon sehen, dass bei einem GTA V mit Grafik mods die 10 GB gesprengt werden können und auch bei The Witcher 3 steigt die VRAM Auslastung mit mods deutlich. Wie wird das Mal bei Cyberpunk werden und ähnliches. Aber das muss jeder selber wissen und entscheiden.
 
MMIX schrieb:
Lassen wir DLSS Mal außen vor, es ist ja bekannt das MS und AMD an Super Resolution arbeiten, also ein Konkurrent dazu kommt ja.
Da drücke ich auch AMD die Daumen und hoffe, dass sich sowohl bei Super Resolution als auch bei Raytracing noch einiges tun wird.

Ich sehe RDNA2 ähnlich wie damals die erste Ryzen Generation.
Man hat hier seitens AMD ein Ausrufezeichen gesetzt und man wird sicherlich in den Folgegenerationen noch mehr rausholen können.

Prinzipiell finde ich die Architektur von AMD also RDNA2 auch besser als Ampere von Nvidia.
Aber AMD muss in Sachen RT und DLSS nachziehen.

Somit bleibt es spannend und man wird sehen ob sich zukünftig AMD auch die Leistungskrone in allen Disziplinen (Raster, Raytracing, DLSS/Super Resolution) sichern kann oder zumindest als ernstzunehmende Konkurenz im High-End Segment zu Nvidia (und ggf. Intel) bleibt.
 
Zuletzt bearbeitet:
Zurück
Oben