Test Radeon RX 6900 XT im Test: AMDs „RX 6800 XTX“ im Duell mit Nvidias GeForce RTX 3090

Hätte ich mich nicht schon für eine 3080 entschieden, dann hätte ich mir wohl eine 6800XT von Sapphire geholt in der Nitro-Kühler Version. Die 6900XT ist zwar eine gelungene Grafikkarte , aber für die Mehrleistung dann 350€+ Aufpreis wäre es mir nicht wert. Ich denke bei Games fällt der Unterschied nahezu gar nicht auf, wenn dann nur bei Benchmarks. Aber schön das AMD im Grafikbereich wieder voll konkurrenzfähig ist, die Dominanz von Nvidia und die damit hohen Preise werden wohl in Zukunft nicht mehr ganz so drastisch ausfallen, wie bei der CPU Dominanz von Intel, wo man für einen Quadcore 400€ bezahlen mußte!
Hätte im Oktober niemals gedacht das Radeon so stark sein wird. Die stärkste Grafikkarte mit der 5700XT, war gerade mal vergleichbar mit der 2070S. Jetzt hat man doppelte Leistung, das ist eine weitaus höhere Steigerung von AMD als es Nvidia mit ihrer neuen Generation geschafft hat! Hut ab!
 
  • Gefällt mir
Reaktionen: Pulsar77
Definitiv besser als die 3090, 500€ mehr für 8 GB schnelleren Speicher (welcher vermutlich in Games nie relevant wird), quasi identische fps (in neuen Spielen sogar leicht niedriger), klingt nach einem richtig schlechten Deal.
Blieben als Argumente noch für nvidia RT, DLSS (zu wenig Verbreitung) und für AMD SAM (Leistungsgewinne ziemlich winzig).

Die 3080 wird sicherlich mittelfristig Speicherprobleme bekommen, 10 GB sind für eine UHD-Karte nicht mehr zeitgemäß.

Selbst die 6900XT ist im Vergleich zur 6800XT nicht wirklich attraktiv (über 50% Aufpreis für ~10% mehr Leistung), außer man "benötigt" die Leistung und Gaming/Hardware ist die größte Leidenschaft, dann ist dieser Aufpreis imho vertretbar.

nvidias pricing ist sogar noch uninteressanter, Speicherflöte 3080 für 699€ vs. 1499€ 3090 ÜBER 100% AUFPREIS für etwa 10% Mehrleistung (und 14 GB Speicher...).

Da muss wirklich eine 3080 Ti kommen, wäre dann für 999€ zumindest die deutlich bessere Wahl für Enthusiasten, die ihr Geld nicht verbrennen wollen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mystiqu3 und Pulsar77
Im direkten Vergleich eine tolle Karte - weniger Verbrauch als eine 3080 oder 3090, Leistung nur knapp hinter der 3090.

Nur nix für mich. Ich will keine 300W+ an Heizleistung mehr in meinem Gehäuse verbauen. Zum Glück ist meine 5700XT noch völlig ausreichend für meine Ansprüche.
 
  • Gefällt mir
Reaktionen: Beg1
350eur ggü. der 6800xt...9% Leistung. Naja eher unnötig.

An der 6800xt,sofern verfügbar würde man aktuell net vorbeikommen. 3080 zu wenig Vram in 2020. 3090 zu teuer. 6900xt siehe oben.
 
  • Gefällt mir
Reaktionen: Pulsar77 und Beg1
Ein wunderbares Stück Technik. Ich hätte lieber ein komplettes AMD System. Aber ich kenne den Radeon pro Renderer für Blender und das ist im Vergleich zu Optix ne Krücke... deshalb bleibe ich bei der 3090.
 
  • Gefällt mir
Reaktionen: Col.Maybourne und Protecbay
Ich kann zumindest eine 6800XT in den Warenkorb legen und bezahlen gehen (will nur keine^^):
1607442997607.png


Bei der 6900xt kommt out of stock.
 
Hab im ersten Post komplett vergessen:
Vielen Dank für den Test computerbase / Wolfgang, toller Lesestoff.
Als großen Bonus gab es wieder Benchmarks in topaktuellen Games.
Als kleinen Bonus hätte ich gerne noch SAM-Ergebnisse gesehen ^^

Caramelito schrieb:
Sry aber bei 500eur Unterschied kann man mal auch zufrieden sein.

Vergiss es, im Internet ist jeder Multimillionär, was sind schon mickrige 500 Euro oder man redet sich den Kauf seiner eigenen Karte schön, kein Plan.
 
  • Gefällt mir
Reaktionen: Pulsar77
Wurden bei den RT Benchmarks auch die Szenen optisch miteinander verglichen.
Zumindest bei Watch Dogs Legion gabs da ein massives Problem auf AMD Hardware weshalb RT dort so extrem gut lief.
 
  • Gefällt mir
Reaktionen: stevefrogs
Silent3D schrieb:
Ich habe eine bekommen. Mit dem PC ging es nicht (503 und "Shipping to you country not available blabla) - auf dem Smartphone hatte ich aber ein ganz anderes Formular und konnte entspannt durchbestellen. Leider war ich etwas schnell... Wollte eigentlich eine 6800XT ergattern... Im zweiten Anlauf gings dann auch auf dem Smartphone nicht...
Anhang anzeigen 1005946

Hat wer zufällig eine 6800XT bekommen und möchte gegen Preisausgleich tauschen? ;)

Hast du eine deutsche Lieferadresse? Ich kann machen was ich möchte, er beschwert sich immer über die deutsche Lieferadresse...
 
Also ich bekomme auch mit dem Handy immer die Nachricht "Selected shipping country is not available in this region. Please edit your shipping information". Das erhalte ich auf dem PC als auch auf dem Handy. Total nervig :(
 
  • Gefällt mir
Reaktionen: OldManOfWoods
Der Nachbar schrieb:
Dann hätte DigitalFoundry im Vergleich zwischen Konsolen und PC mit nvidia nicht so gravierende Unterschiede fest gestellt. Entweder die Technik es ist DXR kompatibel und performant oder nicht. In der Konsole hängen auch noch weniger CUs ab.
… kennst du dich mit Engine/3d-Entwicklung aus? Weißt du, wo die Unterschiede zwischen den RT-Cores und ggf. der AMD Implementierung liegt? Besitzt du die Kompetenz hier eine wirklich fundierte Einschätzung zu schreiben?

Ich kann mir nur aktuell die verschiedenen Tests ansehen und da ist das Bild was RT angeht sehr durchwachsen. @Colindo hat sich bereits die Mühe gemacht mal den Unterschied zwischen den RT-Cores als auch dem Weg, den AMD gewählt hat aufzuzeigen. Grundlegende Aussage von ihm: Die RT-Cores durchwühlen den BVH-Tree und berechnen den Schnitt zwischen Polygon und Strahl. AMD wiederum nutzt für die BVH-Suche die TMUs, dann geht das erst mal an den Shader und der entscheidet dann ob über den RA-Accelator der Schnitt berechnet wird.

Das ändert aber nichts daran, dass die meisten Spiele, die bisher enschienen sind, auf die RT-Implementierung von NVIDIA optimiert wurden und die RT-Effekte sogar oft von den NVIDIA-Entwicklern in die Spiele implementiert wurden. Da sich die Vorgehensweisen doch durchaus - DXR hin oder her - unterscheiden, kann man hier sehr wohl darauf optimieren, dass der RTCore »zwei Schritte« macht, während man bei AMD nach dem 1. Schritt noch entscheiden kann, ob man den zweiten Schritt machen will.

Und sowohl hier im Test von CB, als auch Golem zeigt sich, dass es Spiele gibt, bei denen die die RX 6800 mit der 3070 konkurriert in RT und ebenso die 6800 XT mit der 3080 und eben nicht auf 2080 Ti abfallen, während bei anderen Spielen eben durchaus dieser Abfall zu beobachten ist.

Und es ist durchaus bezeichnend, dass gerade bei »neueren« Titel - WoW RT und Dirt 5 - es sich zeigt, dass man auf dem gleichen Level agiert. Wie ich geschrieben habe: Bisher würden RT-Effekte auf Turing-Karten entwickelt und bei fast allen Spielen in Zusammenarbeit mit NVIDIA und genau das ist der Punkt: Man kann hier natürlich annehmen, dass RDNA2 RT generell nicht liegt, ein valider Schluss. Der lässt aber eben mehre Faktoren außer acht - RT-Effekte wurden durch NVIDIA in die Spiele implementiert, bisher gab es nur Turing und damit der Ansatz von NVIDIA. Erst jetzt ist RDNA2 auf dem Markt und die Entwickler können anfangen auch auf die Eigenheiten vom AMD-Weg hin optimieren. Die »1. Generation« an RT-Titeln ist also nicht unbedingt DER Indikator, ob RDNA2 für RT geeignet ist oder nicht und auch DAS ist eine valider Standpunkt!

Golem.de hat dazu genau ein passendes Fazit:
Golem.de schrieb:
Anders sieht es bei den meisten aktuellen Spielen aus, wenn Raytracing dazugeschaltet wird. Außer in Dirt 5 und in World of Warcraft Shadowlands fällt der Performance-Einbruch bei der Radeon RX 6900 XT deutlich höher aus als bei der Geforce RTX 3090/3080, allerdings wurden auch fast alle Titel der vergangenen Monate auf Nvidia-Hardware entwickelt und für diese optimiert, da AMD schlicht keine entsprechende Hardware hatte.

Ob und wie sich das künftig ändert, ist schwer einzuschätzen. Weil jedoch alle drei Spielekonsolen - Playstation 5, Xbox Series S, Xbox Series S - auf Grafikeinheiten setzen, die den Radeon RX 6000 äußerst stark ähneln, dürften wichtige Synergie-Effekte zugunsten von AMD entstehen. Zumindest Cyberpunk 2077 erscheint zum Release nur mit Raytracing auf Nvidia-Karten, ein Patch für Radeon-Modelle soll folgen und die Konsolenversionen werden erst 2021 angepasst. Auch fehlt AMD bisher eine Alternative zum Rekonstruktionsfilter DLSS 2.0 (Deep Learning Super Sampling), denn FidelityFX Super Resolution braucht noch einige Wochen oder Monate.

Der Nachbar schrieb:
nvdia hat AMD mit RT einfach seit Jahren kalt erwischt, wie 3dfx mit der T&L Einheit und 32Bit erwischt wurde.
… Ah ja, haben sie das? Na ja, Dirt 5 und WoW zeigen da, dass es auch anders aussehen kann. Du lässt hier, wie ich es bereits angedeutet habe, sehr viele Faktoren, wie die meisten, die aktuell AMD eine RT-Schwäche unterstellen, außer acht und das vermutlich aus dem Grund, weil ihr gewisse Sachen nicht auf dem Schirm habt oder euch das Thema allgemein nicht interessiert.

Nur weil DXR hier der gemeinsame Grundstein für RT ist, heißt es nicht, dass es auf Hardware-Ebene nicht ggf. Eigenheiten gibt, die man in seinen Algorithmen beachten muss. Da die Herangehensweisen von AMD an RT sich etwas unterscheidet von dem Weg von NVIDIA, können die »Schwächen« die du hier der Hardware attestieren willst, eben eher Schwächen der Software - sprich der Spiele - sein. Ich hab schon oft genug erlebt, dass ein Algorithmus auf einer CPU rannte, während auf einer anderen CPU der gleiche Algorithmus überhaupt nicht performen wollte und dann eine kleine Anpassung am Code dann der Algorithmus auf beiden CPUs rannte, wie man es erwarten würde.

Programmierung ist weitaus komplexer, als viele denken und auch wenn man versucht vieles über APIs zu abstrahieren, können Eigeneinheiten von Hardware dennoch von Bedeutung sein!

Und nein, 3dFX wurde damals von 32 Bit nicht wirklich kalt erwischt und ebenso wurde es nicht von Hardware T&L kalt erwischt. Man sieht an beiden Sachen nur mal wieder gut, wie anfällig manche Leute für Marketing sind, gerade wenn sie Null Ahnung haben und es ist noch erstaunlicher, wie lang das nachwirkt und dein Beitrag belegt es sogar sehr gut.

Als 32Bit Texturen und Texturen wirklich in der Breite genutzt wurden, konnten es die 3dFX Karten. Ja, die Voodoo3 konnte damals keine 32Bit, sondern nur 16Bit. Wirklich breitflächig genutzt wurde 32Bit erst ab den 2000er und die Voodoo 4 konnte es.

Und Hardware T&L? Klar, 1999 und 2000 mit der GeForce 256 und GeForce 2 war das durchaus ein Nice-to-Have auf der Karte, nur haben selbst die meisten »DX7« spiele diese Möglichkeiten kaum, genutzt, weil sie alle mit der DX6-Harware - Riva TNT und Riva TNT2, sowie Rage und eben Voodoo2 und Voodoo 3 damals, kompatible blieben. Hardware T&L hat sich erst mit DX8 dann durchgesetzt, als DX7 Hardware weit verbreitet war und die Spiele keinen DX6, sondern DX7 und DX-Pfade angeboten haben.


Der Nachbar schrieb:
Der Vorsprung, der irgendwann nutzbar wurde hätte 3dfx auch nicht mehr aufholen können, selbst wenn die GPU sehr leistungsfähig gewesen wäre und man die Vermarktung mit den Boardpartnern erneut versucht.
Ach, hätten sie nicht? Dann würde ich dir mal empfehlen dich mit der 3dFX Rampage zu befassen, die kurz vor der Vollendung stand, ein DirectX 8 Chip! Ohja, 3dFX hätte 32 Bit und Hardware T&L NIEMALS aufholen können.

Sie hätten es aufholen können. 3dFX ist nicht daran gescheitert, dass man bei 32Bit eine Generation zurückstand, sie sind auch nicht an Hardware T&L gescheitert, 3dFX ist an ihrer eigenen Überheblichkeit und damit getroffenen falschen Entscheidungen gescheitert, so z.B. dass sie selbst Karten herstellen wollten, statt Chips zu verkaufen, dass sie ein Fertiger übernommen haben usw.

Dein Beitrag liest sich wie ein Standard-08/15-Beitrag von Fanboys, die ein paar »Zahlen« und Stichworte in den Raum werfen, nur damit sie was in den Raum geworfen haben, aber eigentlich nicht wirklich wissen, was sie schreiben.

Der einzige wirklich valide Punkt, den du hast in deiner Aussage, ist CUDA. AMD arbeitet jedoch auch hier bereits daran, dass ihre Karten CUDA kompatible werden: ROCm. RDNA zeigt aktuell durchaus eine »Schwäche« in OpenCL als auch anderen Compute-Anwendungen, aber auch hier: Sobald man die Eigenheiten von RDNA kennt, kann man selbst OpenCL-Algorithmen sehr gut auf RDNA anpassen. Hier ist es jetzt entscheidend, dass AMD nicht nur ROCm für CDNA anpasst, sondern dass sie auch den Schwung zu RDNA und RDNA2 finden mit der Zeit, sodass Radeon Pros auf RDNA2-Basis möglich werden. Aber auch hier: RDNA2 hat keine generelle Compute-Schwäche, das Problem ist die Software und aktuell die Treiber.
 
  • Gefällt mir
Reaktionen: Crankson, Rockstar85, yaggg und 9 andere
Plötzlich ging der Kauf der 6900XT durch ... Allerdings stand da Lieferzeit erst in 2 Wochen. Hat es sonst noch jemand durch die ganzen 503-Fehler geschafft?
 
  • Gefällt mir
Reaktionen: Pulsar77
washieiko schrieb:
Bei weniger Verbrauch quasi die gleiche Leistung zur 3090 = bessere Grafikkarte ! Chapeau AMD <3
Naja, dieses "quasi gleich" ist das was der 3090 den höheren Verbrauch beschert.
Limitiere die 3090 auf 300 W und die ist auch quasi so schnell wie die 6800XT. Die letzten Prozent wurden rausgeprügelt, da kosten ein paar MHz viele Watt.


Im Grunde auch völlig unerheblich. Wer nicht gerade einen Goldesel zu Hause hat kauft 6800XT und 3080. Die sind ja kaum langsamer und kosten viel weniger.
 
  • Gefällt mir
Reaktionen: stevefrogs
Ich stehe immer in Review Order....drücke den orangen Button ein paar mal....kommt ein 503er und danach stehe ich wieder bei shipping.
 
  • Gefällt mir
Reaktionen: TodboT
Oh man... wer sich für Rendering interessiert mit Blender ect. der wird hier auch keine Freude mit der Karte haben. Da stinken die RX 6XXX leider völlig ab. Ist das der Grund warum kaum eine Seite dazu Benchmarks zeigt?
 
  • Gefällt mir
Reaktionen: Plasma81
2% bis 3% mehr Leistung gegenüber der 3080 bei, UVP 699,- gegen UVP 999,-, 43% mehr Preis, nein Danke AMD, das war nichts.
 
  • Gefällt mir
Reaktionen: darkspark und czuncz
DiePalme schrieb:
Oh man... wer sich für Rendering interessiert mit Blender ect. der wird hier auch keine Freude mit der Karte haben. Da stinken die RX 6XXX leider völlig ab. Ist das der Grund warum kaum eine Seite dazu Benchmarks zeigt?
Ich denke der Grund ist eher, dass die meisten mit der Karte nur spielen wollen.
 
Zurück
Oben