Test AMD Radeon RX 6800 XT im Test: RDNA 2 gegen Nvidia GeForce RTX 3000

Besten Dank @Wolfgang und @Jan fuer den aufschlussreichen Test der ersten beiden RDNA2 Refrenz Grafikkarten :) ...

... ein wenig enttaeuscht bin ich vom Dual-Monitor-Setup und YouTube Video Verbrauch (aehnlich wie beim abspielen vom VLAN Videos oder UHD-BlueRay Discs, das waere auch noch gut, wenn das nachgereicht werden koennte?).

Wenn die Preise sich dann irgendwann eingependelt haben sollten (bei ausreichender Verfuegbarkeit) voraussichtlich bei AMD/RTG und nVidia irgendwann im kommenden Jahr, dann duerfte ein Kauf sicherlich interessanter werden.

Worum ich bitten wuerde, dass es idealer Weise nachgereicht werden sollte, auch wenn der USB-C VirtuaLink Anschluss etwas unter den Tisch faellt, ist endlich das Testen der nVidia RTX Ampere und AMD/RTG RDNA2 GPUs in einem VR-Spieleparcours, denn davon gibt es deutlich mehr Spiele als RT-Raytracing und DLSS unterstuetzende Spiele zusammen und somit ist es auch deutlich relevanter, auch wenn (noch) nicht jeder ein VR-Headset haben mag.

Des Weiteren waere es auch interessant, wenn die Krypto-Mining Leistung der RTX Ampere und RDNA2 Grafikkarten miteinander verglichen werden koennte, denn das interessiert sicherlich einige hier (ob da ein massiver Abverkauf neuer Karten direkt (ab Werk) an Miner wahrscheinlich ist und damit eine laenger andauernde Verknappung der GPUs und dauerhaft (zu) hohe Preise realistisch erscheinen).

Fuer mich bleibt auch fest zu halten, dass das Referenzdesign der RX 6800XT extrem gut gelungen scheint (gegen welches evt. deutlich teurere Custom-Modelle es schwer haben duerften, wenn diese nicht gerade "unter Wasser gesetzt" sind und damit deutlich Mehrwert bieten fuer absehbar deutlich hoehere Preise), wohingegen ich bei einem RX 6800 Kauf definitiv auf ein leiseres Boardpartner-Modell warten und setzen wuerde.

Ein paar Tech-YouTuber Reviews habe ich mir auch schon angeschaut (bspw. von Linus Tech Tips, Gamers Nexus und Igor's Lab) und nur das nachfolgende von JayTwoCents bot auch einen direkten Spieleeindruck, was ich aber sehr gut fand um einen besseren Eindruck der GPU-Leistung ansatzweise zu vermitteln und dort wurde auch die bisher noch fehlende Treiberoptimierung fuer die RDNA2 GPU-Architektur in einigen neueren Spieletiteln wie Control thematisiert:


Wie lange man wird warten muessen, bis dann RDNA2 auch auf aehnlichem Stand wie RTX Ampere in vielen Spielen ist was die Treiberoptimierung angeht, bleibt ab zu warten (bei Anno 1800/Bluebyte/Ubisoft Deutschland gehe ich eigentlich weniger davon aus, dass dort noch auf RDNA2 optimiert wird, aber es ist ja sowieso ein sehr fragwuerdiger - da einseitig auf nVidia optimierter - Testparcours-Spieletitel an dem CB schon eine Weile fest haelt), aber gluecklicher Weise duerfte RDNA2 wegen der Next-Gen-Konsolen wohl durch starken Entwicklersupport (nachtraeglich und zukuenftig) profitieren.

Das gleiche gilt natuerlich auch fuer das in der Mache befindliche (DLSS-Pendant) Super Resolution von AMD/RTG (und Microsoft?).

Die wohl vermutlich in die Bresche zwischen RX 6800 und RX 6800XT stossende gemunkelte RTX 3070Ti mit 10GB, wird wohl leider auch an den zu knappen 10GB Speicher kranken, ansonsten, haette das fuer nVidia der perfekte Konter sein koennen.

Ob AMD/RTG das Entwicklungstempo und den Druck auf nVidia sehr hoch halten wird koennen und RDNA3 (schon jetzt in Treibern gelistet) wirklich schon Ende naechsten Jahres aufschlagen koennte, nachdem RDNA2 ca. ein Jahr nach RDNA1 schon auf den Markt gekommen ist?

Warten wir es ab ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: larz
Ich muss ehrlich sagen, und ich wiederhole mich, das Gebahren das AMD mit den Referenzkarten und den Preisen an den Tag legt ist wirklich Mist.

Bei Nvidia bekommt man schließlich die FE zum exklusiven 699er Preis

AMD Pappt asrock, gigabyte und xfx-Aufkleber auf die Karten und dann gibt's die Referenz für 729-849€...lol
ColinMacLaren schrieb:
Alles in allem, setzt man die Herstellerpreise an, eine tolle Karte, die mit 650 EUR vs 800 EUR für die 3080
Die kostet 699€
 
  • Gefällt mir
Reaktionen: EyBananaJoe, .Sentinel. und flode
Tolle Karten, endlich wieder alternativen im Oberen Segment.
Bin auf die customs gespannt, bei den OC Möglichkeiten, kommt da offensichtlich wieder Mal ein ordentlicher boost bei den customs oben drauf, nur fürchte ich wird's dann noch teurer.

Gleichzeitig zeigt der Test aber auch mMn. Dass Nvidia erstmal doch nicht zwingend mit "super" o.ä. Modellen nachlegen muss.
 
Ich würde mir ein Performance Rating mit den OC-Varianten von AMD und Nvidia als direkten Vergleich wünschen (AMD 6xxx vs Nvidia 3xxx)

Es gibt leider nur ein Performance Rating pro Watt...
 
Chismon schrieb:
Des Weiteren waere es auch interesstant, wenn die Krypto-Mining Leistung der RTX Ampere und RDNA2 Grafikkarten miteinander verglichen werden koennte, denn das interessiert sicherlich einige hier (ob da ein massiver Abverkauf neuer Karten direkt (ab Werk) an Miner wahrscheinlich und damit eine laenger andauernde Verknappung der GPUs und hohe Preise realistisch erscheinen).

Puh ganz heißes Pflaster. Nach dem was man mit der Mininggeschichte mitgemacht hat als Gamer.... Puh... :heilig:
 
  • Gefällt mir
Reaktionen: Chismon und McTheRipper
Dark-Silent schrieb:
Wie du auf den geringeren Energieverbrauch kommst weist auch nur du selber oder hast den Test nicht gelesen. Bis auf DLSS wo hat da NV mehr features und das AMD äquivalent kommt da ja noch ?
Gsync, Raytracing, CUDA, DLSS,...
Nvidia verbraucht zudem bei Netflix und Browser sowie bei Multiscreen weniger Strom. AMD ist auf einem guten Weg, Nvidia dürfte aber für die meisten die bessere Wahl sein.
 
  • Gefällt mir
Reaktionen: Kenjiii und David_B
flug_rosetto schrieb:
"In Ghost Recon Breakpoint reichen auch die 10 GB der GeForce RTX 3080 für maximale Performance nicht aus, hier sind die 16 GB Speicher der beiden Radeon-Grafikkarten klar im Vorteil. Wie sich das zeigt? Bei den Durchschnitts-FPS ergeht es den Radeon-Grafikkarten zwar nicht gut, die Radeon RX 6800 XT ist 10 Prozent langsamer als die GeForce RTX 3080. Bei den Perzentil-FPS schneidet die Radeon RX 6800 XT dann aber plötzlich 2 Prozent besser ab – da die höchste Texturstufe des Spiels in den 16-GB-Speicher passt."
sie liegt aber ( die 3080 mit 10gb ) in eurem test aber vorne. und auf diese perzentil-fps kann ich verzichten.
Genau die perzentil fps sind es aber die Zahlen, der Durchschnitt ist zu vernachlässigen. Man sagt ja auch immer im Durchschnitt verdient ein deutscher 3900€ brutto frag mal hier im forum ich wette nicht mal 70% bekommen das....
 
Schranz0815 schrieb:
AMD ist die Technik, welche in Consolen steckt und die meisten Spiele sind für Console optimiert, weil es die größte Zielgruppe ist. Den Rest wirst du in den nächsten Monaten selbst sehen. Denk dann einfach mal an meine Worte.

Ist dir klar das in der Current Gen ebenfalls AMD verbaut war? Wo waren die AMD optimierten Konsolen Ports die letzten 7 Jahre?
 
  • Gefällt mir
Reaktionen: DavidG
Taxxor schrieb:
Da sowohl RDNA2 als auch die erste RTX Generation darauf spezialisierte Hardware nutzt, mit was vergleichst du hier? Weißt du, was alles in der RDNA2 CU steckt, was ML beschleunigen kann?
Sorry, DLSS und RTX sind kein reine Softwarelösung, und nur allein darum ging es ursprünglich. Einfach vorblättern wen sie etwas nicht folgen können.
 
Gute Leistung von AMD, die 3080 wirkt aber noch immer etwas besser, die 10GB sind allerdings ein ziemlicher Wehrmutstropfen und ich vermute, dass die 6800XT wesentlich besser reifen wird als die 3080, auch wegen den 6GB mehr VRAM. Bei der 6800 vs 3070 brauchen wir gar nicht erst zu diskutieren, der 3070 geht ja in Doom Eternal auf max settings schon der RAM aus und sie stottert deutlich abgeschlagen hinter einer 2080Ti herum...

Im Januar kommt dann Nvidias 999 Euro Antwort auf die 999 Euro RX6900XT in Form der 3080Ti wohl ebenfalls um 999 Euro. Beide natürlich nicht erhältlich bis mitte nächstes Jahres, zumindest zu dem UVP Preis nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: larz
DavidG schrieb:
Gsync, Raytracing, CUDA, DLSS,...
Ich fahre mit Freesync genau so gut wie ich mit Gsync fuhr, nur dass das Preisschild besser ist.
Raytracing können beide, nur hat AMD einen gewissen Rückstand.
CUDA ist für Gamer uninteressant. Produktiv geb ich dir recht.
DLSS geb ich dir auch recht, ist aber nur noch eine Frage der Zeit.
 
  • Gefällt mir
Reaktionen: bikkje, Schranz0815 und Dark-Silent
Cpt.Willard schrieb:
Ich muss ehrlich sagen, und ich wiederhole mich, das Gebahren das AMD mit den Referenzkarten und den Preisen an den Tag legt ist wirklich Mist.

Bei Nvidia bekommt man schließlich die FE zum exklusiven 699er Preis

AMD Pappt asrock, gigabyte und xfx-Aufkleber auf die Karten und dann gibt's die Referenz für 729-849€...lol

Die kostet 699€
Das die Händler VK Preise nichts mit AMD Vorgaben zu tun haben sondern einzig und alleine auf deren Mist wachsen ist dir wie vielen anderen scheinbar noch immer nicht klar oder passt euch einfach nicht ins Weltbild also kann das ja nicht sein.
 
  • Gefällt mir
Reaktionen: Iapetus und Schranz0815
Revan1710 schrieb:
v.a. gab es nach der Ampere-Ankündigung ja unzählige Stimmen, die sich sicher waren, dass AMD maximal der 3070 Paroli bieten wird.

Jetzt heißt es auf einmal: "Wie die 6800 XT ist nicht schneller als die 3080? - Enttäuschend"

Gab aber auch unzählige Stimmen, die sich sicher waren, dass die 6800 XT die 3080 "easy" auseinander nimmt.
 
  • Gefällt mir
Reaktionen: Revan1710
Dark-Silent schrieb:
Das die Händler VK Preise nichts mit AMD Vorgaben zu tun haben sondern einzig und alleine auf deren Mist wachsen ist dir wie vielen anderen scheinbar noch immer nicht klar oder passt euch einfach nicht ins Weltbild also kann das ja nicht sein.

Ich dachte ich habe bei seiner Aussage Sarkasmus gespürt :)
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Dark-Silent
Bei passender Lieferbarkeit könnten die Händler gar nicht die Preise über UVP anziehen. Aber das P Wort darf man hier ja nicht sagen. Dazu noch die Sonderaktion für "Fans"...
 
larz schrieb:
Ich fahre mit Freesync genau so gut wie ich mit Gsync fuhr, nur dass das Preisschild besser ist.
Raytracing können beide, nur hat AMD einen gewissen Rückstand.
CUDA ist für Gamer uninteressant. Produktiv geb ich dir recht.
DLSS geb ich dir auch recht, ist aber nur noch eine Frage der Zeit.

Viele haben aber Gsync Monitore, da Nvidia bisher durchweg besser war, zumindest im Highend Segment.
Raytracing ist als aktuell nicht konkurrenkonkurrenzfähig.
Viele nutzen dann doch mal CUDA und dann kann der ein oder andere mit AMD ein böses Erwachen erleben.
Zudem bleibt AMD im Alltag ineffizient.
 
  • Gefällt mir
Reaktionen: larz
Maxminator schrieb:
Frage in die Runde: wozu die 16GB?! Hat man dadurch mehr FPS?
Hast den Test gelesen? Dann wüsstest du es ;)

Läuft der VRAM voll dann bricht die Karte ein....siehe Ghost Recon Breakpoint! Steht alles im Test.
 
Zurück
Oben