Test AMD Radeon RX 6800 XT im Test: RDNA 2 gegen Nvidia GeForce RTX 3000

NICHT schlecht Herr Specht (AMD) !

Alles was "versprochen" wurde :
  • doppelte Leistung zur 5700 XT (199 %)
  • RTX Leistung der 6800XT auf Niveau der 2080Ti (1259 € UVP zu Release)
  • 6800 vs. 3070
  • 6800XT vs. 3080 (dabei kommt sie sogar in OC der 3090 mit über doppeltem Preis nahe, ab und zu sogar darüber)
  • bis zu 20 % effizienter (Verbrauch)
  • und dann kommt ja noch die 6900XT vs. 3090 (inkl. 50 % (!!) günstiger)

Good Job AMD ! 🙃

MfG Föhn.
 
  • Gefällt mir
Reaktionen: Crankson, Cyberwiesel, Schorsch92 und 8 andere
czuncz schrieb:
dann hab ich ja alles richtig gemacht mit meiner 3080 für knapp unter 800 ;)

Nein, eigentlich nicht. 10GB Vram sind für den Preis einfach ein Witz. Die Rohleistung der Karte ist natürlich sehr gut...

LG

Micha

PS: Auch nix bekommen, kein Shop hat bei mir geladen :-( Echt sehr schade, weil ich gehofft hatte, endlich die R9 280X (Übergangskarte, die Vega VII ist verkauft) rausschmeißen zu können. Naja, vlt. wird es bei den Partner-Karten besser. Immer noch attraktiver als Referenz-Karten teilweise 200 € über UVP zu kaufen, WTF!
 
  • Gefällt mir
Reaktionen: Crankson, Nefcairon, Onkel Föhn und eine weitere Person
Ich bin mal gespannt wann meine 1080 in Rente geht. Mittlerweile ist mir das so wurscht ob rot oder grün, ich möcht einfach nen vernünftigen Sprung zu nem vernünftigen Preis bei 1440p. Ich bin kein Geizhals aber das ist mir zur Zeit alles echt zu heftig. Aber verständlich, alle hocken daheim und die Kohle ist da.
 
  • Gefällt mir
Reaktionen: digitalfrost, Onkel Föhn und Pulsar77
Sehr schönes Gerät!
Kühler scheint ja echt gut zu sein. Hoffentlich lernt Nvidia da auch noch ein bisschen von, da der FE Kühler doch recht laut ist bei über 68%
 
  • Gefällt mir
Reaktionen: Tzk
Ruppeldi schrieb:
Schade, dass SAM ja doch eher ein Marketing Gag zu sein scheint...
Nö, SAM drückt das Cpu Limit und ist deshalb je nach Spiel und vorallem bei niedrigeren Auflösungen im Vorteil. In 4K dagegen merkste nicht viel, sieht man ja auch hier im Test bei CB.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, iceshield, Pulsar77 und 2 andere
CrustiCroc schrieb:
aber dafür das es vorher hieß, die 3080 würde pulverisiert. Nope.

Ganz im ernst, wo stand das oder wer sagte so etwas, jemals?

Uns allen war klar, dass AMD - vergleichbar bzw. analog der CPUs - die Lücke schließen wird.

Je nach Game und Auflösung ist es ein Abwechseln. Und damit hat AMD die 3 Alternativen zur 3070, 3080 und 3090. Wunderbar für uns alle!

Dass Nvidia mit Ampere die zweite Raytracing Iteration stellt und damit diese 2 Jahre quasi "führt", war doch auch klar.

So minimal wie jetzt war der Vorsprung Nvidias vor AMD in den letzten Generationen nicht mehr!
 
  • Gefällt mir
Reaktionen: Crankson, Tschitta, Onkel Föhn und 5 andere
CrustiCroc schrieb:
Was mir wichtiger ist, ist die RT Performance. Da ist Team Grün einfach voraus. Man schaue sich mal RT in Spiderman Miles Morales an. Das ist grandios, und einfach die Zukunft.
Geht mir auch so, RTX is in Singleplayer mittlerweile etwas, worauf ich nicht mehr verzichten möchten, vor allem nicht wenn ich mir einer Karte für ~800€ kaufe (habe für meine 3080 829€ gezahlt). Und DLSS auf Quality sehen zB Watch Dogs Legion und COD Cold War genauso aus, wie ohne DLSS aber gibt nen ordenlichen FPS Schub.
Bin mega zufrieden mit meiner 3080.
 
Von die 6800xt wird die 3080 zerstören bis zu ist doch nur ein paar Prozentpunkte dahinter super Amd! Bei Pcgh sogar 10% dahinter. Amd fans sind die besten!xD
 
  • Gefällt mir
Reaktionen: CrustiCroc
Ich warte dann mal bis zum Frühjahr/Sommer und lege mir dann einen 5700X und eine RX 6700XT zu.
Das ist dann für mich der Sweetspot aus Leistung, Stromverbrauch, humaneren Preisen und eventuell ja sogar Verfügbarkeit.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Bei manchen Frage ich mich gerade was sie für Erwartungen hatten, wenn sie bei den Karten jetzt meckern. (Also wirklich über die Karten, nicht über die Preise oder die vollmundigen und leider dreist-falschen Versprechen zur Verfügbarkeit.)

Also auf Augenhöhe mit den 3000ern, effizient und mit genügend Speicher ausgerüstet. Und sogar ein gutes Referenzdesign. Das man das bei AMD mal erleben darf - Wahnsinn. Sind doch schöne Karten.

Dass nvidia hier wie Intel bei den CPUs düpiert wird - das kann doch keiner ernsthaft erwartet haben?!
 
  • Gefällt mir
Reaktionen: killbox13, loser, Schorsch92 und 5 andere
Gefühlt drehen sich 90% der Kommentare um die schlechte Verfügbarkeit...
Haben wir aus Ryzen 5000 und RTX3000 denn nichts gelernt? War doch klar, dass die Dinger direkt mal vergriffen sind und Wucherpreise verlangt werden. Ist jetzt nicht so überraschend, oder? Technisch gesehen hat AMD mit den 6000ern und Ryzen 5000 jedenfalls eine Bombenarbeit gemacht, vor allem angesichts der schwachen Jahre davor. Phoenix aus der Asche. Schade natürlich, dass diese Konkurrenz nicht Nvidia preislich runterzwingt, aber auch AMD hat nichts zu verschenken. Bei DER Nachfrage werden die Preise hoch bleiben, soviel steht fest.
Wird bei der 6900 wahrscheinlich noch schlimmer werden, vor allem, wenn sie tatsächlich die 3090 einholen sollte.
Ich denke immerhin, dass die AMD-Karten sich mit neuen Spielen noch besser schlagen werden, vor allem wegen SAM. Auf jeden Fall ein cooles Feature!
 
  • Gefällt mir
Reaktionen: Crankson, Onkel Föhn, Tzk und 2 andere
Wasn nun von der 6900 XT zu erwarten? 10%, 20% mehr Power für?
 
Dank Corona haben die Leute zuviel Geld über. Derzeit kann alles verkauft werden.

Ich warte auf die Nvidia 3600 und RX6600.
 
Tzk schrieb:
Nö, SAM drückt das Cpu Limit und ist deshalb je nach Spiel und vorallem bei niedrigeren Auflösungen im Vorteil. In 4K dagegen merkste nicht viel, sieht man ja auch hier im Test bei CB.

Der Punkt ist ja aber doch, dass ich die Karte tendenziell für den Einsatz in WQHD+ Auflösungen kaufe. Von daher verpufft der Effekt ein wenig wie du ja auch schreibst.
 
  • Gefällt mir
Reaktionen: stevefrogs
KlaraElfer schrieb:
Das ist einfach schwach, dass AMD derart Cherrypicking betreibt und ihre Werte derart schönt, auch SAM bringt nicht das was AMD suggeriert hat.

Letztendlich betreibst du mit der PCGH auch Cherrypicking. Die PCGH ist auch ein Kirschen-Benchmark, die messen Werte, die sonst keiner misst.

Rein gefühlt ist aber die Kombination KlaraElfer und PCGH aus mehreren Gesichtspunkten durchaus passend.
 
  • Gefällt mir
Reaktionen: Crankson, McFritte, eXe777 und 9 andere
Sehr gute Karten.

Tolle Leistung, konkurrenzfähige Preise, gute Kühlung, wenig Verbrauch im Idle, Energieverbrauch beim Spielen nicht so schlimm wie erwartet.

ABER: Was in aller Welt geht denn da mit dem Energieverbrauch bei YT-Videos ohne HDR ab?!?

Das ist etwas unschön. In meinen Augen das einzige wirkliche Manko.
 
  • Gefällt mir
Reaktionen: yummycandy
Die Custom modelle brauchts anscheinend ja nicht, also was die Kühlung angeht.
Und auch was die Lastspitzen angeht sind die karten top.

Da erübrigt sich mein Morpheus Test komplett :freak:

Mal kucken wan die referenzdesigns wieder zum UVp verfügbar sind.
Laut einem Schweizer händler sind die nämlich massiv limitiert. Bei den Customs soll es aber besser aussehen.

Cool blue hier in Holland hat die karten nur mit Platzhaltern gelistet.
cool blue.nl.png
 
  • Gefällt mir
Reaktionen: Marc53844
@ ComputerBase
Vielen Dank für den tollen und vor allem umfangreichen Test 👍

Ich bin auf mehreren Seiten unterwegs um Tests zu lesen, zuerst bei Igor auf YouTube, hier, bei PCGH und so weiter, aber hier ist der mit Abstand umfangreichste und übersichtlichste Test im Deutschsprachigem Raum zu finden 😃

Lob muss man auch mal ablassen.
 
  • Gefällt mir
Reaktionen: 0range, Cyberwiesel, McLovin14 und 4 andere
Erstmal vielen Dank für den ausführlichen Test, sehr spannend! Wäre es vielleicht irgendwie möglich, die Ray Tracing Performances in WoW @ 4k gegeneinander zu testen? Für Vergleichbarkeit vllt. Flug per Flugmeister über die gleiche Strecke oder so. Würde mich persönlich brennend interessieren, vor allem weil AMD ja angeblich da mit Blizzard eng zusammen gearbeitet hat.
(Ich weiß ich bin da eher in der Minderheit und es werden sich vermutlich gleich zig Leute darüber lustig machen, dass WoW eh schlecht aussehe und man da einfach ne low-end GPU verwenden solle...)
 
Zurück
Oben