Test AMD Radeon RX 6800 XT im Test: RDNA 2 gegen Nvidia GeForce RTX 3000

Wadenbeisser schrieb:
Weil im CPU Bereich von Team Blau (Intel) vs. Team Grün (AMD) geredet wird, die Herkunft ist denkbar einfach, die Farbe des Firmen Logos. Das Firmenlogo von ATI hatte welche Farbe? Genau, Rot.
Versuche so mal im GPU Bereich Team Grün mit Team Grün zu vergleichen.

Historisch gesehen ja, aber das ist nicht mehr der aktuelle Fall. Dennoch bleibe ich bei meiner Aussage, weil im Gesamtsystem PC sowohl bei rot, grün und blau eine verständliche Aufteilung. Auch bei weiteren Playern im GPU Bereich.
 
ColinMacLaren schrieb:
Ich nehme CoD Cold War, 4k, HDR, max Details, max RT.

DLSS OFF 65fps
DLSS ON 125fps

Noch Fragen, welche Karte besser ist? 😀

Ja, noch Fragen: Da ich kein COD spiele, sondern ein schwer gemoddetes Skyrim SE.
Du kannst nicht einfach so pauschalisieren, das bringt doch keinen weiter.
 
  • Gefällt mir
Reaktionen: schkai, 4to cka3al und bugmum
Wadenbeisser schrieb:
Weil das Logo von AMD derzeit Schwarz ist?

Woran soll man sonst die aktuelle Markenidentität festmachen? Nicht jede Marke behält immer die ursprüngliche Corporate Identity bei.

Wir haben hier allerdings unterschiedliche Meinung und das ist auch okay so. Zielführend für den Thread ist die Unterhaltung jedoch nicht.
 
Vitali.Metzger schrieb:
Die 6800 wird die 2080ti in neueren Games nach allem Anschein deutlich hinter sich lassen. In Assassins Creed Valhalla ist eine 6800xt in wqhd schneller als eine 3090.
Jup- Das ist halt wie immer das Problem, wenn man GPUs im CPU- Limit testet.
Schau mal, was das Spiel aus einem 5,2GHz 10900k (mit 3600CL16 RAM) macht und wie oft selbst der bremst:

Und schau Dir die GPU Auslastung der 3090 an. Wird nicht ausgelastet....

Was man allerdings tatsächlich als Information zum Vorteil von Big Navis rausziehen kann ist, dass diese im CPU Limit tatsächlich noch etwas mehr Leistung rauskitzeln können, als es Ampere tut.

Dennoch haben wir gerade bei AC Valhalla keinerlei Anhaltspunkte, was die Grafikkarten tatsächlich in 1080P oder 1440P leisten, da es offenbar keine CPU auf Erden gibt, die die großen Grafikkarten entsprechend füttern kann was wiederum nicht sehr für die Engine und Multicore- Fähigkeiten von AC Valhalla spricht.
 
Zuletzt bearbeitet:
JohnVescoya schrieb:
Was ich beeindruckend finde ist der TFLOP Vergleich:

3080: 29,8 TFLOPS
6800XT: 18,6 TFLOPS

Jetzt kann man darüber streiten, ob die Karten gleichschnell sind oder ob die 3080 5% schneller ist etc usw. Solche Unterschiede finde ich kaum beachtbar. Man kann grob sagen, dass sich beide im Rahmen von +-0-10% Performanceunterschied bewegen.

Und das bei 60% mehr Rohleistung (TFLOPS) der 3080!
Steiche Rohleistung setze theoretisch Leistung.

Aus diesem Grund hat man CPUs im Specmark verglichen.

Die vorhandenen Rechnenwerke müssen ausgelastet werden. Wenn das nicht geht, wie z. B. bei der Vega, nutzen die tollen FP-Werte nichts. Wie sich das Bild bei den RTX 30xx entwickelt werden wir sehen.

JohnVescoya schrieb:
Ich finde, bei diesem Launch kann man vorallem die subjektive Verdrehung von Fakten durch Nvidia Fanboys extrem gut beobachten.

Bitte, so ist es eben wenn Emotionen dominieren. Für beide Lager gilt, 5 % Vorsprung ist gigantisch, 5 % Rückstand ist vernachlässigbar.

Plötzlich finden viele AMD Fanboys den Infinity Cache klasse, bei Vega war die Speicherbandbreite ja so wichtig, ;) . Vor allem da sie ebenfalls nicht in Spieleperformance umgesetzt werden konnte.

Aber das kenne ich schon immer:
  • Mehr als 640 kByte Speicher? Braucht man nicht. Kaum gabs die entsprechenden Tools, hatten auch PCs 2 MByte Hauptspeicher und mehr.
  • Maus? Was will man den mit so einem Unsinn. Kaum gabs die auch für PCs, hatten alle eine Maus am PC
  • Als Mitte der 90iger AMD und die anderen Intel-Konkurenten bei der Integerleistung mit Intel mithalten konnten war plötzlich nur die Flotingpoint-Leitung wichtig.
  • Als dann AMD nachlegte, war die Flotingpoint-Leitung plötzlich wieder uninteressant
  • ...
 
  • Gefällt mir
Reaktionen: JohnVescoya
@Benni22

In der Regel behält man sowas bei um solche Diskussionen auch frühere Diskussionen noch verfolgen zu können. Sowas nennt man dann "historisch gewachsen". Dein "Rot" wäre dann aber für "AMD" so oder so falsch, in sofern würde ich dann auch mit Kritik die Füße still halten. Das kommt halt von ATI und ihrer "Radeon" Marke.
Ergänzung ()

.Sentinel. schrieb:
Und schau Dir die GPU Auslastung der 3090 an. Selbst die CPU schafft es nicht, die GPU auszulasten.
Immer wieder das gleiche. Man misst hier nicht die GPU sondern die CPU.
Das spannende an dem Thema ist dass dies genau der Fall sein könnte bei dem SAM greifen und für entsprechende Leistungssteigerungen sorgen kann. :D
 
  • Gefällt mir
Reaktionen: derSafran, Apocalypse und .Sentinel.
Erstmal, toller Test! Da hat das CB Team wirklich einen tollen Artikel verfasst. Nebenher ging noch das Video von IGOR und man ist bestens informiert.

GZ an AMD das Sie trotz „wenig“ Veränderungen geschafft haben so eine wirklich tolle Leistung abzuliefern. Und was die UVP angeht, ich denke es war abzusehen das die sofort geknackt wird.

Insgesamt finde ich ist AMD auf einem guten Weg. Es ist seit langem die 1. Generation wo man aufschließen will mit NVIDIA und das haben Sie auch geschafft. NVIDIA hat einfach den Vorteil das sie durch ihre ganzen Features ein wirklich eigenes Ökosystem geschaffen haben was auch wirklich gut funktioniert.

Was diverse Management-Entscheidungen angeht ist keiner so wirklich ohne Tadel. Beide können fast nichts liefern und das hätte man auch vermeiden können durch Kommunikation mit der Community.

Schön ist, Konkurrenz belebt das Geschäft und das wird in nächster Zeit wenn Intel noch hinzukommt sicher noch aufregender werden. Für die Hersteller und Kunden gleichermaßen.
 
washieiko schrieb:
Sorry, aber wir sprechen hier über die meistgespielten Spiele. Das hat für dich vlt keine Relevanz, für eSportler garantiert doch. Ich bin mir auch ziemlich sicher, dass enthusiastische eSportler eher zum Klientel gehören, das hochwertige Hardware kauft und für ihr Hobby oder sogar Traum ein wenig mehr Geld in die Hand nehmen.

Letzten Endes wären ausgiebige Benchmarks doch für alle von Vorteil. So kann dann jeder für seine Ansprüche die Daten auswerten. Will ich 4k auf max Details oder will ich FullHD Gaming mit maximalen FPS. Wo liegt der Sweetspot aus Preis/Leistung und was ist das maximale für mein Budget.

Hmmm...
Das menschliche Auge sieht Bewegungen mit rund 60 Bildern pro Sekunde, warum dies auch die Grenze für flüssige Wiedergabe von Spielen auf Monitoren ist. Wobei zu beachten ist, dass dies für die Mitte des Auges gilt. In Randbereichen werden Bewegungen besser wahrgenommen, darum lass ich mir 100 oder 144hz noch als sinnvoll einreden. (flimmerfrei)
Und die von dir genannten Spiele laufen geschätzt nun mal mit 300fps... Das kann welcher Monitor darstellen?, geschweige denn das menschliche Auge wahrnehmen.
Dazu reden wir in dem Bereich von ca. 3ms (bei 300fps). Der Ping ist bei 10-20ms, der Inputlag von Maus etc. wär dann auch noch zu beachten.
Und, als Progamer spielt man oft in niedrigsten Grafikdetails, um alles besser zu sehen. Was so eine Grafikkarte noch sinnloser mach, außer als Schw.n.vergleich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hokhmah
Nick.Bo schrieb:
NVIDIA hat einfach den Vorteil das sie durch ihre ganzen Features ein wirklich eigenes Ökosystem geschaffen haben was auch wirklich gut funktioniert.
Kann sich auf lange Sicht aber für den Kunden auch als Nachteil herausstellen. Hat nVidia doch mal wieder eine "schlechte" Generation, muss man entweder mit deren Leistung leben oder beim Wechsel auf genutzte Features verzichten bzw. unter Umständen sogar noch neue Peripherie anschaffen (G-Sync Monitor gegen FreeSync Monitor tauschen).

KLEMSI schrieb:
Wobei zu beachten ist, dass dies für die Mitte des Auges gilt. In Randbereichen werden Bewegungen besser wargenommen,
Den Effekt sieht man ja auch schön bei flackernden Leuchtstoffröhren. Das nimmt man beim direkt drauf gucken kaum war, aus dem Augenwinkel aber deutlicher.
 
  • Gefällt mir
Reaktionen: Rockstar85
Apocalypse schrieb:
Blöd nur, das die PCB Qualität bei AMD wohl diesmal weit vorne liegt. Wer hätte gedacht das im Grunde selbst für ne 6800xt ein gutes 550W Netzteil noch knapp reicht und zwar nicht nur weil weniger Strom verbraucht wird, sondern weil die Karten auf viel weniger die Netzteile belasten, einfach weil die Stromversorgung ein deutlich besseres Design hat.
Vega, ick hör dir Tapsen. ;) AMD baut seit Hawaii sehr gute Referenz PCB, hat aber leider immer zu viel Vcore auf den Modellen. AMD ist auch bei der Validierung auf dem richtigen Weg und wenn SAP für AMD zertifiziert ist, dann wird auch hier merklich der Anteil steigen.
Aber AMD kann zurecht für die Kühllösung kritisiert werden. Die PCB sind seit Jahren State of The Art.
Selbst die "Überlastung" der pcie Richtlinie bei Polaris 480 war kein Thema. Und mit etwas UV brilliert die Navi regelrecht. Ich bin erstaunt wie leistungsstabil die Karten Trotz UV sind.
 
  • Gefällt mir
Reaktionen: DonL_
KlaraElfer schrieb:
Die Werte bei HWU zeigen einen Unterschied von lediglich 8 bis 12% von 6800 zu 6800XT.
Alle anderen Tests sehen da mindestens 15%, CB 17% in UHD und 16% in WQHD, also da ist was nicht koscher.

Ach Klara,
nur weil dir die Ergebnisse nicht gefallen, sind sie nicht automatisch falsch.
Steve hat mit Abstand von allen Reviewern den modernsten Spielparcours, dort wo RDNA 2 am besten abschneidet, deshalb sehen beide KArten bei HW auch besonders gut aus, und HW zeigt sehr deutlich wo es in Zukunft hingeht. Das bestätigen übrigens die Messungen von CB in den neusten Titeln, wo außer in Mafia, AMD absolut die Bude rockt und auch die kleine 6800 massivst an der 3070 vorbei zieht.
Gerade in 2560p ist die kleine 6800 wohl das absolute Maß der Dinge von Performace, Preis und Verbrauch.

Meine nächste Karte im nächsten Früjahr, wenn sich alles beruhigt hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nefcairon, Alpha008, Kalsarikännit und 4 andere
ETI1120 schrieb:
Plötzlich finden viele AMD Fanboys den Infinity Cache klasse, bei Vega war die Speicherbandbreite ja so wichtig, ;) . Vor allem da sie ebenfalls nicht in Spieleperformance umgesetzt werden konnte.
You got pretty burned in post #1614. Just saying.
 
  • Gefällt mir
Reaktionen: Rockstar85
Hallo Leute,
sehr interessanter Test, vielen Dank dafür!
Die neunen AMD Karten scheinen ja sehr stark verbessert zu sein, wirklich nett.
Allerdings brauche ich eine neue Graka für full-HD, also deutlich "kleiner" als die 6800er.
Weis Jemand was in dem Bereich noch kommen soll?!
Gruß, Zen
 
Zuletzt bearbeitet:
@DonL_

Das Problem ist das der Teufel meist im Detail steckt.
Wählt man die Grafikeinstellungen zu schwach weil man z.B. auch die unteren Leistungsklassen im spielbaren Bereich haben will dann wächst die Benchmark Config zu schnell aus dem GPU lastigen Bereich raus und in den CPU lastigen Bereich rein, welches sich z.B. durch geringere Abstände in den oberen Leistungsklassen ankündigt und da idR. niemand auf die GPU Auslastung achtet bekommt man das auch eher selten mit und zieht erst nach wenn es offensichtlich ist.
 
  • Gefällt mir
Reaktionen: .Sentinel.
ZEN schrieb:
Allerdings brauche ich eine neue Graka für full-HD, also deutlich "kleiner" als die 6800er.

Bisher sind mit nur eine 6700 und 6700XT bekannt (Januar 2021). Wahrscheinlich wird auch noch eine 6600 und 6500 kommen - ich denke aber das damit nicht allzu schnell zu rechnen ist.
 
  • Gefällt mir
Reaktionen: Nefcairon und ZEN
Dark-Silent schrieb:
Du kannst dir per Watman oder MSI Afterburnertool ein Desktop und Video Profil anlegen und in welchem du dir den Ramtackt auf min. setzt und gut ist.

Das habe ich schon gelesen. Sollte ich eine 3080(XT) bekommen, würde ich das auch tun. Aber das muss man halt wissen, daher nur die Frage ob das eher ein "Stock-Problem" ist, was seitens AMD angegangen wird oder eben "ist halt so, da passiert nix".
 
Wadenbeisser schrieb:
Das spannende an dem Thema ist dass dies genau der Fall sein könnte bei dem SAM greifen und für entsprechende Leistungssteigerungen sorgen kann.
Was übrigens wohl auch von Nvidia kommen wird. AMD hat zumindest gesagt, dass die dabei unterstützen werden. Macht auch Sinn, weil vermutlich ein sehr großer Teil Nvidia Karten auf einem Ryzen Unterbau betreiben wird.
https://www.reddit.com/r/nvidia/comments/jwr1h1/amd_vice_president_scott_herkleman_nvidia_sam_on/
 
  • Gefällt mir
Reaktionen: darkspark und Rockstar85
ETI1120 schrieb:
Plötzlich finden viele AMD Fanboys den Infinity Cache klasse, bei Vega war die Speicherbandbreite ja so wichtig, ;) . Vor allem da sie ebenfalls nicht in Spieleperformance umgesetzt werden konnte.
Das liegt vielleicht daran das es um das gleiche Problem geht, wobei der Speicherausbau eher zur Diskussion stand. ;)

Das grundsätzliche Problem ist nunmal das nicht alle Teile des Berechnungsvorgangs viel Bandbreite oder viel Speicherplatz benötigen. Im Gegenteil, oftmals sind beim Rendervorgang eher sind vor allem kleine Berechnungen mit wenig Speicherbedarf die Bandbreitenfresser nur ohne entsprechenden Cache muss halt die Bandbreite des VRAM herhalten. Genau hier setzt der Infinity Cache an, man trennt die Bandbreitenfresser von den Speicherplatz fressern. Ein ähnliches Konzept verfolgte z.B. Intel bei der Iris Pro Grafik mit dem eDRAM.
Ergänzung ()

Phear schrieb:
Was übrigens wohl auch von Nvidia kommen wird.
Die Frage ist eben in wie weit das Ergebnis vergleichbar sein wird.
Ich vermute das ihre Lösung auf die gleichen Voraussetzungen wie AMDs SAM Lösung angewiesen ist und vermutlich auch nur bei den entsprechenden Prozessor Modellen performan kann weil die technischen Hürden der alten Infrastruktur so hoch sind dass die Voraussetzungen ganz einfach nicht gegeben sind oder die Vorteile wieder aufgefressen werden.

Das muss sich erst noch zeigen.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben