Test Radeon RX 6900 XT im Test: AMDs „RX 6800 XTX“ im Duell mit Nvidias GeForce RTX 3090

Anhänge

  • AMD-Bestellung.png
    AMD-Bestellung.png
    37,3 KB · Aufrufe: 539
Artikel-Update: Zum Fall des Embargos war die Redaktion Benchmarks der Radeon RX 6900 XT im Anwendungs-Parcours noch schuldig geblieben, ein Fehler im Radeon ProRender mit der verwendeten Projektdatei für Blender verhinderte den kompletten Durchlauf. In Version 3.0.8 hat AMD den Fehler behoben und ComputerBase den Parcours inzwischen vollständig durchlaufen lassen. Auch Radeon RX 6800 XT und Radeon RX 6800 wurden noch einmal mit dem neuen Plugin getestet.
 
  • Gefällt mir
Reaktionen: gustlegga und wickedgonewild
Das Leistungsplus war ja bei den technischen Daten so zu erwarten.
Dass der Stromverbrauch nur minimal höher liegt ist dann doch recht positiv.

Freue mich auf die 7000er Karten, da wird dann wohl auch der Infinity Cache erhöht um den 4K Einbruch zu kompensieren. Bis dahin dürften die Preise aktueller Karten (egal ob AMD und nvidia) auch wieder auf Normallevel sinken.
 
  • Gefällt mir
Reaktionen: DaCrazyP
Zu UVP hätte ich mir die 3090 & 6900xt Karte zugelegt........aber so ist es leider nur die 3080 geworden
 
Dann lieber ne RTX 3090. Kostet gleich viel....
 
  • Gefällt mir
Reaktionen: DaCrazyP und PHuV
Mit den Preisen schlimmer als erwartet. Deshalb die 3090 genommen. Nächste Generation vielleicht AMD. Full Red System wäre was :D
 
  • Gefällt mir
Reaktionen: PHuV
Respekt für die Arbeit die in dem Test steckt!
Macht aber irgendwie keinen Spaß zu lesen weil man weiß dass man die Karten eh nicht bekommt.
Ist wie ne Rezension von nem Restaurant zu lesen was morgen zumacht.
 
  • Gefällt mir
Reaktionen: coral81, Jan, DannyA4 und 2 andere
DAS Duell um die "Papierkrone" ... :lol:
Hätte man vor Monaten erahnt was da abläuft, wäre man in diversen Foren gesperrt worden. :rolleyes:
 
Fehlen die Diagramme vom letzten Artikelupdate? Unter der Überschrift "Infinity Cache und 4K: Limitiert er in hohen Auflösungen? (Update)"
 
Ich hätte die 3090 nur genommen wenn sie nen Quadrotreiber und GeforceTreiber unterstützen würde dann wär der Preis auch OK aber für ne läpische billige fuckzockkarte neee neee Ledersökkchen so ned so is die karte nur zum Diagonalen Rektalen Einführen bei Scalpern gut bei der größe haha. Hat doch großspurig was von creator etc.. blabla and gaming gefasselt daher der preis. Aber die Quadros hätten noch hbm .... also hät es denen nicht weh getan die 3090er so zu verkaufen inkl. Quadrotreiber aber nee gier gier gier.
Immer nur halbe sachen zur zeit aufm Markt irgendwie, kapier gar ned das da alle hinterherhächeln wobei jo Herdentrieb und so 😂
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Zu was würdert ihr tendieren AMD oder Nvidea?
Bei den neuen Generation.
Abgesehen von der Verfügbarkeit und den Preisen.
Rein von der Leistung.
LG
 
Das kann man pauschal nicht sagen. Kommt auf deine Bedürfnisse und Wünsche an. Wenn du viel mit Raytracing in voller Qualität zocken willst, bleibt aktuell nur Nvidia (bei AMD kommt erst noch Raytracing in Games, jedoch ist die RX 6 Generation erst erste Generation von Raytracing). Abseits davon entscheidet dein persönlicher Geschmack. Da kannst du sowohl AMD wie Nvidia nehmen, unabhängig der Auflösung. Tun sich da beide nichts. Mal ist die Nvidia schneller, Mal die AMD. Willst du maximal mögliche Leistung und Geld ist egal, bleibt nur die RTX 3090 übrig....
 
  • Gefällt mir
Reaktionen: DannyA4
Das kann mir langsam keiner mehr Erzählen das die Karten egal ob Grün oder Rot nicht direkt an Miner Verkauft werden ! Ja TSMC ist voll Ausgelastet aber so eine Verfügbarkeit die man noch nichtmal so nennen dürfte kann ich mir nicht nur durch Ottonormal User erklären ! ByTheWay Schöne Karte AMD ist voll Zurück
 
  • Gefällt mir
Reaktionen: DannyA4
el osito schrieb:
Fehlen die Diagramme vom letzten Artikelupdate? Unter der Überschrift "Infinity Cache und 4K: Limitiert er in hohen Auflösungen? (Update)"
Antwort: Ja. Sehe ich mir gleich mal an. Bestimmt mein Fehler. °°
Ergänzung ()

Behoben (ja, ich war schuld).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard, vanillebear, DannyA4 und eine weitere Person
Muxxer schrieb:
Aber die Quadros hätten noch hbm .... also hät es denen nicht weh getan die 3090er so zu verkaufen inkl. Quadrotreiber aber nee gier gier gier.
Und die Treiber für speziell angepassten Quadro Support lässt du dann mit Kinderarbeit in China entwickeln, weil dir BWL Genie selbst geschenkt noch zu teuer ist oder wie?
Als ob da nicht der Support dahinter das teure wäre und nicht die Hardware ansich:freak:
 
Zuletzt bearbeitet:
MMIX schrieb:
Naja, wenn ich in Watch Dogs Legion in 4k mit Ultra Details Raytracing einschalte mit Stufe Ultra, reichen 10 GB nicht.... Das liegt dann schon drüber (10,5 GB). Daher sind zwei Jahre in 4k mit Raytracing sehr sportlich.

MMIX schrieb:
Yep, entweder zweite Generation von Raytracing bei Nvidia oder mehr VRAM bei AMD, aber "nur" erste Raytracing Generation. Lassen wir DLSS Mal außen vor, es ist ja bekannt das MS und AMD an Super Resolution arbeiten, also ein Konkurrent dazu kommt ja.
Wenn man DLSS "außen vor lässt" und Watch Dogs Legion in 4k/Ultra Details und Raytracing Stufe Ultra verwendet, können aber auch Massen an VRAM nichts mehr reißen, selbst eine gut bestückte RTX 3090 schafft in den Settings nur durchschnittlich 25,3 fps mit Einbrüchen auf 21,6 fps (0,2% Perzentil):
Watch Dogs: Legion im Technik-Test - ComputerBase

Bei der Performance sind 10 GB Grafikspeicher wohl kaum das größte Problem. Die RTX 3080 hat bei diesen extremen Einstellungen durchschnittlich 22 fps mit Einbrüchen auf 19,1 fps (0,2% Perzentil). Was könnte man da bei einer RTX 3080 mit 20 GB erwarten?

Durchschnittlich 23 fps mit Einbrüchen auf 20 fps (0,2% Perzentil)? Das würde es jetzt auch nicht rausreißen und das Spiel bei diesen Einstellungen angenehm spielbar machen.
 
  • Gefällt mir
Reaktionen: foo_1337
Zurück
Oben