Test Radeon RX 6900 XT im Test: AMDs „RX 6800 XTX“ im Duell mit Nvidias GeForce RTX 3090

Aufgebrezelt (mit Wasserkuehler, somit immer noch deutlich guenstiger als eine RTX 3090) schafft eine RX 6900XT auch eine (Rasterisierungs-)Leistung auf Augenhoehe mit einer RTX 3090, siehe nachfolgendes Video von Igor'sLab:


Tja, damit verliert eine RTX 3090 fast die Daseinsberechtigung (angesichts der nVidia Preisvorstellungen fuer diese), wenn man nicht in gerade einmal einem halben Dutzend gehypten Titeln RT-Raytracing und/oder DLSS nutzen will oder aber professionelle Software mit Hilfe der verbauten 24GB Speicher und fuer eine Gaming-GPU staerkere Compute-Leistung nutzen moechte.

So gesehen ist diese RX 6900XT gar nicht so schlecht/teuer fuer ein Halo-Produkt (im Vergleich zu dem RTX 3090 Halo-Produkt der Konkurrenz). Kaufen wuerde ich mir eine solche aber auch nicht und schliesslich will man sich noch (kuenstlich) mit einer kolportierten RTX 3080Ti seitens nVidia in den Benchmarks vor eine RX 6900XT schieben, aber natuerlich ohne Beruecksichtigung von OC bzw. schlechter Effizienz (auf RTX Ampere Niveau) ;).
Ergänzung ()

thepate94227 schrieb:
... das Review von JayzTwoCents gesehen:
Der würde die 6900XT aus mmn nachvollziehbaren Gründen nicht empfehlen. Schade, bei den GPUs ist wohl idr Nvidia die bessere Wahl. Ich bin gespannt, was es alles an Hardware 2022 geben wird.

JayzTwoCents schaue ich mir auch gerne an, da i.d.R. sehr unterhaltsam, aber wirklich unvoreingenommen ist er (leider) auch nicht (da ist Steve Burke von Gamer's Nexus m.M.n. objektiver), das gibt er auch (in diesem Video) offen zu, dass er tendenziell ein nVidia Fan ist und zudem sammelt er seit der GTX 780Ti die Kingpin EVGA GPUs.

JayzTwoCents ist m.M.n. noch ein groesserer EVGA als nVidia Fan (auch wenn einige boese Zungen ihn als nVidia TechTuber titulieren), was ja auch okay ist, aber angesichts dessen sollte man einige seiner geaeusserten Ansichten eher mit Vorsicht geniessen und ich denke Igor's Rezension und auch die von @Wolfgang hier sind da um Klassen objektiver und besser gelungen.


Um noch einmal auf JayzTwoCents zurueck zu kommen, ich teile aber seine Meinung, dass eine RX 6800(XT) da deutlich attraktiver und sinnvoller ist vom Preis-Leistungsverhaeltnis her als die vor kurzem vorgestellte RX 6900XT ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: thepate94227 und DannyA4
BlackRain85 schrieb:
dann ist der beste "BANG FOR BUCK" im Moment die 6900XT. (In einem Universum wo es nur die 3090 und die 6900XT gibt)


Hm dann leben wir in verschiedenen Universen muss ich sagen.... Auch wenn die uvp günstiger sein mag wo bekommt man die aktuell? Ebay ist praktisch alles. 1500euro und mehr

Da bekommt man aktuell die 3090 fe günstiger denn die wird immer mal wieder zum uvp angeboten und Dank vieler Partnerkarten ist hier die chanse leicht höher eine zu bekommen

Den die 6900 ist noch neu und die Wiederverkäufer sind da sehr spitz drauf
 
Für mich ist die 6800XT die Karte mit dem aktuell besten P/L Verhältnis. Die 6900XT bietet für mich zu wenig Mehrleistung für so viel Aufpreis. Außerdem gehe ich davon aus, auch mit der 6800XT in den nächsten Jahren Spiele mit hoher Qualität spielen zu können.

NVidia kommt für mich aufgrund des teilweise noch mal deutlich höheren Stromverbrauches und des verhältnismäßig kleinen VRam nicht in frage derzeit. Auf RT und DLSS kann ich glaube verzichten bzw. bieten ja auch die AMD Karten RT, wenngleich auch auf einem niedrigeren Leistungsniveau.

Für mich wird es daher in den kommenden Monaten vermutlich eine Gaming X Trio 6800XT :)
 
  • Gefällt mir
Reaktionen: DannyA4
Apocalypse schrieb:
Ja, warum auch DrFreak. Und wenn das Spiel gar nicht läuft, tragen wir ne Null FPS ein und bewerten so die Leistungsfähigkeit der GPU.

Wozu verschwende ich überhaupt meine Zeit darauf zu antworten.

Wenn Wolcen scheiße läuft, dann läuft es scheiße. In Zukunft kann es anders aussehen, aber momentan ist es nicht so. Wenn wir nur Spiele auswählen dürfen, die super laufen, dann kann man es sich sparen den Durchschnitt auszurechnen.
In 4k liegen die Karten auf Augenhöhe, darf man hier Wolcen dann auch nicht verwenden? Oder ist es hier plötzlich wieder erlaubt?
 
ohne SAM

ohne SAM

btw.
Lohnt sich Das? (AA=mangelhaft, Tearing/Flackern bei schnellen Drehungen?)
Bin mal gespannt wie RT=off in Nativ mit HDR ausschaut auf RX6000.(x)

(x) Ohne RT auf jeden Fall gut spielbar:
 

Anhänge

  • CP_RT=off.png
    CP_RT=off.png
    482,4 KB · Aufrufe: 276
  • CP_1440p.png
    CP_1440p.png
    82,2 KB · Aufrufe: 278
  • CP@RT.png
    CP@RT.png
    70,2 KB · Aufrufe: 275
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DannyA4
Der einzige Grund warum einige HW Channels die 6900 XT nicht empfehlen ist ihre Preis Leistung. Wer das beste haben will, schaut aber meist nicht nach dem P/L sondern nur nach Leistung absolut. Für viele lautet da die Antwort 6900 XT für andere auch 3090 je nach Ziel.

Nehmen wir doch die vielzitierten High Refresh Rate FHD Competitive Gamers.
Für sie lautete die Antwort nach dem Besten vor einem Jahr 2080Ti auf 9900K.
Heuer sind es 6900XT auf Ryzen 5900.

Und trotzdem obwohl HW Unboxed und JayZ die nicht empfehlen, sogar abraten werden die gekauft. Muss jeder selber wissen wohin mit seiner Kohle.

Und sie haben Recht: Leute kauft keine HW über 500 EUR. Dann kommen die Preise auch wieder etwas runter.
 
  • Gefällt mir
Reaktionen: PogoPogo und Colindo
HFR Freaks setzten auf 3090 und nicht 6900XT. Eigentlich auch logisch. Selbst Performance/Watt ist bei der 3090 besser. Dennoch, auch wenn ich mich wiederhole, ist die 6900XT ein super Produkt.

Mal sehen was eher kommt: DLSS auf AMD oder SAM auf Nvidia ^^. Letzteres sorgt für bessere Frametimes und Min fps bei vergurkten Engines und ersteres für Spielbares RT
 
LencoX2 schrieb:
Nehmen wir doch die vielzitierten High Refresh Rate FHD Competitive Gamers.
Für sie lautete die Antwort nach dem Besten vor einem Jahr 2080Ti auf 9900K.
Heuer sind es 6900XT auf Ryzen 5900.
.... Muss jeder selber wissen wohin mit seiner Kohle.

Und sie haben Recht: Leute kauft keine HW über 500 EUR. Dann kommen die Preise auch wieder etwas runter.
Für Sowas ist die kleine 6800 nonXT + 5600x doch oft ausreichend: Durch SAM sind die 95% so gut.
Da kannste bei 400 Fps+ sogar noch Downsampling von QHD auf FHD machen.

Bzgl. 5600x gibts nen interessanten Vgl. mit 2x Ram vs. 4x Ram-Riegeln:
AMD Ryzen 5 5600X im Test: Gaming-Leistung mit Standardtakt und 4,7 GHz OC
 

Anhänge

  • Counterstrike-95%.png
    Counterstrike-95%.png
    190,4 KB · Aufrufe: 286
Zuletzt bearbeitet:
Wo kann man denn eine 6900 (vor-)bestellen?
In allen Shops die ich bisher durchsucht habe ist die nicht mal gelistet.
 

Anhänge

  • 6900@h2o-Temps.png
    6900@h2o-Temps.png
    28,7 KB · Aufrufe: 270
Salamimander schrieb:
HFR Freaks setzten auf 3090 und nicht 6900XT. Eigentlich auch logisch.

Warum ist das so logisch? Die 3090 kann sich eher in 4K von der 6900XT absetzen. Außerdem durch RTX und DLSS. Alles drei würde ich mal sagen verwenden HFR-Freaks eher seltener.

Salamimander schrieb:
Selbstst Performance/Watt ist bei der 3090 besser.
Ähm nein? Guck mal im Test bei Performance pro Watt.
 
  • Gefällt mir
Reaktionen: PS828, DannyA4 und GerryB
Salamimander schrieb:
HFR Freaks setzten auf 3090 und nicht 6900XT. Eigentlich auch logisch. Selbst Performance/Watt ist bei der 3090 besser.
Bitte, was? Perf/W ist die 6900XT in allen Auflösungen besser
1607585809532.png

Und wenn man Wolcen und Trackmania ausklammert, ist die 6900XT auch bei der Leistung vorne. Die deutlich bessere Auslastung unter FHD ist doch bekannt.
1607585914235.png

Dazu kommt, dass beim High-FPS-Test auf CB die 5700XT damals sehr gut abgeschnitten hat, es ist also sehr wahrscheinlich, dass AMD weiterhin bei hohen FPS (niedrigen Settings) Vorteile gegenüber Nvidia hat. Am stärksten war sie da in WQHD.
1607586075134.png
 
  • Gefällt mir
Reaktionen: DannyA4
joomoo schrieb:
Ähm nein? Guck mal im Test bei Performance pro Watt.
Seh ich auch so, wenn man mal die dunkelgrünen Games net anschaut.
Über die "neuen Games" wollen wir gar net erst reden, dann ...

btw.
Gings net eigentlich um die Eignung für HighFps in FHD?
(möchte gar net wissen, wie Das mit SAM ausgeht..)
 

Anhänge

  • 6900_270W.png
    6900_270W.png
    85,9 KB · Aufrufe: 273
  • BallerspieleNEU.png
    BallerspieleNEU.png
    41,4 KB · Aufrufe: 274
Zuletzt bearbeitet:
GerryB schrieb:
Evtl. kannst Du ja 2 Szenen nehmen, einmal den Benchmark im Haus mit Feuer und einmal draussen.(2x2 Tests)
Dann wüssten wir es ganz genau, wie der Unterschied zustande kommt.

Hab's heute mal getestet. Ich musste tatsächlich den Built-in Benchmark verwenden, damit Schwankungen diese geringen Unterschiede nicht überlagern.

1607587746873.png

Es sind 4.3% vs. 2.4% Performanceverlust durch die beiden Features. Die 4.3% sind durchaus signifikant, aber ist das wirklich "kriegsentscheidend" gegen die 2.4% bei der Nvidia Karte?
Ergänzung ()


Colindo schrieb:
Assassin's Creed ist doch historisch gesehen ein NVidia-Titel. Zwar ist seit Odyssey AMD mit im Team, an der Optimierung für Nvidia hatte das aber nichts geändert:
Ich habe mir die Benchmarks nochmal in Ruhe angeschaut. Es ist tatsächlich so, dass AC:Od wie erwartet normal auf Nvidia Karten läuft. Einzig AC:Val sticht hier ungewöhnlich heraus. Dennoch wundert es mich, dass Nvidia bei einem derartig bekannten AAA Titel noch keinen Treiber gebracht hat, der die Lücke zu dem, was man als normalen Unterschieden erwarten würde, schließt.

Strange Brigade war auch so ein Fall, wo eine Radeon VII eine zeitlang deutlich vorne lag. Aber Nvidia hatte zügig Updates nachgeliefert, die am Ende sogar zusammengerechnet fast 20% ausgemacht haben. Die genaue Zahl weiß ich allerdings nicht mehr.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Colindo, Iscaran, DannyA4 und eine weitere Person
ZeroStrat schrieb:
Hab's heute mal getestet. Ich musste tatsächlich den Built-in Benchmark verwenden, damit Schwankungen diese geringen Unterschiede nicht überlagern.

Es sind 4.3% vs. 2.4% Performanceverlust durch die beiden Features. Die 4.3% sind durchaus signifikant, aber ist das wirklich "kriegsentscheidend" gegen die 2.4% bei der Nvidia Karte?
Danke erstmal!

Für vernünftige Leute sind 5% mehr oder weniger sicher net wichtig, man kann ja die Regler nutzen.
(Nur Was in den Threads manchmal so abgeht, da schlagen sich die Leute die Köpfe ein wg. 1%.)

edit:
Bzgl. AC-Serie waren die älteren Titel für AMD echt net zu gebrauchen.
Da ist schon der Einsatz von DXVK net echte Hilfe:
 

Anhänge

  • DXVK.png
    DXVK.png
    42,7 KB · Aufrufe: 261
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DannyA4 und ZeroStrat
4-5% Impact für ein Feature das EINDEUTIG eine Präferenz zeigt...IMHO sollte man sowas in Tests schon eher optional machen und nicht in die Allgemeine Wertung reinpacken.

Bei den Min FPS sind es bis 7% übrigens (also Nvidia ~0% AMD ca 7% zusätzlichen Verlust bei den Min FPS wegen PhysX spackereien).

Also ich würde so etwas schon gern "Getrennt" von anderen overall benchmarks sehen wollen.

Bei SAM mit einer ähnlichen Größenordnung an "Impact" wird groß rumgeschrieben, daß man das ja sauber trennt aber hier soll es dann egal sein. Für mich zweierlei Maß.

EDIT: Danke für den Test übrigens !
 
  • Gefällt mir
Reaktionen: GerryB
Wie wirkt sich Das überhaupt auf den Verbrauch aus? (x)

CB hat ja lange mit ME die Messung gemacht.
(u.A. auch bei Lautstärke und Temps)

(x) Gerade bei den neuen Grakas, die stark am PL hängen wäre Das mal interessant.
 
Zuletzt bearbeitet:
Chismon schrieb:
Aufgebrezelt (mit Wasserkuehler, somit immer noch deutlich guenstiger als eine RTX 3090) schafft eine RX 6900XT auch eine (Rasterisierungs-)Leistung auf Augenhoehe mit einer RTX 3090, siehe nachfolgendes Video von Igor'sLab:

n
Nein auch aufgebrezelt wassergekühlt und mit Volt mod kommt sie nicht dorthin wo eine luftgekühlte 3090 landet
https://www.3dmark.com/compare/spy/16111977/spy/16096821#

Und dann fehlt immer noch die Raytracingleistung, RTX Voice, DLSS, Cuda ,Nvidia Broadcast , die aktuellsten Videocodecs und 8 GB mehr Vram auf der Betrachtungsliste.
Was sicherlich nicht jeder für unwichtig erachtet wie du jetzt.

Zudem kann man die 3090 auch aufbretzeln mit einem Wasserkühler und mit einem Voltmod versehen ,um dann nicht diesen unsinnigen Stock vs heavily modified Vergleich heran zu ziehen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: joomoo
Wieviel Watt haut denn deine OC 3090 mit 2.115 GHz raus ? 450 W?

Bring mal eine 6900 XT auf diese Wattage und vergleiche dann...:-) Oh wait, geht ja nicht da AMD das PT bei 345 W kappt. Aber nice mit +20% Power ist die RTX 3090 immer noch +1% schneller.
Yes die Krone kann nVidia behalten - die Welt ist gerettet.

Wer Ironie/Satire/Polemik findet kann sie behalten :-):
 
  • Gefällt mir
Reaktionen: Hardwarious und DannyA4
Zurück
Oben