Test Radeon vs. GeForce im Test: RX 6900 XT „XTXH“ und RTX 3090 im (OC-)Spitzenduell

Ich will die Zeiten zurück, wo man eine HD4870x2 für rund 400€ bekommen hat....uff.
Jetzt verdient man endlich gutes Geld mit seiner Arbeit und kann trotzdem nicht einfach ohne nachzudenken seinen Rechner ans Limit prügeln, weil alleine die Grafikkarte schon so viel wie ein einfacher Gebrauchtwagen kostet xD Absurd ist das alles geworden. Mein Limit für eine GPU liegt so bei 600-700€.
Ich mach den Wahnsinn nicht mit. Meine 5700XT darf gerne noch lange durchhalten.
 
  • Gefällt mir
Reaktionen: MegaDriver, cma_i, Onkel Föhn und eine weitere Person
Die 3090er bringen aktuell ungefähr 7€ am Tag, die 6900er nur die Hälfte wobei da nicht aller Tage Abend sein sollte. Die AMD Karten reifen i.d.R. wie guter Wein, sind aktuell günstiger zu haben und erfreuen das Gamerherz. Würde dennoch keien kaufen und zur 3090 greifen wenn ich nicht schon hätte. Die Mehrkosten sind schnell drin.
 
DannyA4 schrieb:
Ist es das tatsächlich? Ist die 6900XT Energietechnisch größerer Schwachsinn als die 6800XT?
Nein, die 300W der 6800XT sind auch bereits weit über dem Sweetspot.
Sieht man ja bei all den UV versuchen hier im Forum... 10-15% Leistungs verlust wenn die Graka mit 150-200W Arbeitet.
Aber hey, Solange 300W Gut zu Kühlen sind, die Stromstecker das hergeben und man dafür Platz1 auf der Rangliste hat wird das weiter so gemacht.
 
  • Gefällt mir
Reaktionen: el_froggo
Lautstärke Vergleich Stock und OC wäre noch toll gewesen.
 
  • Gefällt mir
Reaktionen: t3chn0
Hätte nicht gedacht, dass die 3090 mehr nimmt als meine Elektroheizung. Vielleicht sollte ich die besser an die Wand hängen.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
HardRockDude schrieb:
Können wir mal darüber reden, wie der Buchstabe X es schafft, so "cool" zu sein und wirklich fast überall das gleiche zu erreichen - nämlich etwas besonderes darzustellen, mysteriöses, interessantes, schnell, kantig, abgehoben, noch einen drauf gesetzt, extrem?
Das kommt von der Mathematik! Weil in der Schule immer X gesucht wird und alle Leute Mathe so lieben haben produkte mit einem X im namen den Vorteil.
t3chn0 schrieb:
Hier reden immer alle so toll von "UV", auch bei der 6900XT. Wenn ich bei meiner Karte nur 1% UV, obwohl sie komplett stock läuft, schmiert mir die Karte nach 15 Minuten Battlefield 2042 mit einem DX Error ab.
Pro Tipp. Kein BF2042 zocken!

Scherz beiseite.
Das Beste Tool um Probleme mit der Spannung festzustellen ist IMHO immernoch das GPUTool.
Wenn das Stabil läuft hat man sonst nur noch Probleme wenn Raytracing benutzt wird. Also Port Royal Benchmark nicht durch läuft.
 
Mich würde ja ein Undervolting-Test sehr interessieren. Die Stromersparnis wäre das eine, aber gleichzeitig könnte man die Karten deutlich leiser bekommen.
So dicke Klopper hatte ich noch nicht im Rechner, aber zumindest bei Mittelklasse-AMD Karten war da immer recht viel rauszuholen. Und je nach Karte taktet diese am Ende auch noch höher, da sie kühler läuft.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Wir leben in einer verrückten Zeit. AMD hat schnellere Grafikkarten als Nvidia und schnellere Prozessoren als Intel und ist auch noch effizienter.
Im Endeffekt zwar egal, weil kaufen kann man gerade eh keine Grafikkarten, aber danke für den Test. Wenn sich die Situation in 1-2 Jahren mal entspannt, liest man die Tests halt nochmal:freak::daumen:
 
  • Gefällt mir
Reaktionen: MegaDriver
usernamehere schrieb:
…Wenn sich die Situation in 1-2 Jahren mal entspannt, …
Der war gut. 🤣 Mein Gefühl sagt mir, dass sich da so schnell nichts entspannt.
 
  • Gefällt mir
Reaktionen: Col. Jessep und Onkel Föhn
Max007 schrieb:
6900XT/6800XT muss man einfach undervolten, ich habe von 1.175 mV auf 1.075mV uv und habe in Konsequenz die gleichen Taktraten bei niedrigeren Temps. Kann ich allen 6800/6900 XT Besitzern dringend empfehlen.
Bei mir läuft eine 6800XT bei 0,881V und 2200MHz im Treiber. Das ganze bei ca. 180W Verbrauch unter 100% Last. Das Gehäuse ist offen und die Lüfter drehen dabei selbst unter Volllast bei maximal 25%.

Letzen Winter hatte ich eine RTX 3090 und sie lief mit UV auch bei 250W ohne nennenswerten Leistungsverlust.
 
XTXH is scho nen Biest, hab selbst die MSI Gaming Z, wird zwar stellenweise schon "laut" sofern man sie nicht PPT limitiert, aber die Taktraten für ne luftgekühlte Karte (@stock BIOS) sind echt irre.
 

Anhänge

  • Screenshot 2021-10-29 064450.jpg
    Screenshot 2021-10-29 064450.jpg
    229,3 KB · Aufrufe: 288
  • Gefällt mir
Reaktionen: Onkel Föhn
Auch wenn ich verstehe, wie so ein Test entsteht, ist doch etwas Kritik angebracht.
Die Grafikkarten-Performance setzt sich aus vielen Teilen zusammen, u.a.:
-Boarddesign
-VRMs
-Kühlung
-Güte von GPU und RAM
usw.
Eine Stichprobe vom Umfang n=1 lässt es einfach nicht zu, seriös darüber zu urteilen, ob die eine oder die andere Karte mehr OC Potential besitzt.
Man kann seriös lediglich die Performance mit der offizielle Spezifikation vergleichen, da zumindest das alle Karten schaffen müssen.
Aber selbst dann wird es mit der Leistungsaufnahme und Temperatur und damit Lautstärke schon knifflig.
Will man es mathematisch einigermaßen sicher machen, müsste man minimum 20 Karten pro Modell testen und selbst dann klappt es nur, wenn die Karten zufällig ausgewählt werden.
Kommen alle aus der gleichen Charge wird es schon wieder haarig.
Und bei einem Unterschied von 1% müsste die Stichprobe schon sehr groß werden, will man -sagen wir Mal zu 95% sicher- sagen, dass die eine oder die andere im Mittel schneller ist.
Um das zu schaffen dürften sich nämlich die Konfidenzintervalle der durchschnittlichen Leistung nicht überlappen.
Damit das klappt müsste entweder die Streuung der Leistung innerhalb einer Grafikkarte Serie (z.B. Asus 3090 Strix OC) sehr klein sein (glaube ich nicht), oder eben der Stichprobenumfang sehr groß.

TL;DR:
Too close to call. Da jede Karte etwas anders ist müsste man zig Karten testen, um einigermaßen sicher sagen zu können wie schnell sie im Durchschnitt sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Innocience, hurcos, DeadMan666 und 2 andere
Ist ja abenteuerlich das einige glauben mit uv mehr takt zu bekommen.
Seitdem amd und nvidia die auto OC in ihren treiber und gpu eingebunden haben ist quasi manuelles Oc komplett sinnfrei man kann das nur noch mit den vorgaben vom Tool des treibers/amd treiber sogar intrigiert nvidia die bekannten tools wie afterburner und co oc oder stromsparen
Da aber uv immer mit dem pt zusammenhängt lässt sich so der maxed takt ermitteln
Wer aber glaubt dann mit nur 80% PT dann maximalen takt erreicht wird enttäuscht so geht das nicht
manuelles eingreifen in die vcore tabelle im vbios kann man sich gleich sparen in software resultiert das dann zu irreführende angaben.
In hardware blockt der treiber das gilt bei amd sowie nvidia.
Einzige lösung um die effizienz des chips festzustellen pt herunter standard clock belassen
Dann erkennt man wie weit am die gpu oc kann. mit 20% pt erhöhung bevor eine wand kommt. Die zusätzliche energie aufwand faktor 1,33 oder mehr sollte man aber beachten bei ner rtx3090 die schon ab werk am limit ist
Lässt sich das nur nur durch hardware mod oder viel glück beim chip was herausholen
Die 375-400w PT sind eine mauer und der vram frisst alleine 34w und wie vom mir gesagt wird der 3090ti 2gbits chips habe und der strombedarf halbiert also nur noch 17w
Das bringt mehr w an die gpu was dann bis zu 5% bringen wird bei 25% mehr strom bedarf
Vom tbp 450w ausgehend wäre das 275*1,44=413w bei 1,20v und dann 2,1ghz bis man beim power limit ankommt.
Was bringt das maximal vs jetzt 10% wovon 5% wegen der shader und 5% wegen des taktes.
und ich gehe vom optimum aus das 275w bei 1,85ghz und 275w chip zieht
Da hier der vollausbau etwas effizienter unterwegs ist (wegen chipqualität)
Natürlich können da hier und da 1-2% mehr oder weniger sein.
Wie gesagt die rx6900xt kommt der rtx3090 zu nah was definitiv ein cpu limit besteht.
Nur mit was testen wo man kein cpu limit hat 8k?
ich sehe keine chance das ab dieser gpu klasse irgendwas bring zu oc selbst in 4k bringt das nix
ich würde eher die gpu auf 90% pt setzen und hoffen das der ga102 auf 1,8ghz mit nur noch 250w zieht. bei angenommenen 1,1v was bei 1,9,ghz dann in 300w resultiert
laut dieser rechnung kommt der ga102 auf maxed 1,12v bevor das pt limitiert=344w+34w vram
ich gehe von nen sweetspot von 1,75ghz bei 227w aus+34w vram
Aber die gpu load wäre hier sehr interessant.
womit testen das ist die frage stabilität das übliche timespy und port royal
Eventuelll heaven benchmark (sehr temp fordernd) das sind aber nur indizien für stabilität
UV ist sehr schwer herauszufinden mit mit @stocks Settings Takt und 80PT und beobachten ob der takt sinkt hat man ne indiz wie weit man oc kann gibt chips die sind so schlecht das sogar bei 90% pt schon der takt sinkt.
aber auch chips die erst ab 70% PT der takt sinkt
Was man dann maxed Oc an 100mhz pro 10% versuchen kann.
Diese methode wirkt und ist zumindest stabil als auf gut rate mal vcore und takt anzuheben.
Maximal 3-5% wie zuletzt bei mir lohnt das nicht die samsung 8nm node läuft schon vom fabrik aus am limit.
idealtakt bei samsung 8nm ist 1,7ghz alles darüber wird zum quadrat ineffizienter
Das sehe ich allein an meiner rtx3060 1,8ghz 1,1v=165w vs 1,7ghz 1,05v = 135w
So gesehen ist die 8nm Fertigung in sweetspot nur 10% schlechter als tsmc 7nm am limit getaktet
Was bei 5nm tsmc bis 50% effizienter oder 30% mehr takt, dann in 40% effizeienter oder 30% mehr takt für nvidia lovelace resultiert.
Da ich an 3,0ghz gpu nicht glaube wird vermutlich 15% takt und 20% effizienter werden.
1,95*1,15=2,24ghz und 264w chip bei 80sm
geht nvidia den harten Weg also volle 30% takt dann sind es gleichbleibende 330w für chip und dann 2,53ghz
Da ad106 mit 80sm sicher sind ist das anzunehmen wäre aber dumm sofern nvidia sich dazu entscheidet am desktop nur den ad106 zu bringen was Herstellungstechnisch Sinn macht +20% leistung für dann 999€ uvp
Und das bei derzeitigen kosten von 20k $ wafer und 13$ pro gb an gddr6+ 24gbits an 16 chips =768gb/s
Ein 384bit Si wäre möglich ist aber unsinnig dann wäre es besser mit 1150gb/s
kein wunder das lovelace kein ad107 bekommt.
Und nvidai stattdessen auf 6nm ampere refresh setzen wird ab 2023 +10% effizienz +15% takt. = im schnitt 15% schneller
Modelle sehe ich so
rtx quadro AD (ad104 vollausbau) 120sm 500w tbp hbm2e +71% 4000€ aufwärts 64gb vram
rtx titan ad ad104 100sm 450w tbp mit hbm2e +42% ~1800€ vermutlich 32gb vram
rtx 4090 ad106 +20% vs rtx3090 preis bei 999-1199€ am limit getaktet 375w 2,53ghz
rtx 4080 ad106 72sm preis bei 699€-799€ gleich schnell wie die rtx3090 +20% zur rtx3080 275w 2,24ghz
rtx4070 ad106 unklar 60sm -20% zur rtx4080 etwa gleichschnell wie die rtx3080 ~599€ 12gb vram 235w 2,24ghz chiptakt

rtx4060ti ga104 refresh in 6nm 539€ +100% vs rtx3060 8gb vram 2,07ghz chiptakt.
rtx4060 ga104 38sm in 6nm +60% vs rtx 3060 8gb vram 2,07ghz chiptakt 479€
rtx4050ti ga106 28sm +15% vs rtx3060 349€ 6gb vram
Das Hauptproblem sind die immensen vram kosten diese müssen sinken auf dann hoffentlich 1gb für 6$
Dann sehen die preise auch besser aus.
rtx 4060ti 539€ 16gb vram statt 8gb
rtx4060 419€ 8gb vram
rt4050ti dann mit 12gb vram 349€

Ihr seht der Ausblick ist nicht rosig entweder nvidia scheisst auf die Effizienz was dann zu immensen tbp führt, wir reden hier von 550w und 450w tbp (ad 104 und ad106)
Und den kleineren sku gleichbleibende verbrauch von 250 und 165w (ga104, ga 106)
Das aber hängt primär davon ab ob amd den mcm am desktop bringt Darum erwarte ich auch einen release der lovelace arch bzw ampere refresh arch erst nach amd release der rx7xxx (rdna3) Serie.
Eine sku hat man schnell in der firmware angepasst ~4 Wochen release in dann 12 Wochen
Was derzeit zwischen q4 2022 und q2 2023 sein wird.
Das Thema hängt zusammen und wie von mir angedeutet das CPU limit wird zum Problem.
schon jetzt zeigt dieser Test das wir selbst in 4k im cpu limit hängen
 
Zuletzt bearbeitet:
Lachhaft; eine ausführliche Beschreibung wie man ohne Instabilität 100 Watt weniger Leistungsaufnahme erreicht statt mehr wäre angezeigt gewesen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Gibt es irgendwo eine gescheite Anleitung für das MPT und nen Forum mit einer guten Hilfestellung, ich möchte mal in den Weihnachtsferien meine 6900XT ausloten, kam mit stupiden Powerlimiterhöhung auf die Top 80 in TimeSpy mit meinem System (also im Vergleich zu anderen mit gleicher CPU), aber denke das es auch Stromsparender geht.
Und ja, ne XTXH habe ich mal locker übertroffen mit meiner AMD Karte (direkt bei AMD gekauft)
 
usernamehere schrieb:
Wir leben in einer verrückten Zeit. AMD hat schnellere Grafikkarten als Nvidia und schnellere Prozessoren als Intel und ist auch noch effizienter.
Im Endeffekt zwar egal, weil kaufen kann man gerade eh keine Grafikkarten, aber danke für den Test. Wenn sich die Situation in 1-2 Jahren mal entspannt, liest man die Tests halt nochmal:freak::daumen:
Ja, so verrückt das beides nicht stimmt. Und dazu muss man nicht einmal die Website verlassen.
Die 12900k ist die stärkste CPU und eine 3090 die stärkste Graka.
Beides denkbar knapp, aber schneller ist schneller...
 
  • Gefällt mir
Reaktionen: KlaasKersting und Malustra
t3chn0 schrieb:
Hier reden immer alle so toll von "UV", auch bei der 6900XT. Wenn ich bei meiner Karte nur 1% UV, obwohl sie komplett stock läuft, schmiert mir die Karte nach 15 Minuten Battlefield 2042 mit einem DX Error ab.

Anhang anzeigen 1157370
Aktivier "Erweiterte Steuerung" und senk die Max Frequenz auch noch ein bisschen (~50-100MHz). Der RDNA2 Boost Algorithmus ist etwas wild und die eingestellte Max Frequenz hat ebenso einen starken Einfluß auf die anliegende Spannung.

Abstürze kommen in dem Bereich oft, weil der Boost nur ganz kurz auf einen höheren Takt springen will, der bei der niedrigeren Spannung nicht mehr stabil ist.

-1% Spannung ist hier auch etwas irreführend, da es sich dabei nur um ein Spannungs*ziel* handelt. Die tatsächliche Spannung wird dann vom Algorithmus entschieden.

Meine 6900XT mit Max Frequenz 2400MHz (statt 2500MHz Stock) und 1150mV (statt 1175mV Stock) läuft bei Last mit quasi gleichem Takt, aber legt dabei ~50mV weniger an und säuft gute 20-40W weniger. Das bisher in allem stabil.
Ergänzung ()

Bulletchief schrieb:
Die 12900k ist die stärkste CPU und eine 3090 die stärkste Graka.
Beides denkbar knapp, aber schneller ist schneller...
Je nach Spiel bzw Applikation stimmt das beides dann doch nicht. Wenn man pingelig sein will, dann bitte richtig.
Ergänzung ()

syfsyn schrieb:
Ist ja abenteuerlich das einige glauben mit uv mehr takt zu bekommen.
Nö, nicht abenteuerlich, sondern Realität. Die meisten Karten rennen ab Werk ins Power Limit. UV = weniger Verbrauch (pro Takt) = mehr Power Limit verfügbar = höherer Takt.

Meine 6900XT eiert ab Werk die meiste Zeit zwischen 2100 und 2300MHz rum. Mit UV ist sie effizienter und kann bei gleichem (oder manchmal sogar niedrigerem) Verbrauch zwischen 2300 und 2400MHz takten. Dabei komme ich übrigens tatsächlich oft auf ~15% Verbrauchsersparnis bei gleichem Takt.

PS: Deine Formatierung und fehlende Zeichensetzung ist furchtbar zu lesen...daran musst du wirklich mehr arbeiten. Aktuell ist das nur ein schwer folgbarer Gedankenerguss.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Veitograf, Pro_Bro, Haldi und 4 andere
... in der aktuellen sollte aber auch ein normaler High-End-Spieler einen Blick auf solch ein Modell werfen, der ansonsten eher auf das zweitschnellste Exemplar schaut. Denn ein attraktiveres und zugleich stabileres Angebot gibt es zurzeit nicht, was zwar absolut pervers, jedoch eben nun mal leider die Realität ist.

Preislich attraktiv ist etwas anderes (von energetisch/abwaermetechnisch moechte ich lieber gar nicht anfangen) und den Blick bei diesen Preisen auf so ein Modell werfen, wozu (?), um diese masslose Preispolitik bei Grafikkarten der daran Beteiligten mit einem Kauf noch zu belohnen/etablieren?

Die GPU-Generation (egal ob bei AMD/RTG oder nVidia) ist nicht mehr wirklich frisch, bei nVidia steht wohl in der ersten Haelfte des kommenden Jahres schon ein Refresh vereinzelter Modelle an, die Karten hat es nie unter UVP (und i.d.R. auch nicht nahe UVP) zu kaufen gegeben.

Warten/hoffen auf Intel (Alchemist), ansonsten auf 2023/2024, zumal die Lovelace und RDNA3 Grafikkarten vermutlich deutlich teurere Platzhalter-UVPs bekommen werden, auch wenn das zu den voraussichtlich geringen erhaeltlichen Mengen zum Marktstart 2022 keine Rolle spielen duerfte, auf welche dann in 2023/2024 evt. die Karten zurueck fallen koennten.

Vermutlich wird das von der Presse dann auch noch als vergleichsweise guenstig abgefeiert werden, denn man moechte es sich mit den Entwicklern, Boardpartnern und Haendlern ja nicht verderben und ist auf die Clicks angewiesen ... die normalen (Gaming-)Kunden bleiben die Gelackmeierten, egal wie man es wendet und dreht.
 
Zurück
Oben