Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

DrPinguin schrieb:
Meiner zeigt 1.014
Ich seh 899 USD (aus der Schweiz kommend). Das wären 830 CHF dann x 7,7% MwSt = 894 CHF -> 905 € :daumen:
Ergänzung ()

Norebo schrieb:
Es scheint ja, das die AIB Karten noch einiges rausholen können:
Witziger Typ, nimmt das AMD freundliche AC Valhalla als Beispiel dass die 4090 geschlagen werden könnte mit hartem OC, geht dabei davon aus, dass diese natürlich in dem Vergleich Stock läuft (man ist ja fair) und erwähnt dann, dass Control in dem man abkackt ja total pro-nVidia is und das daher kein Maßstab. Gleiches bei FC6, AMD freundlicher Titel, das feiert er zugunsten der Radeon-Performance, Elden Ring in dem es dann nicht so läuft ist dafür ein klarer nVidia Titel. 🤣

Ooookay. Kann man so machen. :daumen: Zieht sich durch sein ganzes Geseier, wenn nVidia vorne liegt ists natürlich ein biased Title, wenn AMD vorne liegt, dann ist das natürlich der großartigen Performance der Radeons geschuldet.

Mini Vorsprünge werden gefeiert, 20% Differenzen zugunsten nVidia sind "Ausreisser". Auf RT mag er dann schon gar nicht mehr eingehen 😂

Zu guter Letzt redet er dann davon dass die XTX ja so effizient sei und er sie mit 300W betreiben will, bezieht sein "better than 4090" aber auf eine Karte die 460W wegballert. 🤔

PS: ich bin sicher die Karten haben mit genug Saft geiles OC Potential - davon ging ich schon seit der Präsi aus, macht sie auch zu interessanten Karten, aber sich Nachteile schön reden und andere Dinge über den Klee loben ist halt irgendwie nicht sinnvoll.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sly123, mojomojo und Taxxor
Capet schrieb:
Hmm, also wenn ich eine AMD-Karten kaufen wollen würde, ich unter 1000 Euro bleiben möchte und, auf Grund meines Nutzungsprofils, eine RDNA2-Karte für mich in Frage kommen würde, dann würde ich zu einer von denen greifen, die es aktuell bei MF gibt:

PowerColor Radeon RX 6950 XT Red Devil -> 849 EUR
XFX Radeon RX 6950 XT Speedster MERC -> 859 EUR
PowerColor Radeon RX 6900 XT Red Devil -> 829 EUR
Bei NBB -> MSI Radeon RX 6900 XT Gaming X Trio 16G für unter 800 Euro!
Aber - Aktuell wird Ebay von RX6800 / RX69xx Karten geflutet, auch bei Ebay Kleinanzeigen. Mehr als 700 Euro würde ich für eine 6900 nicht mehr zahlen - Neu!
Einfach weil die Karten schon mal für unter 700 Euro über den Ladentisch gegangen sind.. und mehr als 300 Euro darf der Aufpreis für eine neue Generation bei den paar % Mehrleistung (XT) nicht sein... und das wird auch wieder kommen. Die kleineren Karten werden aktuell jede zweit Tage günstiger.
Einfach noch ein wenig Geduld .. aber um so mehr ich lese und die Preise beobachte schaue ich mit immer größeren Augen auf eine 4080.
 
mcsteph schrieb:
Es macht auch Sinn, gleiche Preissegmente zu vergleichen.
Besonders dann, wenn sich nur ein Markteilnehmer überhaupt leisten kann so große Chips wie die 4090 zu bauen. Wann gab es das letzte mal einen über 600mm² großen Chip in modernster Fertigung von AMD?
 
Apocalypse schrieb:
Besonders dann, wenn sich nur ein Markteilnehmer überhaupt leisten kann so große Chips wie die 4090 zu bauen. Wann gab es das letzte mal einen über 600mm² großen Chip in modernster Fertigung von AMD?
Das kann sich AMD genauso leisten. Die Karte muss dann halt performen und abliefern, dann kann man auch einen entsprechenden Endkundenpreis aufrufen. Warum soll AMD sich das nicht leisten können ?
 
Chilisidian schrieb:
Das Gegenteil ist doch der Fall. Noch nie sind so viele Spiele AUCH für den PC erschienen. Sony haut mittlerweile alles dafür raus, alles von MS kommt dank Gamepass sowieso auf den PC. Die Zeiten für PC Spieler sind besser denn je. Wie oft wurde er schon für tot erklärt? Am Ende wurde er dadurch nur stärker.
Soweit ich weiß hat Sony wegen einer sinkendenden finanziellen Wettbewerbsfähigkeit die Konsolenexklusivität der hauseigenen Spiele aufgebrochen. Das heißt der PC-Spieler profitiert von Sonys schlechter wirtschaftlicher Lage.
 
  • Gefällt mir
Reaktionen: Unnu
DayvanCowboy schrieb:
... Enthusiasten haben sich 4 davon per SLI reingebaut.

Ah eine Schande das es CF nicht mehr gibt, zwei 7900XTX im Crossfire uh das wär was.

Habe damals für zwei R9 290 OC 696€ bezahlt :heul:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: McTheRipper und Unnu
https://twitter.com/NadaOverbeeke/status/1603019403074981888?s=20&t=IBnC1SkM7aJt6opZmRkpJw

Egal ob das ein A0 oder C8 Stepping ist. In dem Zustand hätten die Dinger nicht auf den Markt gehört:

"It's getting weirder. First it's running MW2 (1080p) at ~350 FPS with ~2900 MHz clocks. But an hour and a reboot or two later, it's doing ~300 FPS with t~2400 MHz. Same game, same test run, same settings. Now retesting the XTX, suddenly the same thing: +20% FPS out of nowhere."
 
  • Gefällt mir
Reaktionen: Rock Lee und Unnu
Hmm, ich seh in der Auflösung mit diesen dicken Karten eher ein Problem in der Auslastung der Karte. Testen würd ich immer unter der höchsten Load die man sinnvoll im Alltag generieren kann -> 4K. In 1080p wird die run2run variance hoch sein.

Für 1080p sind alle Karten oberhalb der last-gen absolut Perlen vor die Säue.
 
  • Gefällt mir
Reaktionen: KingZero
Rockstar85 schrieb:
Spannend.. Zwei Browser, zwei Ergebnisse
+
DrPinguin schrieb:
Meiner zeigt 1.014
Siehe DeltaPee 👇
(Auch wenn das nur die Umrechnung zu sein scheint, würde ich da nicht drauf wetten)

Rockstar85 schrieb:
Ich bin auch gespannt, ob es ein RDNA3+ geben wird.
Würde ich begrüßen, denn offensichtlich könnten die Karten mehr, wenn AMD sie ließe und anscheinend ist das mit den Chiplets nicht so ohne.
Zumindest Treiber sollten zügigst nachgeliefert werden. Der yt-Verbrauch geht ja mal gar nicht.

DeltaPee schrieb:
Ist nichts anderes als dynamische Preisanpassung unter Berücksichtigung von vielen Parametern.
This. Mit sehr großer Wahrscheinlichkeit.
 
Unnu schrieb:
This. Mit sehr großer Wahrscheinlichkeit.
Von Apple Geräten / Safari wurden bei mir immer die höchsten Preise angezeigt 😂

Und die AI die die Preise dynamisch generiert läuft wahrscheinlich...auf nVidia Hardware. LOL
 
  • Gefällt mir
Reaktionen: Unnu
vander schrieb:
Mal ehrlich, das Problem ist direkt bei den ersten Tests aufgefallen und AMD hat das während Monaten der Entwicklung nicht gemerkt? So lange es dafür keinen offiziellen Fix gibt, bleib ich da ganz mißtrauisch, besonders auch wegen der Gerüchte zu einem Hardwareproblem.
.Sentinel. schrieb:
Es ist meines Erachtens vermessen zu glauben, dass AMD nach all der Entwicklungszeit (bei Grafikkarten Gesamtentwicklungszyklus derzeit ungefähr 3 Jahre) nicht genau gewusst hat, wie sie das Produkt hier auf die Käufer und vor allem Bewertungsportale loslassen werden.
.Sentinel. schrieb:
Wären das alles einfach und zeitnah zu lösende Themen, dann hätte man die Karten niemals so in den Markt entlassen.
Wenn Doch, dann wäre AMD wirklich nicht mehr zu helfen. Was Dümmeres und Geschäftsschädigenderes kann man nämlich fast nicht machen.
Sehe ich genauso. Ich befürchte hier passt etwas grundlegend nicht. Es fühlt sich einfach zu viel nicht stimmig an.

@Wolfgang @FormatC (Igor)

Könnt ihr der folgenden Sache nicht mal nachgehen bzw. recherchieren!? Ich habe mir ein paar Teardowns angeschaut. Ein Stepping ist so nicht ohne weiteres erkennbar. Die meisten Navi GPUs sind aber anscheinend mit Produktionsdatum um die KW 40/22 herum produziert. Das wäre der 3. Oktober gewesen.

Zer0Strat schrieb:
Wann das hier stimmt, dann haben wir einen Skandal um die neuen Radeons. Beim A0 Stepping ist das Shader Prefetching deaktiviert.

Jetzt schreibt aber einer auf Twitter, dass AMD wohl das A0 Stepping an Endkunden ausgeliefert hat. Man kann nur hoffen, dass das ein Auslesefehler ist.
Benji18 schrieb:
A0 ist schon hart .... das würde immer mehr auf auf die HW Bug Gerüchte hindeuten ....
Benji18 schrieb:
Wer das hier liest und in den nächsten Tagen seine RX7900XT or XTX in den händen hält kann der mal schauen welches Stepping die GPU hat? würd mich echt interessieren ob die da wirklich A0 rausgehauen hätten ....
Philste schrieb:
https://twitter.com/NadaOverbeeke/status/1603019403074981888?s=20&t=IBnC1SkM7aJt6opZmRkpJw

Egal ob das ein A0 oder C8 Stepping ist. In dem Zustand hätten die Dinger nicht auf den Markt gehört:

"It's getting weirder. First it's running MW2 (1080p) at ~350 FPS with ~2900 MHz clocks. But an hour and a reboot or two later, it's doing ~300 FPS with t~2400 MHz. Same game, same test run, same settings. Now retesting the XTX, suddenly the same thing: +20% FPS out of nowhere."
 
  • Gefällt mir
Reaktionen: Capet und Unnu
@DayvanCowboy : Eben.
Hat sich rumgesprochen, dass iPhön User etwas däm… hüstel äh liquider, genau, liquider sind und dass bei denen das Geld lockerer sitzt.

(Für‘s shoppen nutze ich nicht mehr mein iPhön sondern den alten Schleppi neiner Frau!)
 
  • Gefällt mir
Reaktionen: Oppagolf
ThirdLife schrieb:
PS: ich bin sicher die Karten haben mit genug Saft geiles OC Potential - davon ging ich schon seit der Präsi aus, macht sie auch zu interessanten Karten, aber sich Nachteile schön reden und andere Dinge über den Klee loben ist halt irgendwie nicht sinnvoll.
Mir ist es egal, ich kauf weder noch in der Preisklasse, aber der zugrunde liegende Artikel ist halt länger, als eben ein Video durchlaufen zu lassen und es stellt das vermutlich höhere Leistungspotenzial gewisser AIB-Varianten heraus.

FE könnte diesmal die schlechtere Wahl sein...

PS: Übrigens hat der Videoersteller kürzlich erst eine NVidia-Karte gekauft und lobt die neuen NVs explizit, in gewissen Eigenschaften, abseits vom Preis.
 
  • Gefällt mir
Reaktionen: ThirdLife
Nogli schrieb:
Bei NBB -> MSI Radeon RX 6900 XT Gaming X Trio 16G für unter 800 Euro!

https://www.mindfactory.de/product_...ed-Devil-16GB-DDR6-Triple-retail_1452953.html
Leider gab es beide vor dem Launch auch schon für 700-800€
Schauen wir mal.. Eine 6950XT für ~800€ wäre sehr sehr fair.
 
  • Gefällt mir
Reaktionen: Nogli
Norebo schrieb:
FE könnte diesmal die schlechtere Wahl sein...
Da geh ich stark von aus. Die Chips sind doch recht groß, es hat viel VRAM und Co zu versorgen, da sind 300W schon ein recht mickriges Powertarget als oberes Maximum wenn Performance das ist was man will.

Dann hätten die Custom Modelle wenigstens eine echte Existenzberechtigung für alle die es gerne leiser, kühler und schneller möchten. Ist halt wie bei allem, erstmal nen Monat und ein, zwei Updates abwarten dann passt das schon.
 
  • Gefällt mir
Reaktionen: Unnu und Norebo
ThirdLife schrieb:
PS: ich bin sicher die Karten haben mit genug Saft geiles OC Potential - davon ging ich schon seit der Präsi aus, macht sie auch zu interessanten Karten, aber sich Nachteile schön reden und andere Dinge über den Klee loben ist halt irgendwie nicht sinnvoll.

Das hoffe ich, aber wie siehts dann mit Fiepen aus?

Das ist mein Endgegner bei GPUs :D
 
  • Gefällt mir
Reaktionen: Eld0r und ThirdLife
@Caramelito
schau mal bei PCGH Raff vorbei ;) der hat die GPU vermessen wegen Fiepens.
Und da sahen die Werte ganz gut aus.

@ThirdLife
Es kann sein, dass die 355W die GPU aushebeln. Dass dies ein Bigchip ist, der irgendwo um 80-85% einer 4090 hätte rauskommen müssen, sollte logisch sein. AMD hat ja genau diese Zahlen auch gezeigt.. Also entweder ist das Ding in Hardware mit einem Fehler versehen, oder die Treiber sind mal wieder Grütze.

AMD: GPU Release am 12.12. los macht hinne!
Ingenieure: Wir müssen aber die Treiber noch verbessern, das geht nicht
Marketing: Nöö, wir haben allen gesagt, wie geil die GPU ist. Treiber braucht keiner, man soll damit ja nicht altes Zeug Spielen
Lisa Su: Sorry Jungs, aber macht die Treiber
Frank Azor: Wer braucht schon Treiber wenn er weißes RGB Licht hat. Scheiß auf Treiber.
AMD: Okay dann haben wir über alles gesprochen, Jungs, bis 12.12.

12.12. merkt man dann, dass keiner die Treiber gemacht hat.
 
  • Gefällt mir
Reaktionen: Caramelito, Unnu und ThirdLife
Matthias80 schrieb:
nein du verstehst das hier bei bestem willen nicht....
komm erstmal in die realität und setz deine rote brille ab....
1. du bemälgst das problem weil man fakten aufzählt XDDDDD
fakt ist solange diese probleme nicht beseitigt sind bestehen diese probleme und dann ist es legitim diese aufzuzählen weil es nun mal probleme sind......also bitte
sowas nennt man kritik....
und da ist jeder dazu berechtig hier klar seine kritik zu diesem produkt zu äußern....
hätte amd seinen job richtig gemacht dann gäbe es diese kritik nicht...
doch das ist ne sinvolle argumentation denn die gleichen argumente habt ihr bei ampere gebracht.....
aber wehe man äußert kritik über amd XD denn die wahrheit wollt ihr nicht hören ihr stellt amd immer als samariter da.....dabei wollen die auch nur geld verdienen und nichts anderes (is auch ein börsennotiertes unternehmen und sind wie nvidia ihren aktionären verpflichtet sonst wäre lisa ganz schnell ihren job los)

ach der stromverbrauch ist lächerlich XD interessant monate zuvor war es noch das argument bei amd XDDDDDDDD
jetzt soll man froh sein das amd nur 4080 leistung erreicht hat XDD omg is was für einer realität lebst du eigentlich konkurrenz belebt das geschäft......
die schnellste karte von amd kann sich nur mit der dritt oder viertschnellsten karte (4080ti und 4090ti kommen wahrscheinlich ja noch) von amd messen und das ist einfach mehr als entäuschend nach rdna 2
desweiteren jetzt wie bei vega höhrer stromverbrauch und die effizientkrone ist auch noch weg es is wie vorher nur der günstige preis übrig geblieben

am einfachsten macht man es sich wenn man einmal ivestiert hat und alle 2 jahre upgradet und die alte dann jeweils verkauft
so hab ich es gemacht mit der 3090 von der 4090 und für die 3090 noch 1100 bekommen ;) somit gehts noch bzw so kann man sich die 4090 dann auch gut refinanzieren
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Bengart
Caramelito schrieb:
Das hoffe ich, aber wie siehts dann mit Fiepen aus?

Das ist mein Endgegner bei GPUs :D
Hmm, ich hab gemischte Berichte gehört. Von "wie ein Dubstep Konzert" bis zu "geht ok". Tendenz aber zu ersterem. Für WaKü Enthusiasten wird das mit einer Custom dann eh noch übler vermutlich, hohes Powerlimit, höhere Taktraten, kühlere Spulen = mehr Gefiepe. Und weil Karte leiser, dies auch noch besser hörbar. Ich kenns schon gar nicht anders.

Klingt für mich immer als ob sich ein paar Aliens im Gehäuse gegenseitig totschlagen bei ner Debatte.

Rockstar85 schrieb:
@ThirdLife
Es kann sein, dass die 355W die GPU aushebeln. Dass dies ein Bigchip ist, der irgendwo um 80-85% einer 4090 hätte rauskommen müssen, sollte logisch sein. AMD hat ja genau diese Zahlen auch gezeigt.. Also entweder ist das Ding in Hardware mit einem Fehler versehen, oder die Treiber sind mal wieder Grütze.
Ich denke mit 355W sollte eine 6144 Shader GPU schon klarkommen, die 4090 tuts ja auch mit 8192 Shadern. Man verliert halt etwas Takt, aber das sollte bis zu einem gewissen Punkt nicht so dramatisch sein (siehe UV Ergebnisse bei den 4090ern).

Fairerweise skaliert halt jede Arch auch etwas anders, hier ist viel neues auch im Spiel das birgt immer Potential für Optimierungen aber halt auch für Fehler und Probleme. Ich kann mir vorstellen, dass die Arch halt stark auf Takt angewiesen ist um die hohe Memory Bandbreite effektiv nutzen zu können und Latenzen zu minimieren und das Decoupling in Kombination mit moderaten Taktraten + riesen Speicherbandbreite halt relativ unausgewogen funktioniert.

Und da man für die AMD Werkskarten halt ein bewusst "tiefes" PL festgelegt hat aus PR-Gründen beraubt man die halt unter Umständen ihrer eigentlichen Performance.

Ich denk das letzte Wort ist hier noch nicht gesprochen, auch wenn der aktuelle Zustand etwas unbefriedigend ist. Man sollte aber so früh nach dem Launch und ohne breitere Tests der Partnerkarten + einem Monat Karenz für Bugfixing auch noch kein Fass aufmachen.
 
Zurück
Oben