Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

PeriQue1337 schrieb:
Ein Forum voller Opportunisten.
Fakt ist: wer über ein 1k für ne Gpu in diesem Zustand ausgibt, tja da fehlen einem die Worte.
Welchem Zustand?
 
  • Gefällt mir
Reaktionen: daknoll, Real_S_Seagal und rumpeLson
Ich finde auch dass es da nix bezüglich A0 zu revidieren gibt, die Mesa-Einträge sind eindeutig. Wie "scharf" sich das letztendlich auswirkt, wissen wir nicht. Von daher muss dieser Punkt dann auch nicht überdramatisiert werden, es gibt genügend andere Baustellen.
Starschwierigkeiten kennen wir genügend aus der Vergangenheit, u.a. mit Vega und RDNA1. Ich finde diese Probleme aber immer sehr interessant und machen ein Produkt für mich letztendlich erst spannend.

---

https://www.cowcotland.com/news/844...radeon-rx-7900-xt-et-7900-xtx-a-la-vente.html

Ist MSI raus aus dem Rennen? Bis jetzt wurde leider keine RX 7900 angekündigt. Angeblich war die RX 6000 Serie für MSI ein Minusgeschäft, aber das lässt sich erst einmal schwer nachprüfen, also mit Vorsicht zu genießen.
 
  • Gefällt mir
Reaktionen: Rockstar85
Rockstar85 schrieb:
So hart es ist, es IST Trivial.. Aber es ist lt AMD ja auch so gewünscht (siehe PCGH Artikel)
Du könntest bei der Auslastung der Rechenwerke von ggf Hardware Problemen ausgehen, aber auch da dann die Frage, wieso es unter Linux besser läuft und vor allem, wieso zB bei IW9 die Auslastung greift..
Ich sehe da die gleiche Problematik wie damals bei Zen1.

Genau, bisher kannte man, dass AMD bei dem Fall "Youtube" schlechter abschneidet. Aber in den anderen Szenarien war AMD ja eher auf Nvidia Niveau bzw. manchmal sogar davor. Sowohl bei Idle, als auch bei Teillast. Zusätzlich ist bei Youtube nochmal etwas oben drauf gekommen. Dazu war AMD bei der letzten Generation bei Last sogar effizienter. Jetzt dominitert bei jedem Punkt Nvidia und wenn man den PC den ganzen Tag ~10-15Std am laufen hat, dann summiert sich das.

PS: Zu dem trivial, damit meine ich, dass es leicht besser zu lösen ist und das ist es ja scheinbar nicht. Könnte man den halben Stromverbrauch haben und hätte dadurch keinerlei Nachteil, dann würde AMD das ja machen. Entsprechend hat man das Problem erkannt, will oder kann es aber nicht lösen.
 
Ayo34 schrieb:
Genau, bisher kannte man, dass AMD bei dem Fall "Youtube" schlechter abschneidet.
Naja bedenke... wir reden von einem 8nm Node auf einen N5 optimierten zu einem wirklich Überlegenen N7 Node zu nun N5
Und dann sieht man auch, dass NV einfach die Effizienteren Shader hat. Und bedenke zweites... N7 zu N5 gibt nur 30% weniger Power Consumption bei gleichem Takt.. Spannend ist eher, wieso die GPU bei 3,1GHZ Takt und minimaler Last einbricht.

Der Rest ist Mathe... Und ich glaube es war @Convert der sagte, im Ernstfall ist Navi31 nur ein Navi21 mit ~20% mehr Shader... Und nur dann wirklich stärker, wenn Dual Issue angesprochen wird.

https://www.techpowerup.com/gpu-specs/radeon-rx-6900-xt.c3481
https://www.techpowerup.com/gpu-specs/radeon-rx-7900-xtx.c3941
5120 zu 6144 spricht halt schon eine klare Sprache.

@Apocalypse
Ich hatte auf Ampere GPU als GTX 2660 oder so gehofft... Aber naja, damit verdient NV wohl kein Geld..
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Ich bin mir inzwischen garnicht sicher, ob man es nicht wie früher zum Anfang der 3d- Beschleuniger Zeiten hätte machen sollen.
Als Marktführer der die Technologie etablieren will? Auf gar keinen Fall, die Verbreitung dürfte das Problem sein, wenn man nicht gerade auch noch Publisher und Konsolen Produzent ist und sich einen dedizierten Chip dafür Leisten könnte und auch ein paar Spiele die ihn Ausnutzen.
Ist sicher billiger zu fertigen und zwei kleinere Chips zu machen als diesen Hybrid ansatz zu verwenden der die Yield stark reduziert, weil die Chips groß werden und damit auch teuer.
Für AMD mit ihren Chiplets und als Konsolen Lieferant? Wäre vielleicht etwas gewesen.
Und für uns Kunden wäre es mit Sicherheit auch besser gewesen.
Man stelle sich vor wir würden 600mm² vollgestopft mit Leistung für RTX und DLSS bekommen. Und wer noch nicht auf RT springt kauft sich halt ne günstige, sehr schnelle GPU nur für Raster.

Aber haben wir halt nicht. Schade.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Zer0Strat schrieb:
Danke dir, das Lob geht natürlich auch an @Taxxor. Außerdem, so auf Krawall gebürstet bin ich gar nicht. ^^
Manchmal schon. Meistens nicht.
 
  • Gefällt mir
Reaktionen: Rockstar85
Bulletchief schrieb:
Ehm... also tatsächlich hab ich mich z.B. schon sehr oft gefragt... "warum ist die Höhle so hell?"... "Wo kommt das Licht her?"...
Da gibts EINIGE merkwürdige Logikfehler in Spielen...
Ich glaube dir das jetzt mal. Dann gehörst du eben zu den restlichen 1% von Spielern, die sich an solchen Ungereimtheiten extrem stören. Das ist erst einmal kein Problem. Aber pauschalisiere bitte nicht einfach deine subjektiven Ansichten hin zu der Aussage, dass Rasterisierungsgrafik generell Mist ist. Außerdem gibt es da immer noch eine Welt, in der es eine physikalisch unerreicht präzise Beleuchtung gibt, die als absolute Referenz gilt und für die du keinerlei zusätzliche Technik benötigst außer deinen eigenen Körper: die Realität...
Doch damit ich meinen Kommentar nicht mit Philosophie beende, denn schließlich ist das hier das computerbase-Forum, verrate ich noch meine eigene Haltung zum Thema Raytracing: Die Technik ist die Zukunft im Gaming und kann bereits heute in ausgewählten Titeln einen deutlichen Mehrwert bieten. Die Kehrseite der Medaille: die zumeist schlechte bis sehr schlechte Implemtierung in Spielen (viel zu wenig Einstellmöglichkeiten im Grafikmenü, extreme Hersteller-eigene Optimierungen zum Leidwesen des anderen Lagers --> da sollte computerbase vielleicht mal einen eigenen Artikel dazu machen).
Ich bin darüber hinaus der Meinung, dass je realistischer die Spielwelt wird - durch eine immer höhere Auflösung, eine immer höhere Polygon-Anzahl von Objekten oder immer detaillierteren Texturen - desto mehr würde dem Spieler eine fehlerhafte Beleuchtung ins Auge fallen, weil eben das dargebotene Bild gefühlt bereits so nah an der Realität ist. Von daher ist es ganz gut, dass Raytracing langsam aber sicher Einzug hält in der Computergrafik.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Miuwa
@Zer0Strat doch, du bist schon krawallig, weil du manchmal echt populistisch agierst und dann erst mit der Zeit zurück ruderst. ;)

@Ayo34 die meisten auf Twitter - die aktuell nach "Hardwarebugs" schreien, sind oft eher neunmalkluge Deppen - ja ich bin gerade ein Agro-Pandi - die selbst oft keine Ahnung von Informatik haben, egal ob "normal" oder "technisch" und noch weniger von E-Technik im Bereich Mikro-/Nanoelektronik. Eine Grafikkarte besteht heute aus mindestens 3 Schichten: Hardware, Firmware und Treiber. Es kann also durchaus ggf. Hardwarebugs geben, aber hätte es gravierende Bugs geben, dann hätte AMD diese bereits beheben können. Keine Firma ist so dumm und lässt eine Maske anfertigen, ohne diese nicht zumindest in einem Testlauf zu erproben.

AMD wird die Maske für das A0-Stepping also bereits getestet haben. Natürlich kann es dann Fehler geben, diese werden dann aber nach der Fehlerklasse klassifiziert und ggf. erst später korrigiert. Auch das mit Mesa und dem Shader_Prefetch ist so eine Sache, weil man nicht genau weiß, was da wirklich los ist. Klar, es kann ein Fehler in der Hardware sein, aber auch hier ist eventuell die Firmware wieder möglich. In dem einem Text steht nicht viel drin, nur dass man es bei Revision A0 deaktiviert hat.

Auch mit der Stromaufnahme, es kann durchaus sein, dass hier ein Firmware-Bug vorliegt oder ein Treiberbug. Es gibt hier viele möglichen Punkte und AMD wird da vermutlich antworten.

Ändert aber nichts daran, dass RDNA3 kleine Schluckspechte sind, da die Leistung nicht konsistent über alle Spiele agiert und man daher im Mittel wirklich mehr verbraucht. Ich bin gespannt, was nächste Woche bei meinen Tests raus kommt.

Hier mal ein paar Previews aus der Excel:
Spiel1.png
 

Anhänge

  • Spiel2.png
    Spiel2.png
    7,4 KB · Aufrufe: 70
  • Spiel3.png
    Spiel3.png
    7,3 KB · Aufrufe: 69
  • Gefällt mir
Reaktionen: TKessel und Rockstar85
Rockstar85 schrieb:
@Miuwa
bis zu 500€ teurer ist halt auch nicht, was man mal eben akzeptiert. Eine MSI 4080 kostet ~1500€ , die Merc 1300? Ich meine man kann halt immer dann zum nächst Größeren greifen, dann muss man sich aber nicht aufregen, wenn die 5090 dann eben 1899USD kostet..
Wie kommst du jetzt konkret auf 500 Euro unterschied? Wenn dann müsste man doch z.B. Refernzdesign gegen Referenzdesign vergleichen oder halt die günstigsten verfügbaren oder?

Davon unabhängig: Ich hab ja auch nicht von "man" gesprochen, sonder von mir. Regulär kaufe ich schlicht keine Grafikkarten in diesen Preisregionen, weil mir Computerspiele das nicht wert sind.
Wenn ich aber doch mal jenseits der 1000 Euro für ne Grafikkarte hinblättern würde, dann nur weil ich mir gesagt hab "mir ist Preis/Leistung ziemlich egal" und dann wäre es mir wichtiger das Gefühl zu haben die "Bessere" Karte zu haben als einen riesen Bazen Geld für eine "zweitklassige" (jetzt mal übertrieben formuliert) Lösung auszugeben. Alla "Wenn ich schon so viel Geld ausgebe, dann will ich auch wirklich rundum zufrieden sein".
 
Miuwa schrieb:
Wie kommst du jetzt konkret auf 500 Euro unterschied? Wenn dann müsste man doch z.B. Refernzdesign gegen Referenzdesign vergleichen oder halt die günstigsten verfügbaren oder?
Stand heute ist die Referenz doch teurer? (Finde nur was um 1500-1600€ für die FE)
Also die billigste 4080 Custom die ich gefunden habe, war für 1400€ ca..
Damit sind es leider ~300€ und bei 18€ Mehrbedarf an Strom dauert das ne Weile.
Gegen die FE wäre dann der Preisvorteil der 7900XTX enorm... Und wie man bei manchen Tests sieht, ist auch die 7900XT je nach spiel verdammt dicht dran.. Die XTX gibt derzeit für 1116€ und die XT für 1016€

Die 4080 ist dann spannend, wenn sie auf "Preis"Niveau der XTX ist und die XT bei ~900€ dann spannend, da gehe ich mit dir.
 
Ragnarök88 schrieb:
Käufer einer 1200 Euro GPU können sich keinen 4K 240 Hertz Schirm leisten?
:
Der Anschluss ist ein klarer Nachteil für eine bestimmte Nische.
Wenn Du mir sagst, wo man sowas nutzbar kaufen kann, laß mich gerne überzeugen. Und, wo kann ich nun einen Monitor mit DP2.1 aktuell kaufen?
 
Rockstar85 schrieb:
Stand heute ist die Referenz doch teurer? (Finde nur was um 1500-1600€ für die FE)
Also die billigste 4080 die ich gefunden habe, war für 1400€ ca..
Damit sind es 200€ und bei 18€ Mehrbedarf an Strom dauert das ne Weile.
Gegen die FE wäre dann der Preisvorteil der 7900XTX enorm... Und wie man bei manchen Tests sieht, ist auch die 7900XT je nach spiel verdammt dicht dran.. Die XTX gibt derzeit für 1116€ und die XT für 1016€
Ich hatte die 4080 MSI Suprim X schon im Warenkorb @1500€ .
Für 1380€ bekommt man das 4080 Palit Billig-PCB (siehe YT Video) oder Manli mit Warranty in Hong Kong.

Team Rot hatte gerade eine Founders XTX für mich übrig @1116€ inkl shipping !
Die oberste Schmerzgrenze für mich, bei der XTX. Somit ist die 4080 Geschichte.

Eine Custom XTX für sagen wir 1400€ ( zB Taichi, damit wir auf Suprim Level bleiben) hätte ich mir als jahrzehntelanger ATI AMD Exklusivnutzer aber nicht gekauft.
400€ Unterschied sind mAn gerechtfertigt.
 
  • Gefällt mir
Reaktionen: Rockstar85
Rockstar85 schrieb:
Stand heute ist die Referenz doch teurer? (Finde nur was um 1500-1600€ für die FE)
Also die billigste 4080 Custom die ich gefunden habe, war für 1400€ ca..
Damit sind es leider bis zu 400€ und bei 18€ Mehrbedarf an Strom dauert das ne Weile.
Gegen die FE wäre dann der Preisvorteil der 7900XTX enorm... Und wie man bei manchen Tests sieht, ist auch die 7900XT je nach spiel verdammt dicht dran.. Die XTX gibt derzeit für 1116€ und die XT für 1016€
Also wenn ich dich richtig verstanden habe liegen zwischen der günstigsten 7900 XTX und 4080 300 Euro, also deutlich weniger als 500. Hab ich das nicht gesagt?
FE bzw. Referenzdesign hab ich auf die Schnelle schlicht garkeine Angebote gefunden, die liefern können. Bin da einfach von den AMD/Nvidia Store-Preisen ausgegangen.
 
wtfNow schrieb:
Was mir auffällt ist dass viele Leute die 4080 als das "rundere Paket" sehen und lieber da zugreifen.

Ich habe irgenwie das Gefühl die Nvidiaboys versuchen die RTX 4080 an den Man(n) zu bringen, seltsam ist nur das die nach wie vor kaum jemand haben möchte. Soweit ich gestern sehen konnte hätte man jederzeit die FE bei NBB kaufen können.

Was man immer und immer wieder liest, auch wenn es nicht mehr wahr wird, auch wenn man es mehrfach wiederholt. Nein die RTX 4080 ist nicht schneller/gleich schnell (Raster) als die RX 7900 XTX. Und nein die kosten nicht "fast" das gleiche. Und nein, es gibt auch Leute denen Raytracing / DLSS usw. einfach Null interessiert.

Aber das sind "die" Argumente warum es eine eine RTX 4080 werden soll. Meiner Meinung nach hat die RTX 4080 nichts warum ich diese kaufen sollte, das ist nur meine Meinung.

Ja bin habe mir eine XTX bestellt. Nvidia ist einfach keine Option einfach weil man als Linux User Nvidia getrost liegen lassen kann. Leider nicht zu gebrauchen, daher hat mal keine echte Wahl.

Wenn ich die Wahl hätte wäre es dennoch die XTX geworden weil mir persönlich Raster wichtiger ist als all die tollen Features die ich eh nicht nutze.Potenzielle Performancesteigerung (wenn nicht, kein Beinbruch) das einzige was mich bisher stört (wird sicher bald behoben -> vielleicht unter Linux nicht existent - leider kaum Tests für die Karte unter Linux ) sind die 100W im Idle mit 144Hz UHD Monitor. Das wäre dann bei mir der Fall. Solange es Winter und kalt ist zu verschmerzen, allerdings sollte es gelöst werden.

Sonst wünsche ich euch alle viel Spaß mit den neuen Karten egal was es geworden ist. Mit etwas Glück Lieferung am WE und ich werde sicher berichten.

Und ne AMD ist nicht dafür da damit die Nvidia Karten billiger werden. Es sind immer noch beides Unternehmen die Geld verdienen wollen. Wenn du dir keine 1000€ Grafikkarte kaufen willst/kannst ist das fein, frage mich aber warum die Leute sich damit beschäftigen und meinst rum stänkern bzw es einen Madig reden wollen.

Hey man du willst keine Karte also lass es gut sein, leben und leben lassen.Sogar wenn jemand dafür hungern würde, dann lass ihn doch seine Entscheidung! Wenn du eine willst kannst du für dich Pro/Con abwägen und dann deine Karte wählen/kaufen. Es wird immer Käufer geben egal was die Karten kosten, es werden dann halt immer weniger je höher man fliegt.

PS: Und Glückwunsch an alle die sich auf die Schulter kloppen das sie alles "Richtig" gemacht habt mit dem kauf / nicht kauf von Grafikkarte X weil die XTX so eine Enttäuschung ist ;) - Dicken Applaus von mir!
 
Zuletzt bearbeitet:
Rockstar85 schrieb:
Damit sind es leider ~300€ und bei 18€ Mehrbedarf an Strom dauert das ne Weile.
Wenn ich von 16-40W Differenz beim Arbeiten und YT glotzen ausgehe + 80W bei 4K144 beim Zocken könnte sich das schon summieren. Angenommen ich daddel 250 Tage im Jahr zwei Stunden und mit 3/5 Tagen im HO arbeiten a 8 Stunden käme ich bei 40 Cent fürn Strom auf 28-30€ im Jahr.

Wer mehr zockt steigert das schnell noch. Klar, 300€ brauchen ne Weile, aber hier wird doch sonst immer so auf Effizienz gepocht und ich bin ständig am vorrechnen gewesen wie wenig die Mehrverbräuche eigentlich sind in Geld ausgedrückt.

Da war das alles nicht valide, es wurde von der Unleistbarkeit des PC Gaming Hobbies gesprochen und auf einmal sinds "nur 30€ im Jahr". Da muss man sich dann schon mal entscheiden welche Richtung man jetzt vertritt (nicht auf dich bezogen - allgemein gesprochen).
 
Sun-Berg schrieb:
Meinst du als Zusatzkarte in den zweiten PCIe Slot, mit Hybridspielen oder ganz unabhängig?

eine kleine Arc als reiner Encoder, damit hab ich auch schon geliebäugelt, anderer Ansatz aber nicht mal so abwägig in manch einem Scenario
Ergänzung ()

derbe schrieb:
Was man immer und immer wieder liest, auch wenn es nicht mehr wahr wird, auch wenn man es mehrfach wiederholt. Nein die RTX 4080 ist nicht schneller/gleich schnell (Raster) als die RX 7900 XTX. Und nein die kosten nicht "fast" das gleiche. Und nein, es gibt auch Leute denen Raytracing / DLSS usw. einfach Null interessiert.

Benchmarks sagen leider noch imemr was anderes, wenn auch die Rohleistung besser ist.
Lieferbare Preise der Customs auch ... auch wenn es anscheinend in homopathischen Dosen die XTX bei AMD gibt.
Geschmäcker sind nach wie vor verschieden und damit auch die persönlichen Preferenzen.
Es werden sich für beide Lager Käufer finden, ich persönlich springe nach persönlichen Preferenzen hin und her,
Im Augenblick finde ich die 4080 runder, wenn man keine bei AMD bekommt, desweilen noch lange kein Nvidia-Fanboy - der gerade noch eine 6800XT nutzt.
 
Zuletzt bearbeitet:
Rockstar85 schrieb:
Also die billigste 4080 Custom die ich gefunden habe, war für 1400€ ca..
Gibt einige um 1350 Euro.
Rockstar85 schrieb:
Damit sind es leider ~300€ und bei 18€ Mehrbedarf an Strom dauert das ne Weile.
Ich sehe etwa 200 Euro mehr für eine RTX 4080, die auch entsprechend deutliche Vorteile unter Raytracing hat, also auch mehr kosten darf.
Rockstar85 schrieb:
Die 4080 ist dann spannend, wenn sie auf "Preis"Niveau der XTX ist und die XT bei ~900€ dann spannend, da gehe ich mit dir.
Die 4080 ist schneller als die 7900XTX von daher muss sie gar nichts tun um spannend zu sein.
 
  • Gefällt mir
Reaktionen: DayvanCowboy
Zurück
Oben