Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

DayvanCowboy schrieb:
Ich bin mir ziemlich sicher, dass das Chiplet Konzept nichts mit den Treibern/Software zu tun hat, wenn gibt es evtl. Optimierungspotenzial bei der Dual-Issue shaderarchitektur.

Ich fand das GPU Chipletkonzept von AMD aber von Anfang an fragwürdig, da das compute/logic die weiterhin monolithisch ist, und lediglich die memory chiplet dies modularisiert und auf einer anderen TSMC node hergestellt werden.
Wir werden sehen was die Zukunft bringen wird. Aktuell können wir nur spekulieren aber speziell bezüglich der Stromaufnaheme denke ich ist es ein Bug bzw. Einstellungssache über/in dem Treiber selbst.

EDIT: Gar nicht gesehen bisher...es gibt sogar schon einen Treiber der eben genau das lösen soll und weitere Bugs sowie weitere als bekannte aber noch zu lösende Bugs schon listet: https://www.computerbase.de/2022-12/amd-adrenalin-edition-22-12-1-radeon-rx-7900-serie/
 
  • Gefällt mir
Reaktionen: Cadilac
DayvanCowboy schrieb:
Ich fand das GPU Chipletkonzept von AMD aber von Anfang an fragwürdig, da das compute/logic die weiterhin monolithisch ist, und lediglich die memory chiplet dies modularisiert und auf einer anderen TSMC node hergestellt werden.

Eben. Bei den Aldebaran Karten machte ja aufgrund des Anwendungsgebietes das MCM Sinn. Dort sind es praktisch zwei separate GCD die eben über einen recht lahmen Interconnect verbunden sind AKA eigentlich zwei GPUs auf einen Die. Also: Crossfire auf einen Die. Spielt aber keine Rolle im Gebiet wo die Aldebaran ihre Stärken ausspielt.

Bisher sehe ich immer noch nicht wie zwei GCD im Gebiet der Consumer Karten performant und ohne die Nachteile von Multi GPU auch in mittlerer Zukunft funktionieren sollen bei einen Interconnect der bezahlbar ist. CPU MCM und GPU MCM kann man überhaupt nicht vergleichen wenn es um stark abhängige Berechnungen geht wie eben bei Spielen oder KI Anwendungen.

Ich empfehle mal einen Blick auf den M1 Ultra von Apple. Dieser hat einen aktiven Interposer mit einer Bandbreite von 2,5 TB/s. Also extrem teuer und aufwendig...und was gibt es dort bei Spielen -> Microruckler. Spielt jetzt bei den Macs keine große Rolle aber, dass kann man im Gamer Markt nicht bringen. Und ich sehe hier immer noch ein Prinzip Problem für Consumer GPUs mit Focus Gaming.

Faktisch dürfte nVidia bei den AD103 Karten massiv den Preis senken können mit einer immer noch beachtlichen Marge und könnte AMD hier komplett in die Parade fahren. Gerade die 7900 XTX dürfte wesentlich teurer sein. Hier wird zwar immer was Ausbeute gesprochen....nur in den 380mm² des AD103 ist eben auch Memory Interface, Cache etc. drin was eben schlecht shrinkt aber Fehler dort bedeuten auch viel weniger Ausschuss während die 300mm² viel mehr Logik sind. Dazu eben die MCD Kosten, Packing, mehr Ram, übertriebenes Memory Interface usw. nVidia wird aber dies nicht tun alleine um nicht die Kartellbehörden auf den Plan zu rufen.

Das MCM Konzept bei den RNDA3 hätte nur Sinn gemacht wenn man etwas gebaut hätte wo man eben auf physikalische Grenzen gestoßen wäre im Prozess. Ein monolitischer Navi 31 für die 7900 XTX wäre vielleicht 430 mm² groß geworden ohne das übertriebene Memory Interface.

Somit gesehen kann dies nicht das Ziel das von AMD gewesen sein und irgendwas ist mächtig schief gelaufen.

Dazu eben die Entscheidung mit dem Aufbau der neuen DCU wo man sich wieder die gleichen Probleme wie mit den GNC einhandelt, welche eben auch nicht ihre theoretische Leistung erreichen konten dank ILP.

Schaut man sich nun Verbrauch, Leistung und alles andere ist diesmal AMD sogar weiter weg von nVidia als mit der RNDA2 Generation. Jetzt bitte nicht OC 7900 XTX mit Vanilla 4080 und 4090 vergleichen.

Ich bin kein nVidia Fanboi und ich hatte anfangs nach dem starken RNDA2 die Hoffnung gehabt, dass AMD diesmal an nVidia aufschließen kann, auch um die Preise in einen vernünftigen Wettbewerb zu bringnen.

AMD braucht die Marge vermutlich weil die 7900 XTX teuer ist und nVida wird nur so weit kommen beim Preis, dass man AMD zwar Raum zur Atmung lässt aber eben nicht zu viel.

Und ja: Halo Produkte haben eine wichtige Rolle im Portfolio. Will AMD eben hier sich stärken, geht es nur wenn man Halo Produkte gegen nVidia stellt. Dies strahlt auf das gesamte Portfolio.

Dazu bestätigt AMD wieder die Vorurteile mit den "schlechten Treibern" welche immer wieder bei Max Mustermann im Kopf bleiben und dann zu den blöden Meinung führen, dass AMD "schlechter" ist als nVidia.

Schade.
 
  • Gefällt mir
Reaktionen: Innocience, Grundgütiger, Faustos und 2 andere
  • Gefällt mir
Reaktionen: Rockstar85, Sly123, DeltaPee und eine weitere Person
Man sollte bei Cyberpunk nicht außer Acht lassen, dass es sich dabei um einen Titel handelt, der in enger
zusammenarbeit in punkto Manpower, Equipment etc. mit Nvidia zustande kam und daher nicht zum 1001 Mal als allg. gültiger Referenztitel herangezogen werden sollte.
Die wirtschaftlichen Interessen, die für die Beiden Unternehmen hinter diesem Titel stecken, sind einfach zu offensichtlich und daher sollte es keinen verwundern das AMD da, gerade bei diesem Titel sehr schlecht abschneidet.
Es wird sicherlich noch etliche andere auf AMD besser optimierte RT Titel geben, die die neuen Raytracing-Einheiten der zweiten Generation auch zu schätzen wissen.

Auch wird es mit Sicherheit, schon bald erste Titel geben, die die neuen Dual-Issue FP32-Einheiten ausnutzen können, Navi 31 dürfte daher nach diesem etwas holprigem Start, voraussichtlich wie es schon bei älteren Karten der Fall war, wie alter Wein beim Kunden reifen.
 
  • Gefällt mir
Reaktionen: jeger und _roman_
Sly123 schrieb:
Dankeschön für den Test.
Mir fällt von vorherein auf das AMD gekonnt den wieder stärkeren Euro ignoriert hat.
Leider ein kleiner Fail.

Hä? In den USA kommt Steuer erst an der Kasse drauf.

999 USD -> ~940€ + 19% MwSt = ~ 1120€

Das ist mit 1149€ ziemlich fair eingepreist/konvertiert in Euro mit etwas Platz für Schwankungen.
 
Hab grad noch mal die Preise gecheckt...
Frustrierend.
Unter 400€ gibts nix was meine nun 3 Jahre alte rx5700 so überflügelt wie den damaligen Kaufpreis.
Oder anders gesagt, für 350€ gibts nur Karten die genauso oder kaum schneller sind.
3 Jahre stillstand bei der PL.
 
  • Gefällt mir
Reaktionen: Zitterrochen, jeger, _roman_ und 2 andere
ArrakisSand schrieb:
Man sollte bei Cyberpunk nicht außer Acht lassen, dass es sich dabei um einen Titel handelt, der in enger
zusammenarbeit in punkto Manpower, Equipment etc. mit Nvidia zustande kam und daher nicht zum 1001 Mal als allg. gültiger Referenztitel herangezogen werden sollte.
Die wirtschaftlichen Interessen, die für die Beiden Unternehmen hinter diesem Titel stecken, sind einfach zu offensichtlich und daher sollte es keinen verwundern das AMD da, gerade bei diesem Titel sehr schlecht abschneidet.
Es wird sicherlich noch etliche andere auf AMD besser optimierte RT Titel geben, die die neuen Raytracing-Einheiten der zweiten Generation auch zu schätzen wissen.

Auch wird es mit Sicherheit, schon bald erste Titel geben, die die neuen Dual-Issue FP32-Einheiten ausnutzen können, Navi 31 dürfte daher nach diesem etwas holprigem Start, voraussichtlich wie es schon bei älteren Karten der Fall war, wie alter Wein beim Kunden reifen.
Irgendwie auffällig das AMD das nicht auch schafft. Nicht falsch verstehen, mich würde es sehr freuen, wenn AMD Anschluss an Nvidia fände, doch es regt einen auch auf, dass sie sich da nicht mehr Mühe geben und Nvidia immer das Feld überlassen.
 
Uskok1530 schrieb:
Somit gesehen kann dies nicht das Ziel das von AMD gewesen sein und irgendwas ist mächtig schief gelaufen.
Das ziel war (und ist?) wahrscheinlich eine weitergehende Aufteilung des GCDs, aber die werden in die von dir genannten Probleme gelaufen sein. Und so ist das aktuelle Design wahrscheinlich ein Zwischenschritt, bis die da hin kommen. Es macht einfach keinen Sinn, der overhead, die Fertigungskosten, der zusätzliche yield Verlust? Klar hat AMD einen höheren yield der einzelnen dies, und spart durch die 6nm node, aber unterm Strich bringt es nichts in der aktuellen iteration.

Es gab ja die letzten Wochen schon Unkenrufe mit Problemen bei der RX7900 Serie, geringen Stückzahlen etc. Wie es aussieht sind auch viel mehr 7900xt verfügbar, und das erkläre ich mir mit Problemen bei der Chiplet Assemblierung...
 
ArrakisSand schrieb:

ASUS TUF Gaming Radeon RX 7900 XTX OC Edition 24GB GDDR6​

Ein kleiner Vorgeschmack was mit den 3x 8-Pin-Custom-Designs so alles möglich sein wird
Und 460W Verbrauch, nein danke.
 
  • Gefällt mir
Reaktionen: Innocience, Bulletchief, karl_laschnikow und 6 andere
Das mit dem 16 pin Stecker hat sich als Benutzer fehler entpuppt sprich durch neue rev des Steckers der erst dann funktioniert wenn der Richtig drin steckt gibt es kein problem mehr.
bei neueren bzw kleineren Sku sollte aber der Stecker hinter der gpu sein und möglichst kurz.
In die breite wird jetzt schon eng wenn mehr als 1cm über pcie slotblende geht
nicht jeder hat 4cm zwischen seitenwand und gpu slotblende
 
  • Gefällt mir
Reaktionen: MrHeisenberg
mcsteph schrieb:
Ne ne so einfach ist es nicht. Der Adapter ist so billig produziert wie es nur geht und das bei einer 2000 Euro Karte.
Ach so? Wurde der Adapter inzwischen ausgestauscht, überarbeitet? Ein neues Design vorgestellt? Gab es eine Rückrufaktion? Nein? Warum nicht?
Ergänzung ()

ArrakisSand schrieb:
Man sollte bei Cyberpunk nicht außer Acht lassen, dass es sich dabei um einen Titel handelt, der in enger
zusammenarbeit in punkto Manpower, Equipment etc. mit Nvidia zustande kam und daher nicht zum 1001 Mal als allg. gültiger Referenztitel herangezogen werden sollte.
Ja, aber du hast einen Cyberpunk Benchmark geposted...der eine der deinem Narrativ entsprach natürlich. Kein RT, stock 4090 460Watt 7900XTX.

Woraufhin ich dann den RT Benchmark geposted habe...
 
  • Gefällt mir
Reaktionen: ThirdLife, Shinigami1 und MrHeisenberg
'XFX Radeon RX 6900 XTX Merc 310 vor."
Bestimmt die Rx7900 xtx, oder?
LG und danke für den Test
 
opoderoso schrieb:
Bei Teillast ebenfalls eine Katastrophe im vergleich zu Intel + Nvidia
Aber das merkt fast keiner, wer schaut sich daheim schon den Verbrauch an der Steckdose an.
Top-Kombi in der Hinsicht: 5950X (mit 3600MHz RAM) + 7900XTX ... knackt dann wohl fast die 200W Marke bei CB Surfen + Youtube :mussweg:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: opoderoso und DeltaPee

Adrenalin 22.12.2 soll für Abhilfe sorgen​

Zitat Computerbase:
Wie die Versionshinweise in Aussicht stellen, sollen die dringlichsten Probleme, darunter insbesondere die zu hohe Leistungsaufnahme bei verschiedenen Lasten, mit dem noch in diesem Monat erwarteten Grafiktreiber Adrenalin Edition 22.12.2 behoben werden. Die Redaktion wird diese Probleme im Auge behalten und entsprechend berichten und testen.
 
  • Gefällt mir
Reaktionen: Icke-ffm, McTheRipper und Onkel Föhn
DayvanCowboy schrieb:
Das ziel war (und ist?) wahrscheinlich eine weitergehende Aufteilung des GCDs, aber die werden in die von dir genannten Probleme gelaufen sein. Und so ist das aktuelle Design wahrscheinlich ein Zwischenschritt, bis die da hin kommen. Es macht einfach keinen Sinn, der overhead, die Fertigungskosten, der zusätzliche yield Verlust? Klar hat AMD einen höheren yield der einzelnen dies, und spart durch die 6nm node, aber unterm Strich bringt es nichts in der aktuellen iteration.

In einen Interview hat es mal ein Ingenieur von AMD ja auch mehr oder minder schon vor Wochen bestätigt: die Bandbreite war viel zu gering und die Latenz zu hoch um die beiden GCD bei Shadern etc. anzubinden damit sich das Ding sich transparent verhält bei Games bei bezahlbaren Preisen. Im Gegensatz zu dem was oft behauptet wird, ist eben der Interposer etc. ja mehr abhängig vom Fertiger. Was TSMC aktuell halt kann sieht man bei Apple mit "Ultrafusion" und das ist schon extrem teuer. Ich glaube ja, dass AMD extrem viel mit der Cache Hierarche etc. rumexperimentiert hat aber keine Lösung gefunden hat für RNDA 3, Ich glaube eher, dass der Aufbau des RNDA3 mit 4 komplett verworfen wird in dieser Form.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grundgütiger
ArrakisSand schrieb:
geben, die die neuen Raytracing-Einheiten der zweiten Generation auch zu schätzen wissen.
Es gibt keine zweite Generation. Die kònnen genau so wenig wie vorher, werden nur besser ausgelastet. Die meisten Effekte gehen immer noch unverändert langsam über die Shader, mehr als heute kommt nicht, der Rückstand zu den noch nicht von den Features ausgenutzten RT3 Cores von NV wird noch massive steigen.
 
DayvanCowboy schrieb:
Der Stecker macht nur dann Probleme, wenn man ihn nicht korrekt einsteckt, (wie andere Stecker auch).
Ich hatte das nur als Vermutung gelesen und einige Bilder mit verschmorrten Kabeln gesehen. Wenns da neue Erkenntnisse gab, ok…
 
Hab mich mal bisschen schlau gemacht die RTX 3080 hat ja mit ihren 10gb Ram auch lange durch gehalten und ohne Texturpacks lange keine Probleme gekriegt.

Doch der Punkt war das es nicht nur auf die Ram Menge an kommt sondern auch auf den Speed und damals war der Gegenspieler die rx 6800xt die zwar mehr Vram hatte aber deutlich langsamer.

760 GB/s vs 512 GB/s

Jeh schneller der Speicher ist um so schneller kann auch der Speicher ausgetauscht werden, also der eventuell kleine Speichermangel oder potenzielle wurde durch die hohe Bandbreite verhindert das es zum Problem wurde.

Natürlich wurden die 10GB irgendwann trotzdem zu wenig die Frage ist ja nicht ob knapper Ram irgendwann zum Problem wird sondern wann, meine These ist ja das dies auch bei der 4080 der Fall sein wird und nicht erst in 2-3 Jahren sondern schon früher nicht durchgängig und klar man kann die Settings ändern und die Welt geht nicht unter aber bei dem Preis will man an keinen Settings drehen müssen.

Nun meine sagen wir mal Skepsis, das Problem könnte mit der 4080 ein groesseres Problem werden wie mit der 3080 weil neben dem geringen Speicher (in der Preis / Leistungsklasse) die Karte auch noch langsameren Speicher hat, nur 717GB/s was schon im Vergleich zum Vorgänger langsamer ist im Vergleich zu AMD mit 960 / 880 Gb/s ein deutlicher Abstand und zur 4090 mit 1008 GB/s sind das gar 30% weniger Durchsatz.

Das heißt denke ich kann man safe Zusammen fassen das wenn (sagen wir mal mittelschneller) 16 GB Vram knapp wird werden die Radeons deutlich besser altern, so weit ist das nicht mal mehr viel Spekulation, was natuerlich weiterhin Spekulation ist, ist wann dieser Punkt zeitlich ein tritt.

Nun will ich nicht potenzieller Vram Mangel als das schlimmste denkbare übel und riesen Problem darstellen, und wären die Geldbeträge umgekehrt würde ich das sehr kleinreden also das der Extra ram keine paar hundert Euro mehr Geld wert ist, aber da nicht nur die Ram Menge sondern auch Bandbreite besser ist die Karte sonst recht gut mit halten kann und es das mehr ram noch oben drauf gibt würde ich es schon als Perk ansehen.

Wer natuerlich RT Süchtig ist und das für das Nonplusultra an sieht und das mehr an Geld ueber hat oder sich gar ne 4090 kaufen kann (der hat das Problem ja nicht) mag das alles nicht entscheidend sein, aber dennoch wäre ich da nicht so sicher das der kleine sehr langsame 4080 Speicher bei so ner extrem teuren Karte wirklich nicht zum Problem werden kann, aber wahrscheinlich spinn ich ja nur. Und auch in 10 Jahren sind langsame 16gb VRam noch genug :D.

Man muss sich das schon mal auf der Zunge zergehen lassen, selbst bei gleicher Speicherbandbreite wie z.B. bei der 3080 werden doppelt so grosse Texturen nur halb so schnell in den VRAM geladen, weil sie doppelt so gross sind, und die Karte hat nicht mal diesen Speed.
 
-> m1 <- schrieb:
Warum sie die nicht für
949€ und 1049€ UVP bringen, versteh ich nicht.

So wirken sie mit dem Treiberstatus einfach noch unatraktiver. Unter 1000€ müssten es schon sein.

Mal noch ein paar Monate bis zum kompletten Line-Up und dem stable Treiber warten. 😊

Du meinst 999€ und 799€ UVP, alles andere ist quatsch.
Besonders die XT, welche 15-20% langsamer ist als die XTX für nur 10% weniger zu verkaufen ist einfach abartig.

Durch das Chiplet Design spart AMD so viel Geld, da der Die wesentlich kleiner geworden ist etc..
Die Preise sind halt einfaches abmelken der AMD Fanboys, aber wer halt zu den Preisen kauft, darf auch nicht drüber heulen das Hardware, besonders GPUs, immer teurer werden...

Und wer das Referenzdesign gekauft hat mit diesem krassen Spulen fiepen, viel Spaß damit.
Da mehrere Reviewer das bemängelt haben, ist es auch kein Einzelfall.
Einfach nur halbgarer Schrott...

Das mit den Treibern ist noch mal eine ganz andere Geschichte.
 
Zuletzt bearbeitet:
Uskok1530 schrieb:
Jetzt bitte nicht OC 7900 XTX mit Vanilla 4080 und 4090 vergleichen.
Was ist eine 4080 Vanilla ? RTX3080 = 320 Watt (375 Watt OC) vs. RTX4080 = 320 Watt (355 Watt OC)

rtx30804080.jpg


30804080.jpg


Wo wäre wohl die RTX4080 mit einem RTX3080 Kühler, der übrigens auch auf der 3080Ti ist (350/400W).
Also man muss schon eine RX7900XTX mit ähnlich großem Kühler nehmen für einen fairen Vergleich. ;)
 
  • Gefällt mir
Reaktionen: Rockstar85
Zurück
Oben