Bericht Radeon RX 7900 XTX & XT: AMD RDNA 3 startet am 13.12. für 999 & 899 USD

RogueSix schrieb:
Ansonsten enttäuschend, dass AMD nie selbst mal eine echte Feature-Innovation am Start haben.

Nur mal so am Rand: AMD hat Mantle erfunden, dass zu Vulkan wurde. Nur diesem Umstand ist es zu verdanken, dass die Schnittelle DXVK entstanden ist und man jetzt auch komplett auf Linux zocken kann.
Nvidia könnte bzgl. Linux auch mal etwas "innovativer" sein. Viele ihrer Features gehen da nämlich garnicht erst und die nvidia Treibersteuerung ist optisch von 1995...
Ich wechsle jetzt nach 12 Jahren nvidia ins rote Lager, denn die bekommen das (leider) deutlich besser hin.
Und bevor die Frage aufkommt: Mir ist es viel viel wichtiger dauerhaft Windows los zu sein, als irgendwelche RT Spielereien auf dem Monitor zu sehen.
 
  • Gefällt mir
Reaktionen: simosh, Matthias80, derbe und 7 andere
Taxxor schrieb:
Damit ist bei 300W die 4090 13% effizienter als eine 7900XTX.
Das passt dann ja sogar in etwa zum Herstellungsprozess: N4 bei Nvidia vs N5+N6 bei AMD. Schade natürlich, dass AMD hier schlechter ist, aber preislich auch gerechtfertigt. Dafür gibt es bei AMD ja zumindest auch noch DP 2.1 oben drauf, was für mich persönlich - mit Hinblick auf die Zukunft - sehr relevant ist.
 
  • Gefällt mir
Reaktionen: Makso
Piecemaker schrieb:
In Deutschland haben wir eine einheitliche Steuer auf alles, die sogenannte Mehrwertsteuer von 19%. Um den UVP Preis von diesen 999$ auszurechnen benötigen wir den Dollar zu Euro Preis + 19% Mehrwertsteuer. Das sind also 1024€ + 195€ = 1219€.

Auf einen ähnlichen Wert kam ich auch. Deshalb ist meine Begeisterung nicht die beste, da auch das kleinere Modell bei um die 1100€ wäre. Wenn doch der Wechselkurs nicht so ein Müll wäre .... -.- 999€ inkl. Steuern für die XT hätte klappen können. Rund 1000€ habe ich als meine Preisgrenze auserkoren und das ist schon hammer viel. RTX2080S bringt vielleicht 300€.

-----------

AMD könnte auch noch die Suffixe RX7950XT und RX7950XTX machen, wenn man man für das Suffix RTX4080TI was braucht oder um näher an die 4090 zu kommen. Diese Karten dann 1199$ und 1399$ UVP.
 
Chilisidian schrieb:
Naja was hält AMD davon ab, nicht noch zusätzlich eine Karte aufzulegen,
Hat er im Stream gesagt.
3 Jahre entwicklungszeit.
Laphonso schrieb:
Wann fallen denn die RNDA Test NDAs? Ist das schon bekannt?
Ich tippe auf den 12. Dezember 15:00.
Wie immer. 24h vorher.
neuhier08 schrieb:
Danke fü das Update, ich denke ich werde einen leichten Leistungszuwachs von der 5700 XT zur 7900XTH merken ;-)
Mit dem i7-5930k wird das wohl tatsächlich bei einem leichten Leistungszuwachs bleiben.
 
  • Gefällt mir
Reaktionen: simosh, neuhier08 und Laphonso
Ragnarök88 schrieb:
Garantiert nicht schneller als ne RTX 4080 16Gb, schon gar nicht mit RT.
Wie kommt man immer auf so einen Quatsch? Rechnerisch wird die XTX definitiv schneller als eine RTX 4080 sein, selbst im Worst-Case. Bei RT hast du Recht, da taugt AMD nichts, aber bezogen auf die normale Performance hat die 4080 überhaupt keine Chance, und das trotz 20% höherem Preis. Hier, kannst es ja selbst nachrechnen.
 
SVΞN schrieb:
Anfänglich ganz sicher nicht.
Ist bekannt ob AMD die Karten wieder im Direktvertrieb anbieten wird?
Ich hatte zwei mal Glück und habe sowohl die 6800XT als auch die 6900XT direkt zum jeweiligen Start zur UVP bekommen.
Eben über den AMD Shop!
Das war zwar ein Glücksspiel, aber immerhin eine Chance ein paar hundert Euro zu sparen :daumen:
 
W0dan schrieb:
Dass die 4090 wahrscheinlich schneller ist, tut da praktisch nichts mehr zur Sache.
Zumal die Karte fast 100W mehr braucht, evt. die Kosten fuer ein neues Netzteil und einen passenden neuen Prozessor noch dazu kommen, und AMD/RTG die RX 7900XTX eben nicht bis an die Kotzgrenze uebertaktet/aufgebohrt haben um die Leistungskrone zu gewinnen, sondern zeitgemaess eher auf Nachhaltigkeit setzen und die Effizienzkrone im Flaggschiffbereich ganz klar einstreichen.

Vermutlich wird eine RTX 4080Ti das direkte Leistungsklassen-Pendant zur RX 7900XTX werden, nur bei einem deutlichen hoeheren Preispunkt (denn schon die angekuendigte RTX 4080 16GB, die deutlich schwaecher als eine RTX 4090 daher kommen wird, wird deutlich mehr als die aktuelle AMD/RTG RDNA3 Flaggschiffkarte dann kosten und duerfte evt. leistungstechnisch unterhalb der RX 7900XT liegen) und vermutlich immer noch hoeherem Verbrauch und Abwaerme.

Es koennte auch eine aehnliche (native Leistungs-)Konstellation wie damals bei den Maxwell vs. Fiji-Karten hinauslaufen (GTX 980Ti vor R9 Fury X vor R9 Fury vor GTX 980), mit der RTX 4090 vor der RX 7900XTX, der RX 7900XT, und dann erst der RTX 4080 16GB, aber warten wir es ab ;).

Wenn man bedenkt, dass die RDNA2 auch nicht wirklich guenstiger in dem Leistungsegment waren bzw. man nur die RX 6900XT fuer 999 US$ und nicht die XTX Version dafuer bekommen hat, ist das wirklich eine aggressive Produktplatzierung und -initiative von AMD/RTG in der Hoffnung auf massiven Marktanteil-Gewinne (bei Kaufinteressenten der RTX 70erTi bis 80Ti Leistungsklassen).

Ich hoffe nur, dass AMD/RTG fuer diese relativ fairen Preise belohnt bzw. nVidia fuer die ueberzogenen Profigierpreise auf Kryptominerkaufniveau abgestraft werden.

Nur schade, dass es noch eine ganze Weile bis zu den Navi32 Karten hin sein wird und hoffentlich wird es mit der Verfuegbarkeit kurz nach Marktstart passen (ohne Scalperaufpreise) ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Makso und Icke-ffm
Also ich hab Bock auf die 7900XTX, auch wenn ich sie nicht brauche aber für VR sind die 24GB einfach genial, ebenfall hoffe ich auf eine fette Variante wie die von schlag einer 4090strix.
FSR, RT und dieser ganze andere schmuh juckt mich nicht.
Auch wenn die karte unter einer 4090 ist, mir kann es recht sein, da ich selbst die 6900xt bisher sehr selten ans limit gebracht hab, da ich aber technikbegeistert bin reizt mich trotzdem ne neue GPU.
Preislich ist die ja ebenfalls sehr attraktiv. Ganz im gegensatz zur AM5 plattform, worauf ich schon Bock hätte aber hier den mehrwert nicht sehe, upgradepreis ist einfach zu viel des guten.

Ich hoffe aber die 3rd party Karten haben mehr ports zu bieten als die Ref karte.
HDMI = TV
DP1 = Monitor 1
DP2 = Monitor 2
DP3 = VR Brille
 
  • Gefällt mir
Reaktionen: Makso und Dimensionday
Beelzebot schrieb:
Nur mal so am Rand: AMD hat Mantle erfunden, dass zu Vulkan wurde. Nur diesem Umstand ist es zu verdanken, dass die Schnittelle DXVK entstanden ist und man jetzt auch komplett auf Linux zocken kann.
Nvidia könnte bzgl. Linux auch mal etwas "innovativer" sein. Viele ihrer Features gehen da nämlich garnicht erst und die nvidia Treibersteuerung ist optisch von 1995...
Ich wechsle jetzt nach 12 Jahren nvidia ins rote Lager, denn die bekommen das (leider) deutlich besser hin.
Und bevor die Frage aufkommt: Mir ist es viel viel wichtiger dauerhaft Windows los zu sein, als irgendwelche RT Spielereien auf dem Monitor zu sehen.
Umstieg auch im Gaming Bereich auf Linux -> beste Entscheidung überhaupt.
 
  • Gefällt mir
Reaktionen: derbe
Ihr werdet die RTX 4090 nicht unter 1900€ bekommen, nicht in den nächsten Monaten. Wenn überhaupt in der EU Verfügbar, bis Q2 2023. Das ist auch der Grund warum AMD erst im Dezember startet denn es wird dauern bis eine richtige Verüfgbarkeit da ist. Der Grund ist 5nm von TSMC. Da hat Apple immer den Vorzug und alle anderen kommen nach.
Ich finde die Vergleiche hier immer wieder lustig, wie nah Sie an die 4090 kommt. Die 4090 ist nichts anderes als eine Youtuber Karte. Niemand den ich kenne würde 2000€ für eine Graka ausgeben. Sogar 1000€ sind abnormal aber irgendwie etabliert es sich langsam wie ein 1500€ IPhone mit 128GB.
Ja ich werde mir ein AM5 System erstellen aber ich warte noch bis die Preise einen Punkt erreicht haben und die X3D Verfügbar sind, dann sind hoffentlich auch die Mainstram Grafikarten verfügbar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: simosh, Icke-ffm und DrTimeWaste
Chismon schrieb:
Das koennte der RyZen 2 Chiplet-Moment fuer AMD(/RTG) bei den Grafikkarten sein, 'mal sehen wie nVidia damit umgeht, Intel hat sich ja irgendwann angepasst und eben Big-Little Cores gebracht, aber kann nVidia auf Dauer ohne Chiplet-Design (preislich) konkurrenzfaehig bleiben kann bei den Gaming-dGPUs?
Das was AMD hier als "Chiplet Design" vorgestellt hat, ist kaum der Rede wert. Erinnern wir uns, ursprünglich spekuliert wurde hier mit zwei Chiplets für die High-End Karten und draus geworden ist ein monolithischer Die mit Chiplets für den Cache.

"Auf Dauer" ist bei Nvidia sowieso nichts, mit Chiplets experimentiert man schon längst, aber relevant wird es erst wenn die GPU selbst aus Chiplets besteht.
https://www.tomshardware.com/news/nvidia-exploring-various-multi-chip-gpu-designs
 
  • Gefällt mir
Reaktionen: Zockmock
Chismon schrieb:
Ich hoffe nur, dass AMD/RTG fuer diese relativ fairen Preise belohnt bzw. nVidia fuer die ueberzogenen Profigierpreise auf Kryptominerkaufniveau abgestraft werden.
Das hoffe ich auch. Wobei man ja so einige Punkte beachten sollte: Auch, wenn die 4090 hier so unfassbar teuer ist, letztendlich hat Nvidia die Preise gegenüber dem Vorgänger nur um 100 $ erhöht. Der Rest ist halt Inflation und der schlechte Euro/Dollar-Kurs.
Dazu kommt, dass durch den Crypto-Mist die Nachfrage in der Vergangenheit zeitweise derart hoch war, dass die Karten zum Teil für den doppelten (3090) oder gar dreifachen (3080) Preis weggegangen sind. Gewisse Preiserhöhungen sind hier also zumindest noch nachvollziehbar. Aber klar, ich hoffe auch, dass Nvidia hier Probleme bekommt und die Preise reduzieren muss/sollte. Realistisch gesehen halte ich das aber (leider) für unwahrscheinlich.
 
  • Gefällt mir
Reaktionen: Chismon
Zenx_ schrieb:
999$ für ne Karte, die so stark ist wie eine RTX 4090

Im Bericht steht doch aber eindeutig, dass die RX7900XTX zwar ein gutes Stück schneller als die RTX 4080 ist, aber die RTX 4090 dennoch unerreicht bleibt?!
Für eine UVP von $999 ist die RTX 4090 dann aber wohl trotzdem komplett uninteressant.

Mal die ersten unabhängigen Benchmarks abwarten.. :)
 
xexex schrieb:
[...] aber relevant wird es erst wenn die GPU selbst aus Chiplets besteht.
Falls das jemals wirklich so kommen wird. Mit SLI und CrossFire ist man ja kläglich gescheitert, und der Vorteil von Chiplets hält sich bei GPUs (vermutlich) in Grenzen. Damit der Scheduler die Aufgaben sinnvoll auf die Shader verteilen kann, sind - soweit ich weiß - niedrige Latenzen bzw. eine schnelle Aufgabenverteilung unfassbar wichtig. Der Cache ist da nicht so relevant, weshalb man diesen gut auslagern kann, wie AMD es hier getan hat, aber zumindest für die einzelnen Shader ist das weitaus komplizierter. Und gerade hier ist die Ausbeute so oder so nicht so ein Problem wie zum Beispiel bei CPUs, weil man Tausende an Shadern hat, von denen defekte Cluster einfach abgeschaltet werden können, um die Ausbeute zu erhöhen. Das einzige, was man halt einspart, sind die Entwicklungskosten für einen größeren Chip, wobei ich mir hier ohnehin die Frage stelle, wie diese denn überhaupt zustande kommen, denn die Architektur bleibt ja dieselbe und man verändert ja lediglich die Anzahl der Cluster/Shader-Einheiten.
 
Skatch schrieb:
Mal die ersten unabhängigen Benchmarks abwarten
Interessant wäre auch ein Vergleich bei 355 Watt bei beiden Karten.

Für das gesparte Geld kann man sich dann ja einen kleinen Drachen im Schraubglas und ein Raumschiff mit Geckokopf bestellen :daumen:
:schluck:
 
  • Gefällt mir
Reaktionen: Zockmock und Illithide
Skatch schrieb:
Für eine UVP von $999 ist die RTX 4090 dann aber wohl trotzdem komplett uninteressant.
Würde ich so nicht sagen, da Nvidia ja zumindest mit Ray Tracing und DLSS einen enormen Vorteil hat. Aber ja, in Bezug auf die "normale" Performance lohnt sich AMD definitiv deutlich mehr.
 
PegasusHunter schrieb:
Es gibt vielleicht einen Grund. Marktanteile? :rolleyes:

Jup genau, Marktanteile... bei Grafikkarten >€1000 mitten in einer veritablen Wirtschaftskrise mit historisch hoher Inflation und bevorstehender Rezession wird es die Marktanteile für AMD im Dutzend billiger hageln. Ganz bestimmt :D .

Ernsthaft, selbst wenn wir den größten Wirtschaftsboom aller Zeiten und null Probleme hätten, dann würde der Markt für Grafikkarten >€1000 immer noch sehr klein sein und sich bei den Gesamtmarktanteilen höchstens im Promillebereich etwas verschieben.

Wenn AMD Marktanteile haben wollte, dann müssten sie so etwas machen wie die GTX 970 damals. Ordentlich Leistung für $329 MSRP (und die letzten 500MB vonnet VRAM noch ordentlich anbinden :D ). Das gäbe Marktanteile.
Aber es ist doch völlig irrelevant für die Marktanteile, was in dem Preisbereich ab $/€1000 passiert.

Zumal AMD sich zurecht(!) generell von der Strategie der Preiskämpfe unter Lisa Su schon lange verabschiedet haben. Außer einem Haufen Schulden, mehreren Beinaheinsolvenzen sowie einem ruinierten Ruf als "Billigheimer" hat ihnen die Preisdumpingstrategie der frühen bis mittleren 2000er überhaupt nichts eingebracht.

Das moderne AMD macht es vollkommen goldrichtig, dass Marge und Profitabilität vor Marktanteilen gehen.

Die Marktanteile kommen durch gute Produkte mit der Zeit von selbst wie man bei Zen/EPYC sieht. Bei den Radeons klappt das nun mal nicht, da nVidia AMD (noch) nicht den Gefallen eines Strauchelns analog zu Intel getan hat.
Dies ist auch relativ unwahrscheinlich, da nVidia ja nicht selbst fertigt. Wenn es bei TSMC klemmt, dann sind AMD und nVidia gleichermaßen betroffen.

nVidia müssten es also architektonisch verkacken oder AMD müssten ihrerseits durch Innovation mal richtig einen raushauen. Ob oder wann das eine oder das andere jemals geschehen wird, bleibt abzuwarten, aber selbst dann ändern sich die Marktanteile natürlich nicht über Nacht, wie man auch wieder am Beispiel des CPU-Marktes sieht.
 
  • Gefällt mir
Reaktionen: Volvo480, simosh, Zockmock und 2 andere
Skatch schrieb:
Im Bericht steht doch aber eindeutig, dass die RX7900XTX zwar ein gutes Stück schneller als die RTX 4080 ist, aber die RTX 4090 dennoch unerreicht bleibt?!
Für eine UVP von $999 ist die RTX 4090 dann aber wohl trotzdem komplett uninteressant.

Mal die ersten unabhängigen Benchmarks abwarten.. :)
Die 7900XT ist jedoch um einiges interessanter als die 4080. Mehr Leistung, 4 GB mehr VRam, Stromverbrauch 300Watt. Klein und kompakt, kein Gehäuse oder Netzteilwechsel, für WQHD perfekt. Raytracing wär zwar nett, aber wegen 2-3 Spielen kann man auch gut darauf verzichten.

Der einzige Grund, warum man dennoch zu einer 4080 greift, ist der Gsync Monitor, wie in meinem Falle. Alle anderen mit Freesync können getrost zur 7900XT greifen anstelle der 4080.
 
Zuletzt bearbeitet:
xexex schrieb:
aber relevant wird es erst wenn die GPU selbst aus Chiplets besteht.
Relevant ist es herstellungskosten- und effizienztechnisch schon jetzt und darum geht es, auch wenn es fuer Dich und andere noch kein "echtes" Chiplet-Design darstellt, darum geht es am Ende aber nicht wenn der Mehrwert jetzt schon stimmt und sich preislich und effizienztechnisch klar niederschlaegt.

Genau mit der gleichen Masche hat man auch bei RyZen Erfolg gehabt durch die einfachere Herstellung, Effizienz und Kostenersparnis und dort ist nVidia eben leider noch nicht (erfolgreich) im GPU-Bereich angekommen und hinkt AMD/RTG (verstaendlicher Weise auch durch die fehlende Erfahrung aus dem CPU Bereich) hinterher ebenso wie beim Infinity Cache, sonst haette Lovelace das schon laengst integriert, aber natuerlich sind die Ansaetze bzgl. der Architektur auch andere bei beiden Chipentwicklern.

Es wird gemunkelt, dass Blackwell als naechste moegliche Gaming-dGPU-Generation von nVidia immer noch nicht (ansatzweise) ein MCM-GPU-Design bieten koennen soll sondern immer noch monolithische Wege gehen soll und falls das stimmen sollte bzw. so kaeme, waere das sicherlich nicht positiv zu bewerten und RDNA4 ein heisser Kandidat fuer einen "RyZen 3" aehnlichen Moment.

Warten wir es ab, ich wuerde mich jedenfalls ueber eine Umdenken bei der Kaeuferschaft (nach dem was nVidia so abgezogen hat bzgl. Kryptominern, Steckern, Preis- und Kundenpolitik, Boardpartnerpolitik, etc.) und einen Marktanteilverlagerung im grossen Massstab hin zu AMD/RTG und weg von nVidia freuen fuer einen insgesamt ausgeglicheneren Markt (mit Intel idealerweise noch als dritten im Bunde), denn das kaeme allen Verbrauchern zu Gute.
 
  • Gefällt mir
Reaktionen: Strubbel99
Zurück
Oben