News GeForce RTX 4090 ohne Gegner: AMD stellt Radeon RX 7900 XTX gegen GeForce RTX 4080

AMD's genialer, kostengünstiger Chiplet Ansatz, passt einfach in die heutige Zeit wie die Faust aufs Auge und versetzt Nvidia gerade einen harten Schlag, von dem sie sich allem Anschein nach nicht so schnell wieder erholen werden.

Denn für >98% der Käufer, zählt nun einmal Preis-Leistung, in einem moderaten Preisbereich und genau dort versagt Nvidia auf ganzer Linie.

RX7900XTX UVP 999$ vs. 4080 16GB UVP 1199$ noch Fragen?

Selbst die für eine UVP von 899$ angesetzte RX7900XT dürfte schon anhand der spec. in etwa gleich schnell wie eine RX4080 werden und dabei zusätzlich folgende Vorteile bzw. die RX 4080 folgenden Nachteile aufweisen:
4080 16GB = 33% teurer als die RX7900XT und dabei hat die RX7900XT auch noch 25% mehr Speicher.

Die für eine UVP von 999$ angesetzte RX7900XTX wiederum, dürfte gut und gerne in etwa 15% schneller wie die RX4080 werden.
4080 16GB = 20% teurer als die RX7900XTX und dabei hat die RX7900XTX auch noch 50% mehr Speicher.

Nvidia wurde gekonnt von AMD gerade in drei Zügen Schachmatt gesetzt und die meisten sehen das noch nicht einmal.
 
Zuletzt bearbeitet:
Uskok1530 schrieb:
Was soll eigentlich der 3D-V-Cache bei einer GPU bringen für das Gaming? Dieses Gerücht war nie so richtig klar. Die Latenzen des VRAM sind beim Gaming sehr wayne und genau dafür sorgt der V-Cache. Es geht nur um Bandbreite. Die die Fertigung und Packing mit den V-Cache wird AMD eher für den Genoa-X verwenden.
Ich empfehle dir diese beiden Folien:
https://pics.computerbase.de/9/5/6/0/7-e189520be9973099/5-1080.f830a47d.png
https://pics.computerbase.de/1/0/5/5/8/9-2991513a3a73eca5/17-1080.3e1c95fd.png
Die erste stammt von der Vorstellung von Navi 21, die zweite jetzt von der Vorstellung von Navi 31.
→ Der InfinityCache sorgt für eine gesteigerte Bandbreite und Energieeffizienz. Er ist auch wohl eher in diese Richtung optimiert und weniger wie ein L3-Cache einer CPU hin zu besten Latenzen. V-Cache sorgt nur genau für eine Sache: Mehr InfinityCache zu relativ geringen Kosten, vor allen Dingen bei guten Yields.
Entsprechend attraktiv ist es daher auch, V-Cache bei GPUs umzusetzen.
Aktuelles Gerücht ist, dass AMD dafür kein eigenes DIE auflegt (wie bei Vermeer-X und Milan-X), das dafür eine höhere Packdichte nutzt, sondern MCDs mit deaktiviertem Speichercontroller, vielleicht auch defektem Speichercontroller. Sollte letzteres der Fall sein pushed AMD dadurch also die Verwertung der DIEs in Richtung 100%.
(auf der 7900 XT sollen ja nur fünf und ein Dummy-DIE zum Einsatz kommen, insbesondere also auch womöglich ein defektes DIE)
 
  • Gefällt mir
Reaktionen: Colindo und ArrakisSand
DerDawn schrieb:
Kannst du das belegen?
Schau dir mal die Umfrage hier bei CB an (auch wenn das Blase ist, sind fast 5000 Votes schon Repräsentativ).. Nimm sonst die Steam Survey..
Nicht umsonst ist die 1060 die am besten verkaufte GPU
1667662039230.png
 
Rockstar85 schrieb:
Genau aus dem Grund, kann man eben wunderbar Extrapolieren :)
Glaub weiter, was du glauben möchtest, AMD geht seit RDNA sogar viel Effizienter mit den Gflops um als NV.. Und AD102 hat das Problem, was solche Architekturen mit sich bringen.. Die Auslastung muss gewährleistet sein, was bei AD102 eben nicht der Fall ist
AMDs Kernproblem war bisher das Front-End, was man angepasst hat.. Wie man dann Plötzlich langsamer werden will, glauben nur Hardcore Fanbois. Sorry aber klar kannst du die Rechenleistung vergleichen, wenn du Vergleichsparameter der Vorgenerationen hast..
Jetzt kommen wieder die typischen Ausflüchte, lass einfach gut sein. Null Argumente bleiben null Argumente.

Rockstar85 schrieb:
Ada ist keine neue Arch
Das weiß ich selber und gerade deshalb eignet sich der Ada-Ampere-Vergleich hervorragend um deine TFLOP Aussage zu entkräften. Deine TFLOP-Rechnung geht zwischen Ada und Ampere schon nicht auf, beim Vergleich mit einer völlig anderen Architektur wir RDNA 2 oder 3 geht sie dann erst recht nicht auf. Jeder der Ahnung hat auf dem Gebiet wird dir sagen, dass man TFLOPs unterschiedlicher Architekturen nicht miteinander vergleichen kann. Unglaublich was für selbsternannte Experten hier unterwegs sind.
 
  • Gefällt mir
Reaktionen: Paradox.13te und MrHeisenberg
@Atma
Das sind fakten.. nachzulesen in div Tests.
Ich finds witzig. Passt einem die Argumente nicht, isses Blödsinn..
Den Videocardzs Artikel zur Leistungseinschätzung gibts ebenso. It's al About Math ;)

Und deswegen habe ich auf #581 (amd 7000er GPU Thread) oder so schon spiele in 4K verglichen und daraus einen Wert errechnet... Ach du bist irgendwie herrlich.
Und mit dem Vergleich.. Klar kannste das, nennt man Treiberoverhead. bissl Varianz sollte man aber auch einberechnen. Die Rohleistung ist immer die Theoretische Leistung, also was die GPU an Rechenwerken hat. Architektur, Frontend, SI und auch Treiber reduzieren dann die Menge.

Im 3DC Index liegt die 6950XT bei 57,1% zur 4090... Mal 1,5-1,7 (AMDs Aussage) liegen wir dann bei 85-97% ..
Insofern wird auch die 7900XTX mit Leichtigkeit an einer nur 72% (der 4090) schnellen 4080/16(Nvidias aussage) dran vorbeiziehen. (die 3090Ti ist am Ende auch nur ~10% langsamer als die 4080/16)
Die 7900XT bei knapp 30% weniger Recheneinheiten dann ~10-15% unterhalb der 4080/16

Kannst dich gerne im Dezember mit exakt diesem Quote melden. Wenn ich Unrecht hab, geb ichn Bier aus.
 
Zuletzt bearbeitet:
ArrakisSand schrieb:
AMD's genialer, kostengünstiger Chiplet Ansatz, passt einfach in die heutige Zeit wie die Faust aufs Auge und versetzt Nvidia gerade einen harten Schlag, von dem sie sich allem Anschein nach nicht so schnell wieder erholen werden.
AMD tritt mit einem ~300mm² Rechenflicken und 6x ~37mm² = 222mm² Speicherflicken gegen eine 379mm² GPU an.

Mehr Silizium, kompliziertere Herstellung und dann auch noch billiger verkaufen - wo genau finde ich da die Genialität?
 
incurable schrieb:
Klarer Fall von schnell, effizient, billig - such Dir (maximal) zwei aus.
Naja das mit dem Preis hatte ich nicht umsonst in Klammern gesetzt. :p Damit wollte ich nur klarstellen, dass ich bspw. die effizienteste Karte nicht kaufe, wenn sie oberhalb meiner bezahlbaren Preisregion liegt. ;)
 
  • Gefällt mir
Reaktionen: incurable
Kuestennebel79 schrieb:
Damit sind die Käufer der RTX3000er und RDNA2 Generation so richtig gef******.
eigentlich nicht, ich bin mit der leistung der 3090 (hat eine 980ti ersetzt) zufrieden und bisher verspüre ich "keinen drang" mir was neues zu kaufen.
 
  • Gefällt mir
Reaktionen: Shoryuken94
incurable schrieb:
AMD tritt mit einem ~300mm² Rechenflicken und 6x ~37mm² = 222mm² Speicherflicken gegen eine 379mm² GPU an.

Mehr Silizium, kompliziertere Herstellung und dann auch noch billiger verkaufen - wo genau finde ich da die Genialität?
Die MCD's (6x ~37mm²) werden im kostengünstigen, mit dem TSMC N7 Design kompatiblem TSMC 6nm Verfahren hergestellt. Die Wafer Kosten dürften in etwa nur halb so hoch sein wie dies bei 5nm der Fall wäre.

Ich komme da in etwa auf 6-7$ pro Chiplet (37mm2) reine Herstellungskosten und dann nochmals ein paar $
fürs packaging, daher dürften die Herstellungskosten in etwa mit dem AD103 (aka 4080) vergleichbar sein.

Aber mach dir keinen Kopf deswegen, diesen Fehler einfach die Fläche des in 5nm gefertigten GCD mit der Fläche der in 6nm gefertigten MCD's zusammenzuzählen, ohne auf diesen Umstand hinzuweisen, findet man noch oft, wenn man so diverse Artikel liest.

Ach ja, dann sollte man auch noch beachten, dass für die kleinen MCD's, auch noch eine Yield rate von fast 100% erreicht wird.
 
Zuletzt bearbeitet:
Rockstar85 schrieb:
Du vergisst dabei eines
Nvidia hat dafür spezielle Instruktoreinheiten, AMD nicht. Und am Ende steht und fällt das auch alles mit dem Treiber.
Welchen Ansatz eine Firma verfolgt um ein Ziel zu erreichen, kann mit als Kunde relativ egal sein. Für mich zählt am ende das Ergebnis. Ob mit extra Recheneinheiten, geschickte Doppelnutzung vorhandener Ressourcen oder Feenstaub ist völlig zweitrangige. Es kommt drauf an, was am Ende ankommt.

Rockstar85 schrieb:
Den Weg den RDNA3 geht ist eher ein Tock als eben was damals Turing war.
Und auch hier muss man einfach akzeptieren, dass Nvidia die KI Einheiten verdoppelt hat mit Ampere und unter der Prämisse, sind die Werte nicht mal schlecht.

Wie gesagt, vollkommen egal was sie machen. Das Ergebnis bleibt das gleiche. RDNA3 bietet nur die RT Leistung die Ampere schon vor zwei Jahren geboten hat

ArrakisSand schrieb:
AMD's genialer, kostengünstiger Chiplet Ansatz, passt einfach in die heutige Zeit wie die Faust aufs Auge und versetzt Nvidia gerade einen harten Schlag, von dem sie sich allem Anschein nach nicht so schnell wieder erholen werden.

Der Chip selbst ist nicht so viel günstiger, bei den guten Yields bei TSMC 5nm. Der Siliziumeinsatz ist bei RDNA3 auch relativ hoch, zudem ist das Packaging wesentlich teurer. Der wirkliche Sparvorteil liegt in den deutlich günstigeren Boards und Speicher, da man keine überzüchtete GPU auf die Beine gestellt hat. Die Ersparnis beim Chip in Bezug zu den gesamtkosten der Karte sind für RDNA3 nicht der größte Faktor.

ArrakisSand schrieb:
Denn für >98% der Käufer, zählt nun einmal Preis-Leistung, in einem moderaten Preisbereich und genau dort versagt Nvidia auf ganzer Linie.

Also da sagen die Verkaufszahlen seit Jahren etwas anderes. Preis Leistung ist wichtig, aber nicht der alleinige Faktor. Sieht man doch schön. Von der Preis Leistung ist Nvidia in der gleichen Klasse meist etwas schlechter als AMD, trotzdem sind die Marktanteile deutlich größer. Eine RX480 /580 hatte auch eine bessere Preis / Leistung als die GTX 1060. Trotzdem liegt letztere um den Faktor 5,5 in der Steam Hardwaredatenbank vorne, selbst wenn man 480 und 580 zusammenzählt.

ArrakisSand schrieb:
RX7900XTX UVP 999$ vs. 4080 16GB UVP 1199$ noch Fragen?

Wer wirklich seine Kaufentscheidung von der Preis / Leistung abhängig macht, kauft eher weniger im vierstelligen Preisbereich ein. Wer Porsche Turbo fährt, tankt auch nicht das günstigste E10. Dazu ist die Situation doch die gleiche, wie in den ganzen letzten Jahren.

AMD ist bei ähnlicher Leistung etwas günstiger, hat mehr Speicher und ist in manchen Punkten unterlegen, in manchen sehr stark.

Nichts was man nicht bei der 6800Xt und 6900Xt gegen 3080 / 3080Ti und 3090 hatte.

Eine 6900XT 16GB für 999$ gegen eine 3080Ti für 1199$ war exakt die gleiche Situation. Selbst die 3090 für 1499$ hat sich deutlich besser verkauft, als die 6900XT. Also ja da stellt sich eine Frage. Warum sollte es anders laufen, als die ganzen letzten Jahre?

ArrakisSand schrieb:
Nvidia wurde gekonnt von AMD gerade in drei Zügen Schachmatt gesetzt und die meisten sehen das noch nicht einmal.

Nein, die meisten sehen die gleiche Situation wie seit Jahren. AMD ist in manchen Punkten gleichauf, in manchen besser, in manchen schlechter. Verlangen dafür etwas weniger Geld, sind aber in eiem ähnlichen Preisfenster. Alles schon oft genug gesehen.

Der einzige Unterschied bei RDNA3, die wirklich günstige High End Option hat man einfach gestrichen. Okay, die 6800 und 6800XT haben eh nie nennenswert am Markt existiert. Waren aber formal für wenig Geld in einer ähnlichen Liga wie die anderen High End Modelle für vierstellige Preise. Diese Option hat AMD nun gestrichen, in dem man den Nvidia Move gemacht hat und einfach künstlich aus einer 800er Karte eine 900er gemacht hat.
 
incurable schrieb:
Für mich verdient die "7900 XT" genauso wenig diesen Namen wie die "4080 12GB" ihren.
Wieso? Das ist doch eine ganz normale Salvage-Karte:
Ein Block Speicherinterface gestrichen (1/6), ein Achtel der Shader, gleicher Chip wie das Topmodell, gleiche Speichergeschwindigkeit pro Chip wie das Topmodell. Die Vega 56 hatte z.B. auch ein Achtel weniger Shader, aber ein unbeschnittenes Speicherinterface. Aber bei zwei HBM-Controllern wären einen zu streichen ja auch sehr schwierig gewesen, das geht hier mit sechs Controllern natürlich viel besser.
 
ArrakisSand schrieb:
Aber mach dir keinen Kopf deswegen, diesen Fehler einfach die Fläche des in 5nm gefertigten GCD mit der Fläche der in 6nm gefertigten MCD's zusammenzuzählen, ohne auf diesen Umstand hinzuweisen, findet man noch oft, wenn man so diverse Artikel liest.
Weist Du, wo man Deinen Strohmann nicht findet? Genau, im Beitrag auf den Du mutmaßlich antworten wolltest.
 
Plasma81 schrieb:
Wie hier bereits ein anderer Forist geschrieben hat, muss es zum Spielen nicht High End sein, sondern geht wunderbar ne ganze Ecke darunter.
Jap, wenn wir mal alle ehrlich zu uns sind, um zu zocken reicht eine RX6600 oder 3060 aus. Auch in WQHD entgegen des großen CB Vergleichs. Es muss halt nicht jeder Blockbuster mit allen Reglern auf voller Kanne laufen. Also die meisten Leute in meinem Umfeld kaufen auch in genau der Preisklasse. Und diejenigen, die größeren Kram im Rechner haben, die wissen auch genau, dass das bisschen bekloppt ist, wenn man es rational betrachtet.
 
  • Gefällt mir
Reaktionen: McTheRipper und n0ti
Shoryuken94 schrieb:
Wie gesagt, vollkommen egal was sie machen. Das Ergebnis bleibt das gleiche. RDNA3 bietet nur die RT Leistung die Ampere schon vor zwei Jahren geboten hat
Genau.. Wie du sagtest für dich!
Für über 90% am Markt ist es nicht Relevant. Ich warte bis heute auf DLSS für manche Spiele.. Ich habe bei 350 Games ganze 7 RT spiele.. Das dürfte nicht nur bei mir so sein.
Immerhin hat AMD schnell gemerkt, dass man eigene KI Einheiten braucht. Was auf gute RT Leistungen bei der PS6 hoffen lässt.
Nebenbei 65% sind halt auch immer noch bei FHD. Also kein Wunder, dass man DLSS und FSR so stark bewirbt.
 
Ayo34 schrieb:
Im Grunde macht sie auch nur Sinn für Content Creator und eben nicht für reine Gamer. War bei der 3090 nicht anders.
Sehe ich anders. Wer in zwei Jahren noch 4k60 zocken will, kommt um die 4090 nicht drumherum.

Zumal man ja bei Plague Tale gut sehen kann. Es geht jetzt erst mit den Next Gen Engines so richtig los, nachdem vorher noch for die alte Gen auf den Konsolen mitentwickelt wurde. Und Zack, steigen die Anforderungen exponentiell.

Man kann natürlich sagen, Plague Tale ist nicht besonders gut optimiert. Gestiegene Anforderungen werden wir ab sofort deutlich häufiger sehen, allein schon durch die UE5.
 
Kuestennebel79 schrieb:
Damit sind die Käufer der RTX3000er und RDNA2 Generation so richtig gef******.
Keine Frame Generation für Euch liebe Kunden, die Ihr in der Corona Zeit doch so schön hohe Preise bezahlt habt.

Ich weiß nicht, ich zocke seit fast 2 Jahren mit meiner 650€ Grafikkarte und die meisten Spiele laufen in 1440p für mich ganz zufriedenstellend.

Ob Frame Generation was taugt, muss sich zeigen. Aber ich bin eh der Meinung. Wenn ich etwas schnelleres brauche, kaufe ich es mir und wenn eine Grafikkarten meinen Ansprüchen noch genügt, dann brauch ich auch keine neue, nur weil es bessere Optionen gibt.

CDLABSRadonP... schrieb:
Wieso? Das ist doch eine ganz normale Salvage-Karte:

Weil bei der 6000erGeneration die Salvage-Karte noch eine 6800XT. Nun nennt AMD die Salvage-Karte des größten Chips 7900XT.

Ist genauso wie Nvidia, die aus einem 3070TI Nachfolger eine 4080 machen wollten. Einfach alles eine Klasse höher benannt und den Preis raufgesetzt.
 
  • Gefällt mir
Reaktionen: incurable
CDLABSRadonP... schrieb:
Wieso? Das ist doch eine ganz normale Salvage-Karte
Letztes Mal hatte die XT-Version 100 (was auch immer) im Namen weniger.

Jetzt soll bei gleicher Nummer ein einziges Zeichen dem Kunden erklären, dass es sich um eine Karte mit weniger Speicher, weniger Cache, weniger Recheneinheiten und weniger Takt handelt. (Hmmm, wo hab ich das nur Letztens erst gesehen?)
 
incurable schrieb:
Ich frage mich, wo der Wunschtraum der multiplen GPU-Rechen-Flicken geblieben ist, der noch vor wenigen Tagen oder Wochen als Trumpfkarte von AMD theoretisiert wurde.

Klar, effizient und günstig ist das nicht, und ein Albtraum für die Treibermannschaft wäre es auch, aber wenn es darum geht, auf Teufel komm raus den längsten Balken zu haben ...

Da ist AMD definitiv dran. Und wenn es kommt wird NV ins schwitzen kommen. Denn das hat riesen Vorteile. Man braucht nur ein GCD und kann eine komplette neue Gen damit bestreiten...

Das ist auch der Grund wieso auch NV daran arbeite....
Und nein das muss für das Treiber Team gar kein Albtraum werden. Das war es noch als zwei GPUs als eine versucht wurde anzusprechen....
Hier wandert aber alles eine Ebene tiefer. Die Firmware und Hardware müssen das richten...
 
Zurück
Oben