News Radeon RX 7000 & MI300: RDNA 3 kommt mit Chiplets, aber erst CDNA 3 stapelt sie

Colindo schrieb:
und deswegen hier als Vorwurf an AMD ein wenig unpassend.

Jein.

Intel verkauft ihren neuesten "Mist" z.B. zu Mondpreisen im Notebook an Konsumenten. Schon zu Zeiten von Merom, Dothan oder Yonah war das so. (geile Namen, da weiß auch jeder, wer sie entwickelt hat)

AMD verkauft es aber an den 08/15 Käufer und das auch seit vielen Jahren.

Wem man seinen unausgegorenen Mist verkauft, ist immer eine Frage der Einstellung. Fine Wine Technologie, haben sie aber alle. Unausgegoren und fine wine .... geiles Wortspiel. :heilig:

Es war auch weniger als Vorwurf gemeint. Es ist eine Feststellung meiner Beobachtungen der letzten Jahre, wenn nicht gar Jahrzehnte.

mfg
 
[wege]mini schrieb:
Die letzten Chips ihrer Generation sind IMMER besser als die ersten Chips, bei JEDEM Hersteller.
Und wo ist da jetzt das Problem? Dein Beitrag liest sich an der Stelle ein wenig aggressiv und es wirkt auch so, als würdest du AMD damit einen Vorwurf machen wollen.

Natürlich fließen im Laufe der Produktion auch immer wieder Verbesserungen an allen möglichen Stellen mit in die Produkte, seit es über den Fertigungsprozess oder oder oder. Das ist in jeder Serienfertigung so und ganz normal.

Soll jetzt Intel, NVIDIA, AMD und Co erst mal ein ein halbes Jahr, Jahr produzieren, die Chips nur intern Testen, dann weg werfen und erst wenn sie quasi 1 Jahr gefertigt haben, anfangen die Produkte zu verkaufen?

Was das für eine Ressourcen-Verschwendung wäre.
 
  • Gefällt mir
Reaktionen: McTheRipper, DannyA4 und Colindo
Colindo schrieb:
Also wird RDNA 3 aus mehreren, gleichen Chiplets gebaut, entsprechend dem ersten Patent, das damals die Runde machte. Jedes Chiplet kann das gleiche, aber nur eins spricht mit der CPU, deswegen sieht die CPU nur eine GPU mit einem vielfachen an Shadern. Das bedeutet auch, eine cache-cohärente Kommunikation fehlt unter Umständen. Da bin ich mal gespannt, wie die Kommunikation mit dem VRAM so klappt.
Es fällt auf dass zu RDNA 3 fast nichts neues gesagt wurde. Also will AMD die Spannung hoch halten. Die 50 % höhere Effizienz ist nun Mal nichts neues, sondern wurde von AMD schon lange angekündigt.

Deine Interpretation kann passen. Aber CDNA 2 ist die Umsetzung der passiven Verbindung und hier erkennt die CPU 2 GPUs. Es ist bei Frontier sogar so dass jedem CPU-Chiplet per Infinity Fabric eine GPU zugewiesen ist.
Die APU ist deutlich mehr als das Active Bridge Patent, weil die CPU integraler Bestandteil des Packages ist. Und nicht irgend wie davor sitzt. Außerdem fehlt im Patent mit der passiven Verbindung jede Erwähnung eines L3-Caches. Das muss nichts heißen, sollte man aber auch nicht ignorieren

Die ganze Geschichte mit GPU-Chiplets und rendern in Games funktioniert nur wenn die GPU-Chiplets als eine GPU agieren. Falls dies auch mit einer passiven Bridge möglich ist, wird AMD diesen Weg gehen. Und dann kann auch RDNA 3 per Embedded Fanout Bridge gebaut werden. Falls nicht ...

Das war ein Financial Day und keine Technologie Präsentation. Die erfolgt bei AMD immer erst nach dem eigentlichen Release. Und selbst dann erlaubt AMD immer nur einen kleinen Einblick.

Die Kernbotschaft des Analyst Day ist dass AMD bei AI all in geht und dass der Kern die AI Engine ist. Die läuft auch als XDNA. Die AIE wandert in viele Produkte. Und in den Patenten ist zu sehen wie. AIE sind die ML-Chiplets. Damit die Geschichte funktioniert gibt es einen neuen Software Stack von dem AMD einen Zwischenschritt und dann die Endversion präsentiert.
 
  • Gefällt mir
Reaktionen: Topflappen und Colindo
DevPandi schrieb:
Soll jetzt Intel, NVIDIA, AMD und Co erst mal ein ein halbes Jahr, Jahr produzieren

Das hat niemand gesagt.

Der Zeitpunkt, an dem ein Chip verkauft wird, ist aber immer auch abhängig vom Verkaufsdruck.

Die Konkurrenz ist dann immer mit im Geschäft und wenn der eine mit sehr hohen Ausschussraten verkauft, da der Gewinn exorbitant ist und man sich die Verschwendung leisten kann, machen alle anderen es auch.

Die Chips, die nicht "gut" genug sind, werden ja immer noch verkauft. Wenn aber nur 50% oder weniger überhaupt "nicht gut genug" sind, sondern gar nicht funktionieren, läuft etwas falsch.

Aktuell gehe ich persönlich davon aus, dass bei neuen Generationen mehr als 50% der Fläche des Wafers weggeworfen wird, nachdem er belichtet wurde.

Diese Zahl sinkt dann im Laufe der Zeit.

Ob man jetzt tatsächlich im Fließbandbetrieb das Produkt reifen lassen muss, bleibt dahin gestellt.

Es müssen ja nicht Millionen von Chips sein um zu lernen, was man verbessern muss. Es reichen auch Zehntausende.

mfg
 
andr_gin schrieb:
Wenn der Ethereum Merge über die Bühne ist wird der Großteil der GPUs auf einem Schlag wieder abverkauft werden.
Hast du da eine Link parat?
 
Alle Änderungen an Fertigung, Packaging und Architektur sollen RDNA 3 gegenüber RDNA 2 zu einer Leistungssteigerung von über 50 Prozent bei gleichem Verbrauch verhelfen.
Das hört sich doch mal nach ner Ansage an - anders als der ebenfalls angekündigte, teils drastische Mehrverbrauch bei Zen 4 bei sehr wahrscheinlich deutlich weniger als 50% Leistungssteigerung.

Bin gespannt. Obwohl ich als VR-Gamer aktuell immer noch eher auf NVidia gehen würde. Aber davor hatte ich jahrelang Ati/AMD, von daher lasse ich mich auch sehr gern überraschen und probiere da dann vielleicht auch mal entsprechende Karten von beiden Herstellern aus, bevor ich mich festlege.
 
ETI1120 schrieb:
Die 50 % höhere Effizienz ist nun Mal nichts neues, sondern wurde von AMD schon lange angekündigt.
Es war immer noch ein Financial Analyst Day. Der ist nicht für deep-dive zu neuen Architekturen.

Davon ab wurde das nicht angekündigt. Die einzige Aussage bisher war, dass man eine ähnliche Perf/Watt-Steigerung anstrebt, wie mit RDNA2. Jetzt hat man es aber offiziell schwarz auf weiß.

Dasselbe bzgl. Chiplets. Bisher nur Gerüchte, jetzt auch offiziell. Und Wang hat zusätzlich auch noch bestätigt, dass RDNA3 "even higher clock speeds" als RDNA2 haben wird. Also noch mal eine Taktsteigerung, was auch zu den Gerüchten mit >3GHz passen würde.
 
[wege]mini schrieb:
Aber die "billigen" Phoenix H bekommen dann als monolithisches Design 4nm?

Das macht ja auch Sinn. 4nm basiert wie schon geschrieben auf dem 5nm Prozess.
Und dabei handelt es sich im wesentlichen um einen Budget-Prozess - wie 6nm zu 7nm.
Die bieten zwar was die Energieersparnis, Performance und Transistordichte angeht kaum Vorteile gegenüber 5nm respektive 7nm. Dafür werden aber einige Prozessschritte in der Fertigung optimiert und eingespart, so dass die Chips pro mm² günstiger von AMD, Nvidia & Co eingekauft werden können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Draco Nobilis, [wege]mini und Colindo
[wege]mini schrieb:
Die Konkurrenz ist dann immer mit im Geschäft und wenn der eine mit sehr hohen Ausschussraten verkauft, da der Gewinn exorbitant ist und man sich die Verschwendung leisten kann, machen alle anderen es auch.
Und wenn der andere dann auf Chiplets geht und die Produkte preislich unterbietet und in der Leistung überbietet, ist deine einzige Rettung dass dein Mitbewerber bisher nur 2 % Marktanteil hat. Also dass er nicht beliebig skalieren kann.
[wege]mini schrieb:
Die Chips, die nicht "gut" genug sind, werden ja immer noch verkauft. Wenn aber nur 50% oder weniger überhaupt "nicht gut genug" sind, sondern gar nicht funktionieren, läuft etwas falsch.
Das gut genug hat viele Aspekte. Meinst Du die total Defekte die eine Funktionseinheit zerstören oder die Defekte die die Parameter verschlechtern? Siehe Snapdragopn 8 Gen 1 vs 8+ Gen 1. Hier hat Quakcomm die Reisleine gezogen. Es heißt sogar sie hätten nur die guten Dies bezahlt und nicht den ganzen Wafer. Aber wenn die "guten" Dies von den Parametern schlecht sind, ...
[wege]mini schrieb:
Aktuell gehe ich persönlich davon aus, dass bei neuen Generationen mehr als 50% der Fläche des Wafers weggeworfen wird, nachdem er belichtet wurde.
Bei AMD definitiv nicht. Da werden sogar Dies auf Lager gelegt, um sie später in anzubieten.
Und die Leute die ans Recticle Limit gehen, wo der Yield sehr schlecht ist, haben Redundanzen eingebaut.
Es geht hier wiederum um Totalausfälle oder Teile des Chips die von den Parametern so schlecht sind, dass sie den ganzen Chip ausbremsen würden.
[wege]mini schrieb:
Diese Zahl sinkt dann im Laufe der Zeit.
Dafür hat man eine Risc Production in der Process produktionsreif gemacht wird. Und erst wenn der Yield gut genug ist startet die Massenproduktion. Für die Risc Production nimmt sich TSMC ca. 1 Jahr Zeit.

Wenn man es nicht macht kommen Produkte mit Yields mit 35 % oder mit einer Stückzahl von 100 000 raus. Aber man kann ja behaupten dass der Prozess läuft.

[wege]mini schrieb:
Ob man jetzt tatsächlich im Fließbandbetrieb das Produkt reifen lassen muss, bleibt dahin gestellt.
Das kann sich eigentlich niemand leisten. Es killt Deine Margen.
Und es ist viel einfacher einen Prozess mit kleinem Durchsatz zu optimieren, weil man einen viel höheren Anteil ausführlich Untersuchen kann.
Ergänzung ()

Colindo schrieb:
@ETI1120 Wie siehst du das mit der CDNA-3-APU? Im Bild sind es je ein Chiplet für GPU und CPU. Aber wäre es nicht viel sinnvoller, ein CPU-Chiplet mit 3 GPU-Chiplets zu koppeln? Es sieht ja auch so aus, als wären vier Flächen zum Bestücken mit Chiplets verfügbar.
Das wurde mit Absicht unklar gehalten. Aber bei Frontier war es ein CPU-Chiplet je GPU-Chiplet.
Wenn die Darstellung stimmt und von 3D-Stacking geredet wird kann das auch heißen CPU auf GPU.

Und falls das Ende 23 kommt, ist das jetzt nicht mehr so undenkbar.
 
Zuletzt bearbeitet:
Rock Lee schrieb:
Die bieten zwar war die Energieersparnis, Performance und Transistordichte angeht kaum Vorteile gegenüber 5nm respektive 7nm. Dafür werden aber einige Prozessschritte in der Fertigung optimiert und eingespart

So sehe ich das auch.

Also ist es Kundenverarsche.

Es wird mit kleinerer Zahl ein besseres Produkt suggeriert.

Ich wollte es aber nicht so direkt herleiten. Schön, dass es jemand anderes gemacht hat.

mfg

p.s.

ETI1120 schrieb:
Das kann sich eigentlich niemand leisten. Es killt Deine Margen.

Nein.

Die Qualität wird so verkauft, wie sie möglich ist.

gpu.jpg

Das was du kaufen konntest, war der Anfang. Der Turbo hilft und wenn schon Version 1.0 "schnell" genug ist, reicht es aus.

p.s.s.

Wenn die 2.2 Ghz mit 80 Watt beim Start möglich gewesen wären, hätte AMD kein Land gesehen. Leider hat Samsung aber zu lange gebraucht, um diese Qualität zu ermöglichen. Also hat man das verkauft, was möglich war und wusste ganz genau, es wird nur noch besser.
 
Zuletzt bearbeitet:
branhalor schrieb:
Obwohl ich als VR-Gamer aktuell immer noch eher auf NVidia gehen würde.
Interessant!
Aus welchem Grund genau?
Habe eine G2 an einer 6900xt und bin sehr zufrieden.
 
  • Gefällt mir
Reaktionen: janer77
[wege]mini schrieb:
Phoenix wird 4nm bekommen und Dragon 5nm. Klingt logisch? Oder nicht?

Abwarten, Tee trinken und nicht unbedingt hoffen, dass mit N4 irgend etwas besser wird, falls man N5 für die guten Modelle einsetzt und N4 erst in der 2ten Generation gut genug ist, um tatsächliche Vorteile erwarten zu können.
Also ich habe mir vorgenommen beim Schreiben zu verwenden
  • Nodes 14 nm, 10 nm, 7 nm, 5nm, ...
  • Prozesse N7, N7P, N6, N5, N4, N4X, ...
AMD verwendet 5 nm, aber es ist nicht der N5 Prozess den Apple verwendet hat. So wie Nvidia einen eignen Prozess verwendet auch AMD einen eigenen. Und wie dieser genau heißt, werden wir nicht erfahren. Auch nicht wie viel AMD zusammen mit TSMC daran customized hat. Nvidia hat bekannt gegeben ihr Prozess heißt N4N. Aber es ist eine klare Botschaft, wir machen etwas eigenes. Auch hier ist nicht klar was tatsächlich speziell ist.

Der N4 Prozess ist ein Prozess des 5 nm Nodes, den TSMC als neuen Standardprozess für 5 nm pushen will. Aber hat TSMC schon weitere Varianten angekündigt, wie N4X für HPC.

Dass AMD explizit 4 nm bei Phoenix Point genannt hat, finde ich überraschend, denn die ganze IP auf einem anderen Prozess zu bringen erfordert Aufwand. Aber eventuell hat AMD einen Prozess für 5 nm gewählt der kompatibel zu einer der N4 Varianten ist.
 
DannyA4 schrieb:
Interessant!
Aus welchem Grund genau?
Habe eine G2 an einer 6900xt und bin sehr zufrieden.
Ich hab mit VR mit ner AMD Fury begonnen, mit ner Pimax 4K. Das ging, einigermaßen, weil die nur 60 Hz befeuern mußte.
Da AMD in dem Zeitraum danach aber nix ausreichend schnelle(re)s nachgeschoben hat, vor allem eben für den VR-Bereich, bin ich auf ne GTX 1080 hoch. Danach folgte ne 2080 Ti und gewissermaßen "aus Gewohnheit" und weil ich für meine Pimax 8K-X Anfang 2021 keine 6900 XT für nen vernünftigen Preis ergattern konnte, die 3080 (runtergesetzt als Retoure bei Alternate).

Ich hab zwischenzeitlich aber schon gehört, daß die 6800 XT und 6900 XT wieder ganz ordentlich mithalten können sollen.
Allerdings braucht meine 8K-X nach wie vor jedes Quentchen Leistung, das ich kriegen kann. Deswegen wird an nem direkten Vergleich zwischen ner "7900 XT" (so nenn' ich sie jetzt mal) und ner 4080 (Ti) nicht viel vorbeiführen. Möge die Bessere gewinnen :) - und dabei eben nicht gleich ein eigenes Kraftwerk im Keller benötigen: Wenn da am Ende nur 5% zwischen NVidia und AMD liegen, die AMD aber massiv genügsamer ist (so daß ich mein Netzteil nicht aufrüsten muß), dann pfeif ich auf die 5% und nehm lieber die sparsamere von AMD.
 
  • Gefällt mir
Reaktionen: danyundsahne und stefan92x
[wege]mini schrieb:
Ob man jetzt tatsächlich im Fließbandbetrieb das Produkt reifen lassen muss, bleibt dahin gestellt.
Das ist eine doch etwas blauäugige Sichtweise auf diesen Punkt und man merkt an der Stelle dann schon, dass die Erfahrungen aus der Produktion und Entwicklungen fehlen und warum es zu solchen Sachen auch kommt.

Du gehst davon aus, dass es einen "finalen" Zustand bei einem Produkt gibt, also ein "perfektes" Produkt, alleine dass ist bereits ein Trugschluss. Genauso gehst du davon aus, dass man mit genug Entwicklungszeit alle Probleme lösen kann und dass man auch bereits alle "Verbesserungen" an dem Produkt während der Entwicklungszeit auf den Schirm haben kann, auch dass ist ein Trugschluss.

Es kommt bei der Produktentwicklung - egal ob Hardware, Software, Auto, Kühlschrank, SmartPhone und Co - immer der Punkt, an dem die zuständigen Menschen all ihre Erfahrung, all ihre Kompetenz in ein Produkt gesteckt haben. Man hat Prototypen entwickelt, getestet, verbessert. Man geht heute sogar oft in "Kleinserien" zu erst, um sogar da Fehler und Probleme aber auch Verbesserungen zu finden, aber man kann nie alle Fehler finden, alle Verbesserungen sofort erfassen. Es gibt in der Produktion etwas, dass man als "Skalenproblem" bezeichnen kann. Fehler aber auch problematische Verhaltensweisen des Produktes oder Probleme in der Fertigung treten oft nicht bei Prototypen auf und selbst bei Kleinserien nicht, sondern oft erst dann, wenn man in die Serienfertigung geht und auch dann fallen Fehler und Probleme oft nicht "sofort" auf, sondern oft erst nach Wochen, Monaten oder teilweise auch Jahren. Genauso verhält es sich mit Verbesserungen an den Produkten während der Fertigung. Man merkt halt, dass etwas geht, aber es könnte besser gehen. Beim Prototypen fäll das nicht auf, auch in der Kleinserie nicht, aber wenn man dann mal 10.000 oder 50.000 Einheiten gefertigt hat, fällt auf, dass was besser geht.

Daher durchaus die Frage: Wie viele Wochen, Monate oder gar Jahre sollen denn Firmen deiner Meinung nach eine "Serienproduktion" starten und in der Produktion dann die Produkte noch verbessern und die produzierten Gegenstände wegwerfen, damit du denkst, dass ein Produkt nicht mehr bei dir als Kune reift?

Versteh mich an der Stelle nicht falsch, ich kann den Frust - gerade bei Software - nachvollziehen, aber das, was du forderst, ist so nicht realistisch und wäre zudem eine massive Ressourcenverschwendung!
 
  • Gefällt mir
Reaktionen: janer77, pvcf, LamaMitHut und 4 andere
branhalor schrieb:
Ich hab zwischenzeitlich aber schon gehört, daß die 6800 XT und 6900 XT wieder ganz ordentlich mithalten können sollen.
Allerdings braucht meine 8K-X nach wie vor jedes Quentchen Leistung, das ich kriegen kann. Deswegen wird an nem direkten Vergleich zwischen ner "7900 XT" (so nenn' ich sie jetzt mal) und ner 4080 (Ti) nicht viel vorbeiführen. Möge die Bessere gewinnen :) - und dabei eben nicht gleich ein eigenes Kraftwerk im Keller benötigen: Wenn da am Ende nur 5% zwischen NVidia und AMD liegen, die AMD aber massiv genügsamer ist (so daß ich mein Netzteil nicht aufrüsten muß), dann pfeif ich auf die 5% und nehm lieber die sparsamere von AMD.
Vor dem Hintergrund wundert es mich dann aber schon, dass du zur 3080 gegriffen hast und nicht zur 6900XT.
Screenshot 2022-06-10 123658.jpgScreenshot 2022-06-10 123909.jpg
 
die Frage ist, ob es Mikroruckler wie einst bei SLI/Crossfire gebe wird?
 
  • Gefällt mir
Reaktionen: Katzerino88
GT200b schrieb:
die Frage ist, ob es Mikroruckler wie einst bei SLI/Crossfire gebe wird?
Nein, nicht mehr oder weniger Stark, als es heute bei "single" GPU zu Mikrorucklern kommen kann. Bei RDNA3 und auch bei RDNA4 und zukünftig, arbeiten die GPU-Tiles zusammen am Bild - die ersten Schritte legte AMD als sie auf einen Tiled-Based-Render umgestellt haben ab Vega.

Die Tiles werden auf die einzelnen GPUs verteilt, die diese berechnen und dann am Ende als ein Bild zurück geben.
 
  • Gefällt mir
Reaktionen: Beitrag, Katzerino88, ETI1120 und eine weitere Person
@GT200b Das wurde jetzt aber schon dutzende Male geklärt. Es kann gar nicht zu Mikrorucklern führen, weil keine 2 GPUs erkannt werden. Das einzige, was schiefgehen kann, ist dass die vielen Shader der zusätzlichen Chiplets nicht ausgelastet werden. Aber da hat AMD zuletzt die besten Fähigkeiten demonstriert.
 
  • Gefällt mir
Reaktionen: ETI1120 und DevPandi
Colindo schrieb:
Also wird RDNA 3 aus mehreren, gleichen Chiplets gebaut, entsprechend dem ersten Patent, das damals die Runde machte. Jedes Chiplet kann das gleiche, aber nur eins spricht mit der CPU, deswegen sieht die CPU nur eine GPU mit einem vielfachen an Shadern. Das bedeutet auch, eine cache-cohärente Kommunikation fehlt unter Umständen. Da bin ich mal gespannt, wie die Kommunikation mit dem VRAM so klappt.
Durch einen Tweet von Greymon55 bin ich auf die folgende Folie aufmerksam geworden.
Heute Nacht habe ich sie nicht richtig wahrgenommen:
1654858575047.png


Es wird nochmal explizit 5 nm erwähnt. D. h. es ist noch einmal unwahrscheinlicher, dass AMD auf der Roadmap bei RDNA 3 die 6 nm einfach vergessen hat zu erwähnen.

Und bei der Grafik kann man lange streiten, ob sie nur cool aussehen soll oder ein Hinweis auf 3D-Stacking ist.

PS:
Ich hatte auf Twitter Kepler die Frage gestellt, warum alle davon ausgehen dass Navi 33 RDNA 3 ist und in N6 gefertigt wird.

Als Antwort bekam ich einen Verweis auf den Linuxtreiber bei dem 3 diskrete Grafikkarten eingetragen sind (ohne Codenamen) und den Screen des inzwischen gelöschten LinkedIn Eintrages eines AMD Mitarbeiters.
 
  • Gefällt mir
Reaktionen: Colindo
Zurück
Oben