News Radeon RX 7000 & MI300: RDNA 3 kommt mit Chiplets, aber erst CDNA 3 stapelt sie

@Katzerino88 Ich weiß gar nicht wo ich anfangen soll. Lies bitte mal diesen Artikel hier durch, bevor du weiter über das Thema sprichst. Und sage um Gotteswillen keinem Fragesteller mehr ein "Ja." bevor du das nicht durchgearbeitet hast: https://www.computerbase.de/2021-01/patent-amd-gpu-chiplet-design/

Es gibt keinen I/O-Die. Es gibt keinen Multi-GPU-Ansatz. Es gibt keine Synchronisation mehrerer Bilder, die unterschiedlich berechnet werden.
Katzerino88 schrieb:
Letztendlich kann so etwas nur aufgehen, wenn der Prozess besonders schlecht ist und es sich lohnt kleinere Chips aber dafür mehrere zu fertigen.
Willkommen beim Erfolgsrezept der Zen-Architektur.
Ergänzung ()

Bonus: Bitte den Unterschied zwischen GPU und Grafikkarte recherchieren.
 
  • Gefällt mir
Reaktionen: DefconDev, LamaMitHut, Beitrag und eine weitere Person
Colindo schrieb:
Ich weiß gar nicht wo ich anfangen soll. Lies bitte mal diesen Artikel hier durch, bevor du weiter über das Thema sprichst. Und sage um Gotteswillen keinem Fragesteller mehr ein "Ja." bevor du das nicht durchgearbeitet hast:
Dann hat also AMD die Grundproblematik einer Dual GPU oder wie du es nennst "Chipletlösung" gelöst und die Pufferzeiten die Chiplet A länger braucht als Chiplet B oder umgekehrt vollständig eradiziert und beide arbeiten als eine kompakte Einheit ohne Performancenachteile? Kaum zu glauben.

Rein logisch gesehen müssen sich Chiplet A und Chiplet B in irgendeiner Form das Bild aufteilen und das kann nur durch ein intelligentes sheduling passieren, wo eigentlich angenommen wurde, dass dies auf einem seperaten IO Die stattfindet. Wenn das jetzt auf dem Main-Chiplet passiert und darunter ein Interposer liegt, gut. Da habe ich mich wohl zu wenig eingelesen, dann halte ich lieber meinen Mund.

Colindo schrieb:
Willkommen beim Erfolgsrezept der Zen-Architektur.
Hatte Intel nicht starke Prozessprobleme?
 
Katzerino88 schrieb:
Dann hat also AMD die Grundproblematik einer Dual GPU oder wie du es nennst "Chipletlösung" gelöst
Ich habe den verlinkten Artikel ausführlich gelesen und zusätzlich den Unterschied zwischen Chiplet, GPU und Grafikkarte recherchiert.

[ ] ja
[ x ] nein
 
  • Gefällt mir
Reaktionen: Rockstar85
Taxxor schrieb:
Ich habe den verlinkten Artikel ausführlich gelesen und zusätzlich den Unterschied zwischen Chiplet, GPU und Grafikkarte recherchiert.
Was ist denn der Unterschied? Ich habe, egal wie ich es anstelle den Synchronisierungsaufwand, das heißt µruckler oder eine schlechte Skalierung. Habe ich die Sync vor Ausgabe des Bildes kostet mich das Performance, habe ich sie nach Ausgabe des Bildes (zum Beispiel bei AFR) dann habe ich ungleichmäßige Frametimes, Tearing usw. Irgendwo muss ich beide GPUs bzw. Chiplets bzw. deren Aufgaben synchronisieren.
 
Katzerino88 schrieb:
Was ist denn der Unterschied?
Ob die TMU/Shader usw jetzt Chipintern oder extern Kommunizieren ist doch erstmal egal.
Es findet hier im Gegensatz zu Dual GPU noch keine Kommunikation mit der CPU statt.
Es wird auch nur eine GPU und nicht wie zB. Instinct 250 mit 2 GPUs erkannt mit den dementsprechend Nachteilen.

Das wurde jetzt von Colindo und anderen allerdings schon mehrfach erwähnt und mit entsprechenden Folien auch erläutert.
https://www.reddit.com/r/Amd/comments/crj5f6/does_navi_have_tilebased_rasterization/

https://en.m.wikipedia.org/wiki/Tiled_rendering

https://www.tomshardware.com/news/amd-gpu-chiplet-patent

Auszug:
A single controller that communicates with the smaller GPUs isn't a viable solution. The parallel workloads would generate too much traffic, and active switching would quickly create a (latency) bottleneck -- or demand far too big of a controller. As such, AMD proposes that a chiplet-based GPU needs a simple electrical path to be tied together to look like one big GPU, rather than a bunch of little ones addressed through a controller
 
KurzGedacht schrieb:
Erklär das bitte Mal. Es ist doch besser ?

Aktuell offensichtlich nicht, wenn "der 5nm" Prozess besser ist, als der "4nm", weil er für APUs mit 16 Kernen verwendet wird, die dann genauso viel verbrauchen, wie die APUs im "4nm" Prozess mit 8 Kernen.

Sollte es wirklich so werden.

Die Verwendung der Zahl suggeriert eine Verbesserung von 20%.

Hätten sie 5nm+++ drauf geschrieben, wäre es i.O.

Es verkauft sich aber besser, wenn man kleinere Zahlen verwendet. Wer zuerst damit angefangen hat, ist egal. Alle machen es aktuell.

Daher sagte ich, das Produkt reift durch den Kunden. Durch die Verkäufe werden Stückzahlen erzeugt und diese generieren Erfahrungswerte. Mit diesen kann man die Fertigung verbessern und irgend wann ist sie so, wie sie hätte sein sollen, bei der Einführung.

Der Kunde glaubt aber, er würde etwas schon heute kaufen, was die Zahl auch verdient.

Das wird ganz sicher (über)nächstes Jahr so sein. Heute ist es aber nicht so.

Sollte es so werden, wie es die Folien darstellen.

mfg
 
Zuletzt bearbeitet:
[wege]mini schrieb:
Aktuell offensichtlich nicht, wenn "der 5nm" Prozess besser ist, als der "4nm", weil er für APUs mit 16 Kernen verwendet wird, die dann genauso viel verbrauchen, wie die APUs im "4nm" Prozess mit 8 Kernen.
Also dafür dass man aktuell noch so extrem wenig darüber weiß jammerst du ganz schön selbstsicher Rum.
Zudem kommen die Bezeichnungen von TSMC und laut TSMC ist 4nm ein wie auch immer verbesserter 5nm Prozess.

Damit wie viel die Chips verbrauchen hat das erst Mal nicht zwangsläufig etwas zu tun.

In so einer Situation dann so zu tun als würden da Kunden wild mit Zahlen verarscht finde ich doch Recht vermessen....
 
Danke an @Taxxor und @Grundgütiger fürs Miterklären.

@Katzerino88 Du hast heutzutage auf einem Chip ja mehrere Gruppen von Compute Units. Die teilen sich das Bild bereits untereinander auf und setzen es zusammen. Der Trick ist jetzt, die Verbindung zwischen zwei GPU-Chiplets (die zusammen eine GPU ergeben) so gut zu machen, dass es keinen Unterschied zwischen den Gruppen auf dem gleichen Chiplet und denen auf dem anderen Chiplet gibt. Dann benutzt man die gleiche Verteilungslogik, die schon seit Jahrzehnten auf GPUs genutzt wird, um die Compute Units auszulasten.

Die Crux ist, dass die GPU mit den vielen Shadern, die jetzt deutlich mehr sind als vorher, auch umgehen können muss. Das hat AMD bei RDNA 2 deutlich verbessert, während Nvidia bei Ampere das nicht ganz so gut hingekriegt hat. Es wird spannend, ob AMD bei RDNA 3 die weiterhin steigende Zahl an Shadern gut ausgelastet kriegt.

Übrigens, eine Grafikkarte besteht aus einer GPU (früher auch mal zwei), dazu VRAM, Spannungsversorgung, PCIe-Anbindung und vielem mehr. GPU steht für eine Recheneinheit, die ein Bild berechnet. Multi-GPU sagt man nur dann, wenn es zwei eigenständige Einheiten sind, die jeweils ein Bild berechnen und wo die zwei erstellten Bilder synchronisiert werden. AMDs Chiplet-GPU arbeitet wie eine große GPU, nicht wie zwei kleinere.

Katzerino88 schrieb:
Hatte Intel nicht starke Prozessprobleme?
Für Intel wäre eine Chiplet-Architektur in den letzten fünf Jahren in der Tat besonders gut gewesen. Aber auch AMD hat sie sehr geholfen, da man günstige, kleine Chips kombinieren konnte, um eine mächtige CPU (bis 64 Kerne!) zu erstellen. Intel kam in der Zeit nur bis 28 Kerne, weil monolithisch.
 
  • Gefällt mir
Reaktionen: Katzerino88
Katzerino88 schrieb:
Dann hat also AMD die Grundproblematik einer Dual GPU oder wie du es nennst "Chipletlösung" gelöst und die Pufferzeiten die Chiplet A länger braucht als Chiplet B oder umgekehrt vollständig eradiziert und beide arbeiten als eine kompakte Einheit ohne Performancenachteile? Kaum zu glauben.

Rein logisch gesehen müssen sich Chiplet A und Chiplet B in irgendeiner Form das Bild aufteilen und das kann nur durch ein intelligentes sheduling passieren, wo eigentlich angenommen wurde, dass dies auf einem seperaten IO Die stattfindet.

Man muss nicht zwangsläufig das Bild aufteilen (SFR), sondern kann unterschiedliche Schritte der Bildberechnung aufteilen.

Dafür gibt es schon länger Systeme aus c Elementen. Ist halt mehr Arbeit in der Implementierung (Asynchroner Combinational loop), aber machbar. Kostenlos ist das nicht (Einschnitte bei den KPIs), aber auch nicht unüberwindbar.
 
  • Gefällt mir
Reaktionen: Katzerino88
I'm unknown schrieb:
Anhang anzeigen 1226592

"Schön" - das wird dem Mining wieder Schub geben und die Karten "super" verfügbar werden lassen :mussweg:
Mining auf Pro/Server GPUs? Die sind / werden deutlich teurer sein als die handelsüblichen RX6900XTs - wage zu bezweifeln dass die einfach so an Miner gehen - zudem die auch nicht einfach im Retail verfügbar sind.

Mining ist ja aktuell eh tot und ich wage eine Prognose: Solange Zinsen angehoben und Liquidität reduziert wird wird sich das auch nicht ändern. Wir erleben bei Tech und Mining eine „.com“ Bubble 2.0 und der Großteil der Kryptos überlebt das nicht. Die paar die es tun werden dann erst Mitte des Jahrzehnts wieder richtig an Fahrt gewinnen und diesen Markt dann dominieren. Jetzt wird erstmal selektiert…
 
"Coreteks" hat mal wieder ein neues Video rausgebracht in dem er spekuliert wie RDNA3 aussehen könnte.
Ist auch mal wieder gar kein Clickbait-Titel
Ich schaue die Videos von ihm eigentlich zur Belustigung, weil da immer dermaßen viel Unsinn geredet wird.
6 GCDs mit je 2048 Shadern plus ein super rechteckiges IO-Die.
Preis für das Topmodell grade einmal 1299 EUR.....hihi, wenn der wüsste.
"Focus on Premium models" in der Future of graphics lineup auch falsch interpretiert. Hier geht es gar nicht um die 7900XT, sondern darum, dass RDNA3 mit Navi31,32 & 33 wohl ausschließlich das Premium-Segment ab 450-500 EUR bedienen wird. Der Rest dürften Refreshs der RDNA2-Chips 22,23 und 24 sein, die je ein Preissegment nach unten rutschen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ETI1120
Rock Lee schrieb:
"Coreteks" hat mal wieder ein neues Video rausgebracht in dem er spekuliert wie RDNA3 aussehen könnte.
Ist auch mal wieder gar kein Clickbait-Titel
Ich gehe davon aus, dass beim Erscheinen von RDNA3 bei allen erst einmal die Schnappatmung einsetzt, und dann werden sie verzweifelt nach einer Stelle in ihren Tweets oder Videoclips suchen die so ähnlich ausschaut als das was AMD präsentiert. Und dann rufen alle ich hab's doch gesagt.

Ganz ehrlich gesagt gibt eine riesen Menge Stoff den AMD in den letzten Wochen als Patente rausgehauen hat aber dafür scheint sich von den Youtubern und Gerüchte-Sites niemand zu interessieren.

Das einzige was ein bisschen Echo gefunden hat, war Kepler, der einen neuen Matrixbefehl für RDNA in den Treibern gefunden hat. Aber hier viel den Leuten nichts besseres ein als über FSR 3.0 zu spekulieren. Als gäbe es für AI keine andere Verwendung. Sinnigerweise ist ein Patent aufgetaucht, wie AMD CUs effektiv zum berechnen von Matrizen
 
  • Gefällt mir
Reaktionen: Colindo
Zurück
Oben