News Patent: AMD plant mit GPUs im Chiplet-Design

hm, hört sich eher nach 2024/2025 an und äußerst unklar ob Eignung für Gaming.
Aber eine interessante Idee.
 
  • Gefällt mir
Reaktionen: Colindo
@SoDaTierchen oder vielleicht kann das jemand anders beantworten. Ist es nicht so dass sich in DX12 so einiges getan hat was Multigpu angeht? Vielleicht hilft das dem Chiplet Ansatz ja auch. Und ich bin der Meinung Mal gelesen zu haben das reines Raytracing sich besser parallelisieren lässt. Als das mit Rastarizing bisher möglich ist.
Dann würden die Chiplets auch Sinn ergeben.
 
  • Gefällt mir
Reaktionen: Celinna
@Colindo 👌 mega guter Beitrag mit den weiteren Feststellungen 👌danke Dir.

Ich habe ein paar Fragen zu dem Punkt "Kohärenz der Daten" und der Schwierigkeit diese stets zu gewährleisten - gerne auch an die von Euch, die sich ebenfalls angesprochen fühlen:

Wenn AMD für diese Schwierigkeit eine Lösung findet, inwiefern würde diese
neue innovative Struktur eine monolithische in der
Performance, Temperatur oder Stromverbrauch etc. pp. überflügeln?

Wird man in dieser neuen Struktur ggf. schlichtweg mehr CUs unterbringen können
und damit mehr Grafik-Performance haben (also gemäß Zen = more cores, more performance)?
Oder z.B. mehr CUs weil man die neue Struktur besser kühlen/mit weniger Strom versorgen muss?
Oder sind die CUs in dieser neuen Struktur nicht mehr dieser zentrale Faktor um eine bestimmte
Grafik-Leistung erreichen zu können (wie in der aktuellen GPU Generation) ?
 
  • Gefällt mir
Reaktionen: SVΞN und Colindo
@engineer123
Mir würde schon billiger zu produzieren, Preise reichen.
Denn was macht Zen? Chips konnen von 1 bis 64 Cores skallieren und man braucht neben I/O Chip nur ein Chiplet.
Ich erhoffe mir dass es da zu Preisen nach unten kommt, ähnlich wie bei Zen1. 1800X war halb so teuer wie der 8 Core Intel.
 
  • Gefällt mir
Reaktionen: Celinna
Also wird das ganze so aufgebaut wie seit Zen2, quasi eine IO (bzw Primary Chiplet) Die und mind. 1 Computer Die, je nach Skalierbarkeit sogar 4 oder 8 Compute Dies.

Und da ein einzelner Die 20$ kostet, sind 4 zusammen, selbst mit dem IO Die immernoch deutlich günstiger als ein großer für 200$ (reine Fantasiezahlen)

Eigentlich logisch das AMD dahin will, die Zeit der riesigen Monolith Dies ist einfach vorbei und ein kleiner Defekt kostet nicht mehr direkt Unsummen, wenn aus einer 6900 eine 6800 werden muss, wenngleich beide aktuell nicht wirklich liefarbar sind.

In der Theorie könnte man dann sogar einen oder einzelne Dies komplett für Raytracing abstellen, bzw je nach Spiel oder Anwendung skalieren wie man lustig ist, ohne auf spezielle RTX Cores setzen zu müssen.
 
  • Gefällt mir
Reaktionen: Forlorn, SVΞN und Colindo
PietVanOwl schrieb:
Der Ansatz wird eher gewählt damit Grafikkarten nicht noch teurer werden, aber trotzdem mehr Leistung bringen können. Viele kleine Chiplets kosten weniger als ein Riesen Die. ;) MFG Piet
Ich glaube ein Faktor ist auch die Chipfläche die besser gekühlt werden kann und nicht nur die Herstelungskosten, bzw. Endpreis für Kunden.
 
  • Gefällt mir
Reaktionen: PietVanOwl
pipip schrieb:
Vllt habe ich mich zu sehr von "HB" verleiten lassen, weil HBM steht ja für High Bandwidth Memory.
Aber High Bandwidth Crosslink muss nichts mit HBM zu tun haben. Im Endeffekt könnte das einfach bedeuten, dass die GPU Chiplets über den Infinty Cache denn es bereits existiert kommunizieren.
HBX hat nichts mit HBM zu tun. HBX ist eine Verbindung zwischen den Chiplets, nicht mit dem VRAM. Die ist nur schnell, deswegen das "High Bandwidth".
ThePlayer schrieb:
Und ich bin der Meinung Mal gelesen zu haben das reines Raytracing sich besser parallelisieren lässt. Als das mit Rastarizing bisher möglich ist.
Dann würden die Chiplets auch Sinn ergeben.
Reines RT lässt sich extrem gut parallelisieren, solange die Speicherbandbreite mitmacht. Aber der Hybridansatz reduziert die Skalierbarkeit wieder, so dass das aktuell nicht durchgreifen wird.
engineer123 schrieb:
Wenn AMD für diese Schwierigkeit eine Lösung findet, inwiefern würde diese
neue innovative Struktur eine monolithische in der
Performance, Temperatur oder Stromverbrauch etc. pp. überflügeln?
Wenn du 4x 40CU in vier Chiplets unterbringst wird das deutlich günstiger zu produzieren sein als 1 1000mm² Die. Vor allem, da EUV-Maschinen nicht mehr als 800mm² in einem Schritt belichten können! Also eine Kombination aus besserer Machbarkeit und geringeren Fertigungskosten.
snaapsnaap schrieb:
In der Theorie könnte man dann sogar einen oder einzelne Dies komplett für Raytracing abstellen, bzw je nach Spiel oder Anwendung skalieren wie man lustig ist, ohne auf spezielle RTX Cores setzen zu müssen.
Naja, das wird man sehen müssen. Leider müssen die RT-Cores im hybriden System sehr nah an den Shadern sein. Mit Chiplets könnte das ein Problem werden. Dann lieber die gesamte Redneraufgabe aufteilen und jedes Chiplet hat die gleiche Anzahl RT-Cores.
 
  • Gefällt mir
Reaktionen: SVΞN, ThePlayer und engineer123
rockfake schrieb:
Ich glaube ein Faktor ist auch die Chipfläche die besser gekühlt werden kann und nicht nur die Herstelungskosten, bzw. Endpreis für Kunden.
Wenn du dir anschaust das aktuelle Steigerungen der Leistung auch viel mit Erhöhung der Leistungsaufnahme erkauft wird ist es vielleicht ein ganz anderer Grund. Lässt sich aufgrund der zukünftigen Wärmedichte auch nicht noch mal so machen.
Kurz nach erscheinen von Pascal hatte ich schon mal solch eine Diskussion auf PCGH. Raus gekommen ist damals, dass die Schritte kleiner werden und auch Co Prozessoren und Multi GPU Einzug halten werden, da ansonsten keine sinnvollen Leistungssteigerungen mehr möglich sind.
Ohne Erhöhung der TDP wären wir ja schon bei dieser Gen so weit gewesen.
 
  • Gefällt mir
Reaktionen: rockfake
pipip schrieb:
Ich erhoffe mir dass es da zu Preisen nach unten kommt, ähnlich wie bei Zen1. 1800X war halb so teuer wie der 8 Core Intel.
Gerade da hat die Chiplet Architektur gar nicht viel gebracht. Die hilft bei großen CPUs, nicht bei kleinen. Das war bei AMD einfach Nebenprodukt. Zu dem Zeitpunkt waren die Stückzahlen und der Cashflow so gering, dass man mit möglichst wenigen Designs auskommen musste.
Aber die Herstellungskosten eines Achtkerner werden nicht durch ein Chiplet-Design günstiger.
Desweiteren haben Verkaufspreise Recht wenig mit Herstellungskosten zu tun. Nur weil Intel seine CPUs teurer verkauft, sind sie nicht automatisch teurer in der Herstellung. Sie nehmen die Preise, die sie nehmen können. Auch wenn die in der Herstellung nur ein Zehntel kosten würden.
 
Darkscream schrieb:
Ohne Erhöhung der TDP wären wir ja schon bei dieser Gen so weit gewesen.
Nicht ganz. Wir sprechen ja von AMD, und AMD hat die TBP gehalten. Dafür konnten sie in 2020 in jedem Grafikprodukt (Renoir und Big Navi) die Taktraten ganz erheblich steigern. Das geht allerdings auch nicht zweimal.
 
  • Gefällt mir
Reaktionen: Tzk

bensen

Das stimmt nicht ganz was du schreibst. Weil du ignorierst den Punkt, dass AMD hier einen Chip fertigt und damit Produkte von 8 bis 64 Cores, im Bereich Desktop und Server abdecken konnte. Das macht auch den 8 Core günstiger, weil die Produktion sich nicht in mehreren Produkten aufteilen musste sondern nur auf einen Chip konzentrierte der zu Beginn bereits eine Ausbeute von angeblich mehr als 70% hatte.
Denn der 8 Core Chip ist bei Intel nicht nur wegen der Größe teurer (weil es selbst eine abgespeckte Version war), sondern auch weil nicht die komplette Fertigung nur diesen Chip fertigt, sondern eben nur ein Teil der Produktion. Das erhöht nämlich ebenso den Preis. Allein für HPC hatte Intel 3 Verschiedene Chips.
Außerdem kostet jeder Chip in der Entwicklung, genauso die Masken für die Belichtungen und Durchläufe (Stepping). Wenn auch nur am Anfang.
 
  • Gefällt mir
Reaktionen: Unlimited1980 und Colindo
snaapsnaap schrieb:
Eigentlich logisch das AMD dahin will, die Zeit der riesigen Monolith Dies ist einfach vorbei und ein kleiner Defekt kostet nicht mehr direkt Unsummen, wenn aus einer 6900 eine 6800 werden muss, wenngleich beide aktuell nicht wirklich liefarbar sind.
Muss man heute auch nicht. Es gibt in jedem Chip Redundanz.
snaapsnaap schrieb:
In der Theorie könnte man dann sogar einen oder einzelne Dies komplett für Raytracing abstellen, bzw je nach Spiel oder Anwendung skalieren wie man lustig ist, ohne auf spezielle RTX Cores setzen zu müssen.
So funktioniert Raytracing nicht.
 
Colindo schrieb:
EUV-Maschinen nicht mehr als 800mm² in einem Schritt belichten können!
So wenig? Das sind 28*28mm
Bis ein 300mm Wafer belichtet ist vergeht ja ewig Zeit.
 
  • Gefällt mir
Reaktionen: Mcr-King und Colindo
@hRy Och so lange dauert das nicht. Die Ansteuerung und eigentliche Belichtung ist sehr schnell
 
  • Gefällt mir
Reaktionen: Hayda Ministral, Mcr-King, bensen und eine weitere Person
Robo32 schrieb:
Ja, es gibt dabei weniger Ausschuss, allerdings wird einiges mehr an Fläche benötigt um die gleiche Leistung zu erreichen.
Chiplets sind eben nicht der heilige Gral da sie zu viele Kompromisse erfordern und günstiger sind sie eher nur für den Fertiger was erstmal nichts über den Endpreis des fertigen Produkts welches aus mehreren Chiplets besteht aussagt.
Wenn man sowohl bei den Taktraten als auch bei den Strukturgrößen/der Fertigung immer weniger rausholen kann, dann bleiben als einzige Möglichkeiten die Leistung weiter zu steigern Architekturverbesserungen und mehr Parallelisierung.
Zumindest Parallelisierung, wahrscheinlich aber auch die meisten anderen Achitekturverbesserungen (bspw. stumpf mehr Cache einbauen), erfordern mehr Transistoren und somit mehr Chipfläche.

Wenn man also von Generation zu Generation die Chips immer größer machen muss, lohnt sich ein Chiplet-Design immer mehr. Bei den CPUs sehen wir ja schon heute, wie gut sich das macht.

Der Punkt ist ja: Selbst, wenn es im Mainmstreamsegment zu Mainstreampreisen nicht besonders rentabel ist, dann hat man trotzdem im Highend enorme Vorteile:
1. Hat man ein gut skalierbares Design, das sowohl Mainstream als auch Highend abdecken kann, man spart also Entwicklungsaufwand - der ja auch immer höher wird
2. Kann man Recheneinheiten einer Größe bauen, die als monolithischer Die überhaupt nicht möglich wären, siehe Server-CPUs von AMD vs. Intel.

Ja, es gibt keine heiligen Gräle. Chiplets haben auch ihre Nachteile und unendlich skalieren kann man auch damit nicht, da die Signalwege irgendwann zu lang werden.
Aber auf absehbare Zeit gibt es in unserer derzeitigen Technologie eigentlich keine Alternativen.

Bis es neue Innovationen gibt, sind Chiplets die Zukunft. Darauf gebe ich dir Brief und Siegel.
 
  • Gefällt mir
Reaktionen: Hayda Ministral und mm19
ThePlayer schrieb:
Ist es nicht so dass sich in DX12 so einiges getan hat was Multigpu angeht?
Ja, in DirectX ist es möglich Workloads auf verschiedenen GPUs laufen zu lassen. AoT hat(te?) das sogar umgesetzt. Das muss aber von Entwickler explizit umgesetzt sein und es ist nicht einfach, das so sauber umzusetzen, da die GPUs unterschiedlich stark sein können - das ist enorm schwer auszubalancieren und wegen der immer größeren Egalisierung von Multi-GPU auch nicht wirtschaftlich.

Der Chiplet-Ansatz wird vermutlich transparent, also funktionieren, ohne dass ein Entwickler etwas anpassen muss.
 
  • Gefällt mir
Reaktionen: ThePlayer
pipip schrieb:
Das stimmt nicht ganz was du schreibst. Weil du ignorierst den Punkt, dass AMD hier einen Chip fertigt und damit Produkte von 8 bis 64 Cores, im Bereich Desktop und Server abdecken konnte.
Wo ignoriere ich das, hab ich doch selber geschrieben!

pipip schrieb:
Das macht auch den 8 Core günstiger, weil die Produktion sich nicht in mehreren Produkten aufteilen musste sondern nur auf einen Chip. Denn der 8 Core Chip ist bei Intel nicht nur wegen der Größe teurer, sondern auch weil nicht die komplette Fertigung nur diesen Chip fertigt, sondern eben nur ein Teil der Produktion. Das erhöht nämlich ebenso den Preis.
Warum sollte das so sein?

Bei hohen Stückzahlen ist das völlig unbedeutend. Intel hat für ihre Zwei- und Vierkerner in Summe vier Dies aufgelegt, die hatten teilweise keine 20 mm² Größenunterschied. Die Flächenersparnis war es Wert die Kosten für Entwicklung, Tape Out und Masken zu investieren. Und du kommst damit, dass die Fertigung mehrerer Dies so schlecht sei. Für Intel galt dies nicht. Bei AMDs Mini Stückzahlen damals schon.

pipip schrieb:
Außerdem kostet jeder Chip in der Entwicklung, genauso die Masken für die Belichtungen und Durchläufe (Stepping)
Siehe oben. Scheint sich bei Intels Stückzahlen zu lohnen, sonst würden sie es nicht machen.
AMD hat dagegen Fläche durch das Chiplet Design "verschwendet". Nicht genutzte Funktionen im Desktop und Platz für IF.

Stückzahl ist das Zauberwort. Deswegen war dein Vergleich von 1800X und Intel Mumpitz.
 
hRy schrieb:
So wenig? Das sind 28*28mm
Bis ein 300mm Wafer belichtet ist vergeht ja ewig Zeit.
Kannst dir ja ausrechnen, wie lange ein Wafer dauert:
The 300 mm wafer throughput specification for the NXE:3400C is larger than or equal to 170 wafers per hour under the following conditions: Dose: 20mJ/cm2, die size: 26 x 33 mm, 96 shots.
170wph sind 2,8333 Wafer pro Minute oder 21,17 Sekunden pro Wafer.
 
  • Gefällt mir
Reaktionen: ThePlayer, cbmik, Tzk und 5 andere
Zurück
Oben