News Patent: AMD plant mit GPUs im Chiplet-Design

Bin mal gespannt... nVidia kann sicher mehr Geld reinpumpen, aber AMD arbeitet seit Jahren mit Chiplets und zuletzt hat ja auch Big Navi beim Cache enorm vom CPU-Know-How profitiert. Kann mir vorstellen, dass das interessant wird.

Du Ungewissheit stört mich ein bisschen, ist aber natürlich verständlich. Wenn wir bereits mit RDNA4 Chiplets bei GPUs bekämen würde ich erstmal die Hoffnung auf eine 6800 aufgeben und endgültig die 3070 unter Wasser setzen. Die 2-3 Jahre reicht die schon. Aber so halte ich doch lieber noch die Augen offen.
 
Bei einer potenten GPU ist doch der Speicherdurchsatz sehr wichtig.
Soll da GDDR6 am CPU-Sockel anliegen?

Diese GPU-Chiplets sind wohl nur für lahme GPU-Cores, die jetzt noch in der CPU liegen, interessant.
Oder aber man holt den RAM auch auf den Sockel oder man nimmt gleich HBM.
 
Verstehe ich net...uuh....haben wir das nicht schon seit jahren? CPU und GPU in einem ?
 
geil geil geil
Wenn AMD das hinbekommen sollte und Nvidia nichts ähnliches nachliefern kann, wird AMD in ein paar Jahren den Boden mit Nvidias Highend-Karten wischen.
Ein Chiplet-Design ist einfach perfekt, wenn es darum geht mehr Parallelisierung (und damit mehr Rechenleistung) zu ermöglichen ohne die Kosten durch zu große Dies explodieren zu lassen.
Ergo, wenn man sowas hinbekommt, ist man bei allen Highend-Karten, die große Chips benötigen, stark im Vorteil.
 
XamBonX schrieb:
haben wir das nicht schon seit jahren? CPU und GPU in einem ?
Das ist ja dann eine APU. Hier geht es aber darum mehrere GPUs neben einander zu positionieren. ;) MFG Piet
 
Colindo schrieb:
@Haggis Du verwechselst da vielleicht GPU mit APU? Das Prinzip hier ist für Hochleistungs-GPUs, die natürlich einen eigenen VRAM mit schnellem Zugriff haben. Die CPU ist nicht auf dem gleichen Sockel.
Im Artikel steht:
Laut AMD soll ein GPU-Chiplet direkt mit der CPU kommunizieren, während die anderen Chiplets über passive Crosslinks mit hoher Bandbreite untereinander kommunizieren und als System-on-a-Chip (SoC) auf einem entsprechenden Interposer angeordnet werden.
Das klingt für mich schon danach, dass es um eine APU geht.
 
@foo_1337 Danke für das Paper. Ich habe es nur überflogen und leider ist es auch schon etwas älter. Was mir auffällt ist erstmal der L1.5-Cache, den interessanterweise AMD in Navi übernommen hat. Danach geht es um Scheduling und Datenverteilung, das sieht schonmal gut aus, dass sich Nvidia da seit 2017 Gedanken drüber macht. Vielleicht kriegen sie es ja hin, ohne einzelnen I/O-Die auszukommen, denn so sieht der Ansatz von Nvidia für mich aus: Ein harter Schnitt zu Multi-Chiplets, die eventuell sogar der Entwickler berücksichtigen muss. Bin mal gespannt, wie das letztlich realisiert wird.
Die Inter-Chiplet-Kommunikation scheint bei beiden ähnlich zu sein, nur bei Nvidia auf Höhe des L2 und bei AMD auf Höhe des L3.
 
  • Gefällt mir
Reaktionen: foo_1337
Haggis schrieb:
Das klingt für mich schon danach, dass es um eine APU geht.
Nein, das missinterpretierst du. Ein Chiplet hat I/O-Fähigkeiten und kann mit der CPU über PCIe etc kommunizieren. Das zweite Chiplet spricht nur mit dem ersten. Zusammen hast du eine GPU aus zwei Chiplets, die so tut als wäre sie monolithisch.
 
  • Gefällt mir
Reaktionen: Hatch, Creeed, PietVanOwl und eine weitere Person
foo_1337 schrieb:
Hier der nvidia Weg
Das ist allerdings nur der Weg für GPUs, die als Rechenbeschleuniger eingesetzt werden, soweit ich das sehe. Es geht nicht um 3D-Graphik-Verarbeitung. Die dort benötigten Recheneinheiten aufzuteilen und über Chiplets zu skalieren ist nicht (so) einfach.
 
  • Gefällt mir
Reaktionen: PS828 und Colindo
@Nureinnickname! Scheinbar habe ich mit meiner rhetorischen Frage das erreicht, was ich wollte :)

@Faust2011 ja, das ist richtig. Ich bin gespannt, wie es da weiter geht und in wie weit sie sich am damaligen 3dfx KnowHow bedienen.

@Atent123 Das mit der Kompatibilität ist klar und es ist nur Konsequent, dass auch die alten Zöpfe abgeschnitten werden.

@Beitrag das wäre für uns alle der worst case. Es macht ergibt Sinn, mindestens 2 Gegenspieler auf Augenhöhe zu haben.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Ganzir
  • Gefällt mir
Reaktionen: foo_1337
Artikel-Update: Die Patentschrift in der näheren Analyse

Eine nähere Analyse der Patentschrift liefert weitere Details zur möglichen Umsetzung von GPU-Chiplets durch AMD.

So beschreibt der Hersteller, dass alle Chiplets Recheneinheiten à la CUs beinhalten werden, allerdings ein Chiplet als „Primary Chiplet“ die Kommunikation mit der CPU übernimmt. Dadurch wird der CPU weiterhin vorgegaukelt, mit einer monolithischen GPU zu arbeiten, wodurch die Notwendigkeit von Anpassungen an Anwendungen durch die Entwickler vermieden wird.

Notwendige Anpassungen an die Aufteilung der Rechenlast sollen hingegen vom Treiber und dem „Primary Chiplet“ übernommen werden.

Um Daten mit minimalen Einbußen zwischen den Chiplets zu verteilen, möchte AMD laut Patentschrift eine passive Schnittstelle namens HBX („High Bandwidth Crosslink“), die die L3-Caches aller Chiplets miteinander verbindet, nutzen. Dadurch können alle Chiplets sowohl auf die Daten im Cache als auch auf die VRAM-Anbindungen der anderen Chiplets zugreifen.

Den Darstellungen zufolge enthält ein Chiplet ähnlich wie bei RDNA 2 sowohl L2- als auch L3-Caches. Dies kann dahingehend interpretiert werden, dass die Chiplet-Technologie auch für Gaming-GPUs genutzt werden könnte, allerdings sind die Abbildungen zu ungenau, um dies mit Sicherheit zu sagen.

AMD erwähnt des Weiteren auch Aspekte, die schon von vorherigen GPUs und den CPUs auf Basis der Zen-Architektur bekannt sind, wie die Nutzung eines Interposers um die Chiplets zu verbinden.

Der Hersteller beschreibt dabei sowohl Lösungen, bei denen stets zwei Chiplets entlang einer Linie verbunden sind, als auch sternförmig angeordnete Netzwerke.
 
  • Gefällt mir
Reaktionen: Rockstar85, LukS, chaopanda und 13 andere
Robo32 schrieb:
Ich sehe da nichts für uns vor 2030 kommen und alleine durch die Inflation eher einen Preis den nur noch die wenigsten bereit sind zu zahlen.
Ich hoffe doch stark dass wir die Chiplets in GPUs noch deutlich vor 2030 sehen werden. Und der Preis ist nur zum Teil der Inflation geschuldet. So wie bei Handys langen die Hersteller auch bei Grafikkarten und anderen Elektronik Artikeln richtig zu. Und das Problem ist, der Kunde macht es auch noch mit.
 
  • Gefällt mir
Reaktionen: Creeed, Fritzler und Celinna
Kann's kaum erwarten.
GPUs als Chips wie CPUs direkt auf's MB sind die Zukunft.

Dass man solche simplen/allgemeinen Ideen patentieren kann, finde ich allerdings wieder mal völlig absurd und kontraproduktiv.
 
shoKuu schrieb:
Sprich wir haben dann die gleiche Soße wie bei den Prozessoren? X Spiel unterstützt nur dann 50% der GPU Leistung weil nur die Hälfte der Kerne angesprochen wird?
Hä steht doch im Text das es einen Hauptchip geben soll der der CPU vorgaukelt das es ein Monolithischer chip ist
 

SV3N

HBX („High Bandwidth Crosslink“)
Vllt habe ich mich zu sehr von "HB" verleiten lassen, weil HBM steht ja für High Bandwidth Memory.
Aber High Bandwidth Crosslink muss nichts mit HBM zu tun haben. Im Endeffekt könnte das einfach bedeuten, dass die GPU Chiplets über den Infinty Cache denn es bereits existiert kommunizieren.
 
Notwendige Anpassungen an die Aufteilung der Rechenlast sollen hingegen vom Treiber und dem „Primary Chiplet“ übernommen werden.

Und genau bei dem Wort Treiber wird mir Angst und Bange! ich bin so froh das nach einem halben Jahr, mal wieder alles läuft wie es soll.
 
Zurück
Oben