News Patent: AMD plant mit GPUs im Chiplet-Design

Gerne @Colindo. Können da gerne ein Update zusammenstellen. Danke für die Unterstützung.
 
  • Gefällt mir
Reaktionen: Colindo
Viele Kerne sind ja aktuell nicht das Problem, wenn ich das richtig verstanden habe. Aktuell hat ja bereits jede GPU über viele Rechenkerne, sogar deutlich mehr als bei den CPUs. Der Unterschied ist halt, dass die CPU sich nur um ein paar Threads kümmert, die der Entwickler auch noch vorgeben muss, ergo viel Arbeit für Multitasking. Die Grafikkarte bekommt von Haus aus so viele einzelne Berechnungen, die von Haus aus leicht parallelisierbar sind.
Die Herausforderung ist es jetzt "nur" noch, die Dinge auf mehrere Dies zu verpacken anstelle auf einem. Wie wir es bei den älteren Ryzen noch kennen, liegt in der Kommunikation zwischen den Dies die wahre Herausforderung.

Ich wünsche AMD auf jeden Fall viel Erfolg. Und Intel und NVidia^^
Was der eine kann, kann der andere auch bald, manchmal besser, manchmal weniger besser.
 
  • Gefällt mir
Reaktionen: Miuwa
Discovery_1 schrieb:
Zukunft ist schön und gut aber werden dann zukünftige Grafikkarten bald noch unbezahlbarer werden? Schon jetzt sind die neuen Karten finanziell für mich kaum noch zu stemmen und ich muß daher immer mehr nach Gebrauchten, natürlich dann älteren Modellen Ausschau halten.
Der Preis hängt doch auch von der Nachfrage ab. Offesichtlich gibt es diese Zahlungsbereitschaft zu genüge. PC als Spieleplattform war noch nie günstig. Hier sind die Consolen die bessere Alternative.
 
Raucherdackel! schrieb:
...ich denke mal das bezieht sich auf mich^^
Richtung, und da du mit einem Smiley reagierst, kann ich an der Stelle mich nur hochachtungsvoll vor dir verneigen: 🙇‍♂️
Raucherdackel! schrieb:
Du hast recht, den Namen gibt es erst seit Vega, bzw wurde er bei Fiji nicht genannt. Aber ich denke Fiji ist eine Weiterentwicklung von Vega und man wird kaum den Übertragungsstandard über den Haufen werfen.
Fiji war anfangs eher erst mal HBM und großer GCN, ob in Fiji "HyperTransport" verwendet wurde, kann ich so nicht raus finden auf die schnell, unwahrscheinlicher ist es nicht und damit ist auch denkbar, dass ein "IF"-Prototyp in Fiji werkelt, aber dann spricht es eher gege Raja Koduri als "Kopf" hinter dem IF.
 
Teralios schrieb:
Das Problem ist es nicht die Rechenaufgaben zu verteilen, würde es nur darum gehen, wären Multi-GPU als auch "Chiplets" nicht so schwer.
Es klingt so, als wolltest du mir widersprechen, wiederholst dann aber als Argument meine Aussage.

Es kann gar nicht schwer sein Rechenaufgaben zu verteilen, sonst würden GPUs mit tausenden Recheneinheiten nicht funktionieren. Bei einem Chiplet-Design werden aber in erster Linie die Caches getrennt - RAM bleibt "langsam" angebunden und Recheneinheiten sind ohnehin schon geclustert.

Ich kenne zwar den Forschungsstand bei AMD nicht und verbringe weit weniger Zeit mit GPUs als die Ingenieure bei den roten und grünen, aber ich könnte mir vorstellen, dass die Verteilung der Aufgaben über die Chiplets an Punkten ansetzt, an denen die Caches eine geringere Rolle spielen - z.B. an den Context-Wechseln.

Übrigens, nur weil ein Shader alles kann, ist die Geometrie-Pipeline nicht automatisch verschwunden. Es gibt sie trotzdem noch, nur ist sie eben in Software definiert. An der Pipeline die Chiplets abzugrenzen halte ich als Laie trotzdem für schwer, da die Pipelines durchaus sehr unterschiedlichen Rechenbedarf haben und die Auslastung dann miserabel sein dürfte. Auch finde ich es schwer, eine Abgrenzung nach Tiles zu verargumentieren, die Rasterisation kommt relativ spät in der Pipeline. Und es wäre Verschwendung alle Schritte vor der Rasterisation nur auf einem Chiplet laufen zu lassen.

Die größte Herausforderung dürfte wirklich die Speicheranbindung sein. Die Caches sind über Chiplets getrennt, mit parallelen RAM-Zugriffen kommen GPUs ja jetzt schon gut klar. Kriegt man die Caches geschickt synchronisiert, braucht man an den sonstigen Abläufen gar nichts ändern. Vermutlich wird nicht Mal die Aufgabenverteilung komplizierter.
 
  • Gefällt mir
Reaktionen: Colindo
War ja logisch dass es irgendwann soweit kommt :D macht durchaus auch Sinn dass es zunächst im computing Anwendung Findet. Nvidia muss sich ja auch mit sowas befassen.

Mal sehen ob das Konzept so einschlägt wie bei CPUs, die Chancen dafür stehen gut
 
Chiplets bei den GPUs hatte ich eigentlich schon früher erwartet. Bspw. bei den APUs
 
borizb schrieb:
Klingt ähnlich wie das, was die für die PS5 planen. SoC, mehr als ein GPU Modul -> APU
Hab mir das Patent eben nochmal angeschaut. Das klingt für mich entweder nach einer PS6, also ferne Zukunft, oder nach einer Lösung für Cloud-Server, bei der man mehrere SOCs zusammenschaltet für die Premium-User. Es ist auch sehr spezifisch nur die Verbindung zwischen den Chips, nicht direkt eine umfassendere Lösung wie hier von AMD.
 
Colindo schrieb:
Hab mir das Patent eben nochmal angeschaut. Das klingt für mich entweder nach einer PS6, also ferne Zukunft, oder nach einer Lösung für Cloud-Server, bei der man mehrere SOCs zusammenschaltet für die Premium-User. Es ist auch sehr spezifisch nur die Verbindung zwischen den Chips, nicht direkt eine umfassendere Lösung wie hier von AMD.
Da Sony und AMD mittlerweile so fest verdrahtet sind, ist es dennoch nicht unwarscheinlich,
dass all die grundlegende Technik dennoch auf den gleichen Schreibtischen liegt.

AMD geht ja schon lange den Weg weg von "das ist eine CPU" und "das ist ein GPU".
Bzw. das ist ein einzelnes Chiplet und das ein Mono Block. Die zugrunde liegende Architektur
wird sicher nicht für jeden Ansatz separat neu entwickelt sondern eher auf den Bedarf angepasst.
 
  • Gefällt mir
Reaktionen: Colindo
Colindo schrieb:
Finde es beeindruckend, dass das Patent erst Juni 2019 eingereicht wurde. In der Community wurde diese Idee ja bereits seit 2017 diskutiert, aber besonders seit Zen2 hoch gehandelt.
Ideen lassen sich nicht patentieren. Leider geht der Artikel nicht darauf ein, was denn nun das patenwürdige daran ist mehrere GPUs miteinander und eine davon mittels eines Bus mit dem restlichen System zu verbinden.
Ich lass mir demnächst Abstand und Winkel meines Schreibtisches zur Wand patentieren...
 
Teralios schrieb:
Fiji war anfangs eher erst mal HBM und großer GCN, ob in Fiji "HyperTransport" verwendet wurde, kann ich so nicht raus finden auf die schnell, unwahrscheinlicher ist es nicht und damit ist auch denkbar, dass ein "IF"-Prototyp in Fiji werkelt, aber dann spricht es eher gege Raja Koduri als "Kopf" hinter dem IF.
https://www.anandtech.com/show/1559...hitecture-connecting-everything-to-everything
AMD introduced its Infinity Fabric with the first generation of Zen products, which was loosely described as a superset of Hypertransport allowing for fast connectivity between different chiplets within AMD’s enterprise processors, as well as between sockets in a multi-socket server.
Soviel ist mich erinnere, basiert doch Fabric Bus auf Hypertransport, aber die Protokolle und Flexibilität wurden ausgebaut. HT selbst war da eher "fixiert" auf gewisse AMD IP.
Mit Fabric Bus, kann AMD aber auch IP dritter leicht integrieren. Deshalb gibt es ja bereits Produkte die mit Xilinx Beschleuniger verheiratet sind.
 
Hayda Ministral schrieb:
Leider geht der Artikel nicht darauf ein, was denn nun das patenwürdige daran ist mehrere GPUs miteinander und eine davon mittels eines Bus mit dem restlichen System zu verbinden.
Dauert bestimmt nicht mehr lange. Bis dahin: #45
 
ThePlayer schrieb:
Ich hoffe dass klappt. Und in 4-6 Jahren haben wir dann die ersten Chiplet GPUs die dann das Bild komplett Raytracen statt wie bisher zu Rendern. Was einer nahezu Fotorealistischen Grafik enden würde.
Was fehlt Dir denn bezüglich Fotorealismus in aktuellen Titeln? Für mich war schon Star Raiders (1978) fotorealistisch genug.
 
Endless Storm schrieb:
Die Grafikkarte bekommt von Haus aus so viele einzelne Berechnungen, die von Haus aus leicht parallelisierbar sind.
SoDaTierchen schrieb:
Es kann gar nicht schwer sein Rechenaufgaben zu verteilen, sonst würden GPUs mit tausenden Recheneinheiten nicht funktionieren.
Ich hab euch jetzt erst mal untereinander stehen, weil es passt, muss aber etwas anders anfangen:

Nein @Endless Storm die Grafikkarte bekommt von Haus aus eigentlich nicht viele einzelne Berechnungen, sondern sie bekommt eine Berechnung die auf viele Werte zur gleichen Zeit angewendet werden können. Man spricht ja nicht umsonst von SIMD in dem Fall: Single Instructions Multiple Data.

Sieht man sich Grafikkarte damals als auch heute an - auch mit den Shadern - werden nicht viele einzelne Berechnungen parallelisiert, sondern wenige Berechnungen parallel auf viele Daten ausgeführt.

Die eigentliche "Parallelisierung" - wie wir sie von CPUs kennen, benötigen auch auf GPUs einiges an "Arbeit" in dem Fall sind es dann halt die "Shader-Programme" die voneinander unabhängig sind.

Ich hab das aber bereits zu Ampere bereits sehr ausführlich erläutert und warum Ampere sich trotz nominell doppelter Shader-Anzahl und damit doppelter Rechenleistung nicht so massiv absetzten kann, wie anfangs von manchen vermutet und warum RDNA2 eben mithalten kann.

Vereinfacht ausgedrückt: Auf einer GPU müsse heute genug "Shaderprogramme" zur gleichen Zeit auch mit genug Daten ausgeführt werden. Die RTX 3090 mit 82 SM braucht für eine optimale Auslastung 164 Shader ah 64 Werten um die Rechenleistung umzusetzen. Die 6900 XT braucht 160 Shader a 32 Werte um optimal ausgelastet zu werden.

Und nun zu dir dann @SoDaTierchen ich habe dir nicht widersprochen, sondern nur aufgezeigt, dass das Verteilen der Rechenaufgaben hier nicht das Problem ist, das lässt sich sehr einfach lösen, sondern dass das Problem daran liegt, dass gewisse Daten in der Berechnung gleich sein müssen und ebenso dass heute viele Daten synchron gehalten werden müssen, sodass alle darauf möglichst schnell zugreifen können. Und das andere war nur ein Hinweis, dass der Lösungsansatz, den 3Dfx damals gewählt hat, heute halt nicht mehr funktionieren würde, weil man in Hardware nur noch die "Shader" kennt.

Alles was du sonst erläuterst, ist mir im übrigen bekannt, ist aber für meinen ersten Beitrag auf dich nicht von Relevanz. Du musst hier jetzt nicht versuchen dein "Wissen" unter Beweis zu stellen oder versuchen auf Biegen und Brechen ein "Ich-weiß-aber-mehr-als-du" loszutreten. Das ist nicht zielführend. Ich habe dich nämlich nicht angegriffen oder dir widersprochen, sondern nur ein Problem aufgezeigt, warum Multi-GPU sich bis heute auf Basis von "SLI" - 3Dfx - nicht wirklich durch gesetzt hat.

pipip schrieb:
Soviel ist mich erinnere, basiert doch Fabric Bus auf Hypertransport, aber die Protokolle und Flexibilität wurden ausgebaut. HT selbst war da eher "fixiert" auf gewisse AMD IP.
Hab ich doch schon geschrieben, dass IF auf HT aufbaut. ;) Aber sonst: Richtig. Deswegen sag ich ja auch: Ob in Fiji nicht eventuell ein "IF"-Prototyp steckte, kann man nicht mit sicherheit verneinen oder bejahen. ;)
 
  • Gefällt mir
Reaktionen: DarkerThanBlack und YetiSB
Die Preise der derzeitigen GPU's sind zurzeit noch im vertretbaren Bereich.
wenn man Inflation bedenkt CO2 Steuer, etc.

Die Produkte sind halt zurzeit sehr knapp und man hat das Gefühl, man lebt in der DDR, da die Produktion Corona bedingt die Nachfrage überhaupt nicht decken kann und man Monate wartet bis überhaupt etwas verfügbar ist und die gebrauchtmärkte nach oben treibt.

Vor DDR5 Ram wird bei mir eh nicht investiert, da reicht mir meine APU aus, ansonsten noch PS5 erstmal.

Was das Chiplet Design anbelangt, schwierig Zusagen, das Patent ist zwar nicht alt, aber das heißt nicht, das man jetzt noch ewig warten muss. Es ist gut möglich, das wir 2022 schon etwas greifbares sehen.
 
Hayda Ministral schrieb:
Was fehlt Dir denn bezüglich Fotorealismus in aktuellen Titeln? Für mich war schon Star Raiders (1978) fotorealistisch genug.
Da geht noch eine Menge. Ich hoffe das wir irgendwann einmal auf dem Niveau von CGI Effekten aus Filmen sind. Und bis dort ist noch es ein riesen Unterschied zu der Grafik die wir heute haben.
Wobei die Spiele heute schon eine Ecke besser aussehen als noch vor 5-10 Jahren.
Und Raytracing steht ja noch ganz am Anfang.
 
  • Gefällt mir
Reaktionen: foo_1337
Ich rechne nicht vor HBM3 mit einem solchen Design. Ich gehe bei dem Ansatz eher von professionellen, anstatt Gamingkarte als Zielgruppe aus, weil der Speicher anders eingebunden werden muss.

Da hier Highbandwithspeicher notwendig ist, spricht alles für eine Lösung mit HBM3.
 
  • Gefällt mir
Reaktionen: Haggis
Zurück
Oben