franzerich schrieb:
War inzwischen nicht die Rede davon, dass AMD selbst wieder vom Begriff "APU" weggegangen ist?
Ich weiß nur, dass AMD die Desktop Ryzen Prozessoren explizit nicht als APUs bezeichnet.
Dass die Bezeichnung APU für AMD immer mehr als Bedeutung verliert wird, ist aus verschiedenen Gründen offensichtlich
- AMD wird große Probleme bekommen, wenn sie erklären wollen dass Phoenix eine APU ist aber Meteor Lake keine. Jetzt wo auch Intel leistungsstarke iGPUs anbietet entfällt das Alleinstellungsmerkmal.
- AMD konnte den potentiellen Vorteil der APU nur bei den Spielkonsolen auf die Straße bringen. Bei den PCs war APU ein leeres Marketingvehikel, da die APUs nur sehr eingeschränkt fürs Gaming interessant waren. In Anwendungen blieb die Rechenleistung der iGPU ungenutzt. Hardware, die von der Software nicht unterstützt wird, bringt eben nichts.
- Koprozessoren für AI sind inzwischen viel sexier als eine langweilige iGPU.
Aber es geht nicht um die Verbreitung der Bezeichnung APU, sondern um die Verbreitung des Konzeptes das AMD mit APU bezeichnet hat.
franzerich schrieb:
Also so wirklich passend scheint der Begriff nicht zu sein. Für mich bleibt es in Zukunft daher auch nur "iGPU". Da weiss jeder was gemeint ist.
Das sehe ich ein bisschen anders.
iGPU und APU haben unterschiedliche Bedeutungen
iGPU ist eine integrierte GPU. Meist lag die Funktion eher beim Ansteuern von Bildschirmen und den De- und Encodern. Die Leistung der Shader war über lange Zeit sehr begrenzt.
Die APU ist ein Prozessor der CPU und GPU vereinigt. Bei der GPU ging es von Anfang an um die Leistung der Shader. AMD hat über Jahre Prozessoren mit relativ leistungsstarken iGPUs oder Prozessoren ohne iGPU angeboten. Auch deshalb steht APU für viele für einen Prozessor, der auch ordentlich 3D-Leistung anbietet.
Auch die Intel iGPUs wurden in der letzten Zeit immer leistungsfähiger und haben sich dem Konzept das AMD als APU bezeichnet immer mehr angenähert.
Im übrigen sind sich alle einig dass die MI300A eine APU ist, aber nur wenige kommen auf die Idee hier von einer iGPU zu reden. Hier wäre eigentlich GPU mit iCPU viel passender.
Das Konzept und die Grenzen
Das Konzept CPU + leistungsfähige GPU auf einem Die oder in einem Package, ermöglicht es dass die CPU und GPU auf denselben Speicher zugreifen. Es ist sogar möglich dass CPU und GPU auf denselben Last-Level-Cache zugreifen. Dadurch müssen weniger Daten bewegt werden was schnellere Übergabe der Tasks zwischen CPU und GPU ermöglicht und den Verbrauch reduziert.
Dieser Vorteil kommt bei HPC und vielen Anwendungen von GPGPU zum Tragen.
Bei Games spielt das keine Rolle. Das sieht man auch daran, dass sowohl Nvidia als auch AMD bei den dGPUs auf PCIe 5.0 verzichten und PCIe 4.0 bei den kleinen GPUs dafür verwenden, das PCIe-Interfache von 16 auf 8 Lanes zu reduzieren.
Auf dem PC taugen die APUs nur zum Spielen. Deshalb bringt die enge Kopplung von CPU und GPU keinen Vorteil. Es bleibt der Vorteil dass ein Chip oder Package beides beinhaltet. Das bringt
bei einem kleinen Powerbudget oder bei begrenzten Raum Vorteile gegenüber einer Kombination aus CPU und GPU aus diskreten Chips.
Das Problem ist, dass eine leistungsfähige GPU mehr Bandbreite benötigt als man über ein 128-bit-DDR-5-Speicherinterface bereitstellen kann. Das limitiert die Leistungsfähigkeit der iGPU. Sobald sehr kompakte Bauweise keine Anforderung ist und das Power Budget größer wird, können dGPUs die höhere Bandbreite dank separaten Grafikspeicher ausspielen.
D. h. die APUs sind im PC durch die beiden DDR5-Kanäle limitiert. DDR5 ist zwar besser als DDR4, aber während der Zeit ist auch die Bandbreite der dGPUs gewachsen.
Es fällt auf, dass die ersten Leaks zu den Intel Notebookchips ab Meteor Lake auf sehr große GPUs hingedeutetet haben. Sie wären viel mehr APU gewesen als alles was AMD bisher im PC-Markt als APU angeboten hat. Je näher die Releases rücken, desto mehr Schrumpfen die Angaben zu den GPUs.
Umsetzungen
Spielkonsolen
Die Spielkonsolen verwenden GDDR-RAM für den Hauptspeicher. Damit hat die GPU der APU genügend Bandbreite. Der Vorteil ist hier der einfache Systemaufbau.
Apple
Apple hat das bei den Apple Silicon Macs sehr elegant gelöst, in dem sie den Speicher On Package neben der APU platzieren. On Package sind die Kosten*) eines breiten Speicherinterfaces zudem erheblich geringer als wenn das Speicherinterface auf dem Mainboard implementiert werden müsste.
Da Apple LPDDR5 verwendet, kommen sowohl die CPU als auch die GPU mit dem Hauptspeicher zurecht. Apple M Max und vor allem Apple M Ultra sind genau das, was die ganzen APU-Fans seit Jahren herbeisehnen. Natürlich nennt das Apple nicht so, alles was für Apple zählt ist zu zeigen, dass sie Apple Silicon verwenden.
Aber im Grunde hat Apple nur das für den Mac übernommen, was seit Jahren bei den iPhones üblich ist. Mit der Einführung der M1 Macs ist der Absatz von Apple überproportional gewachsen. Es wird interessant sein, wie sich die Verkaufszahlen der Macs weiter entwickeln. War der Starke Zuwachs bis Mitte 2022 nur der Umstieg auf Apple Silicon, oder hat Apple tatsächlich mehr Marktanteil?
*) Apple geht hier als Systemhersteller den Weg der Systemintegration weiter als es die PC-Anbieter können. Der Weg mehr Funktionen in die CPU zu packen war der Treiber für die sinkenden PC-Preise. Man sollte die hohen Preise der Macs nicht mit hohen Kosten verwechseln. Das was Apple in die SoCs steckt holen sie locker auf Systemebene wieder rein.
Mobil Phone SoCs
Bei den Mobilphones und Tablets sieht man seit vielen Jahren nur noch SoCs mit CPU mit leistungsfähiger GPU. Das entspricht dem Konzept einer APU, auch wenn es niemand so bezeichnet. Einer der Gründe warum es niemand als APU bezeichnet ist, dass die Mobilphone SoC inzwischen viel weiter gegangen sind. Sie alle haben NPUs. Dank der NPUs und der AI-basierten Software liefern die Mobil Phones tolle Bilder.
Es war schon witzig wie sehr AMD "X86" betonen musste, um die AIE als Neuheit zu verkaufen. Wie üblich rennt der PC einem Trend hinterher.
Niemand bezeichnet ein Mobil SoCs als APU. Aber genauso wenig bezeichnet jemand ein Mobil Phone SoC als CPU. Die CPU ist nur noch einer von mehreren Prozessoren.
HPC APU
AMD hat das Problem mit der Speicherbandbreite bei der MI300A ebenfalls sehr elegant gelöst. AMD hat 128 GByte HBM3e dazugepackt. Bei HPC-Anwendungen ist eine APU der beste Ansatz. HBM ist hier Standard und die Kosten des Advanced Packaging können hereingeholt werden. Die Mehrleistung resultiert auch dadurch, dass die Energie die beim Verschieben der Daten gespart wird, für das rechnen bereitsteht.
Es ist abzusehen, dass in HPC- und AI-Anwendungen der Hauptspeicher per Hybrid Bonding auf den Prozessoren gestapelt wird.
AI Anwendungen laufen hauptsächlich in der GPU ab, die Kommunikation mit der CPU ist nicht so wichtig wie bei HPC Anwendungen. Deshalb dominieren hier GPU*s. Deshalb bietet AMD für AI-Anwendungen die MI300X an.
Grundsätzlich wird in diesen Applikationen die CPU eher zum Beiwerk der GPU.
*) Auch wenn bei den meisten AI-Algorithmen AFAIK die Hauptarbeit auf dem Matrix- bzw. Tensor-Cores liegt. Auch hier haben wir das Problem, dass sich die Hersteller nicht auf eine Bezeichnung einigen konnten.
Bittere Ironien
Apple
Apple bietet genau das an, was APU-Fans seit Jahren von AMD erwarten.
Mit seiner Premiumstrategie sabotiert Apple schon seit dem Release des Macs einen wirklichen Erfolg.
Gescheiterte Visionen
Die Übernahme von ATI, das in Folge entstandene Fusion-Konzept und die APU als Produktkategorie wurde eigentlich von Intel ausgelöst. Intel hat IIRC damals so viel zu Integration von CPU und GPU erzählt, dass AMD glaubte die Lücke an GPU-Know-How durch den teuren Kauf von ATI schließen zu müssen.
Alle Projekte, die Intel damals initiiert hat, sind im Sande verlaufen. Es gab ein paar Zwischenerfolge aber letztendlich hat sich gezeigt dass Intel den falschen Ansatz gewählt hat.
AMD hatte nach dem Kauf von ATI über viele Jahre nicht die konsequente Führung die erforderlich gewesen wäre, die Vision Fusion auch tatsächlich umzusetzen. Alles was AMD in punkto GPGPU-Software unternommen hat war halbgar. In Anwendungen liegt die GPU der APU brach.
Der lachende Dritte
Nvidia musste, da sie vom X86-Markt ausgeschlossen wurden, alles auf die GPU setzen. Und das haben sie konsequent gemacht. Nvidia hat mit CUDA eine Schnittstelle zum Programmieren von GPGPU-Software etabliert. Nvidia hat die GPUs im Datacenter etabliert und damit im großen Stil Rechenkapazität von den CPUs auf die GPUs gezogen. Den Trend zu AI hat Nvidia in den letzten Jahren konsequent befeuert und ausgenutzt.
Und alle die sich einreden die Zahlen Intel waren gut, sollten sich nächsten Monat Mal die Quartalszahlen von Nvidia ansehen.
Bittere Wahrheiten
Die CPU verliert an Bedeutung. Daran haben sowohl AMD als auch Intel zu knappern.
X86 ist dabei zur Nische zu werden. Wenn es AMD und Intel zulassen, dass Qualcomm Arm-PCs etabliert , wird es für AMD und vor allem für Intel ungemütlich.
-------------------------------
incurable schrieb:
"Eine APU oder XPU, wie Intel sie nennt"
Hast Du genügend Deutschkenntnisse, um die Bedeutung des Satzes zu verstehen?
incurable schrieb:
Also sind wir uns einig, dass APU ein AMD-Begriff ist, den so kein mir/uns bekannter Konkurrent für eigene Produkte verwendet?
- Ich habe wiederholt deutlich gemacht, dass es mir um das Konzept "APU" und nicht um die Bezeichnung "APU" geht.
- Wenn Intel und Apple Chips herstellen, die vom Konzept her APUs*) sind, bleiben sie APUs auch wenn sie vom Hersteller nicht als solche bezeichnet werden. Intel war ja auch nicht in der Lage ihre DPUs als DPU zu bezeichnen. Nein Intel musste sie als IPU bezeichnen. Wenn man technologisch hinterherhinkt muss man wenigstens bei den Bezeichnungen innovativ sein. Oder die Lachnummer mit den Tiles. Alle Welt redet von Chiplets. Nur Intel und Intel Fanboyz verwenden "Tiles", wenn sie von Chiplets reden.
- Wenn Du Wortspalterei betreiben willst, solltest Du wenigstens den Unterschied zwischen Bezeichnung und Begriff verstehen.
incurable schrieb:
Dann können wir das Ganze hier gern als nachvollziehbares Missverständnis zu den Akten legen.
Es geht hier nicht um ein Missverständnis, sondern Du verweigerst Dich einer sinnvollen Diskussion in dem Du dich auf Bezeichnungen zurückziehst.
Du weißt Haar genau, dass es mir nie um den Namen (Bezeichnung) ging, sondern immer um das Konzept (Begriff). Es muss für Intel-Fanboyz ziemlich schmerzhaft sein, dass Intel hier ein Konzept von AMD übernimmt.
Intel hat das Konzept übernommen, weil sie erkannt haben, dass sie damit Nvidia aus großen Teilen des Notebookmarktes verdrängen können.
*) Du bist mir immer noch schuldig wie die offizielle Bezeichnung einer Kombination von CPU mit leistungsstarker iGPU auf einem Chip oder in einem Package ist.