senf.dazu schrieb:
Ja die Rams sitzen im Prozessor Package. ... Aber damit genug der Wortklauberei.
Wenn es auf Kosten oder Energieeffizienz ankommt ist es ein großer Unterschied, wo genau der Speicher sitzt.
senf.dazu schrieb:
Gerade die mangelnde Erweiterbarkeit und Modularität ist ja von Kunden oft kritisiert worden
Davon habe ich nichts mitbekommen.
Weil der LPDDR RAM im Prozessor Package sitzt kann Apple ein breites Interface mit großer Bandbreite bieten. Auf dem Board wäre das zu teuer.
Weil genügend Speicherbandbreite vorhanden ist kann Apple eine dicke GPU einbauen.
Weil eine dicke GPU eingebaut ist vermissen die Apple Kunden gar nicht die Option eine GPU einzustecken.
Was allerdings viele beklagen sind die heftigen Aufpreise für RAM und SSD. Aber Apple was schon immer gieriger als für sie gut war.
senf.dazu schrieb:
- also sind in den existierenden MacPro jede Menge Slots gewandert in die man z.B. GPUs reinstecken kann - durchaus auch mehrere.
Der MacPro ist eine schöne Kiste. Allerdings auch teuer.
Die Frage ist wie viele Leute die Erweiterbarkeit des MacPro tatsächlich brauchen.
Apple lässt sich verdammt lange Zeit.
senf.dazu schrieb:
Aber auch dafür braucht man Schnittstellen. Mit sehr sehr hohen Bandbreiten - ähnlich der Hauptspeicherbandbreite.
Apple hat die Schnittstellen.
Detailaufnahme der Verbindung
TechInsights
Der M1 Ultra funktioniert prächtig. Durch die Siliziumbrücke sind die beiden Chips durch sehr viele Einzelverbindungen gekoppelt. Allein die Anzahl der Einzelverbindungen sorgt für eine gewaltige Bandbreite.
Alle Gerüchte beim neuen MacPro drehen sich um die Anzahl der CPU und GPU Kerne und niemand macht sich Gedanken über die Steckplätze. Das sagt mir dass sich nur wenige um die Erweiterbarkeit sorgen, solange die CPU- und GPU-Leistung stimmen.
Kaum war der M1 Ultra draußen kursierten Gerüchte dass Apple 2 M1 Ultra nebeneinander packt. Aber das
geht eben nicht so einfach. Es ist eben schneller ein Gerücht verbreitet als überlegt, ob das was man verzapft tatsächlich funktioniert, rein geometrisch betrachtet.
senf.dazu schrieb:
Aber auch IO Karten mit z.B. FPGAs oder eben für Kundeneigene Hardware oder Beschleuniger könnten ggf durchaus auch die (eher begrenzten ?) Verkäufe von MacPros steigern .. solange die Interfaces kompatibel zum Rest der Rechnerwelt sind - so das man Standardhardware aus dem Profi-Bereich ("Servertechnik") dort auch verwenden kann.
Die Frage ist nicht was man basteln könnte, sondern was die Kunden von Apple tatsächlich brauchen und wofür sie bereit sind Geld auszugeben.
Apple weiß ganz genau wie gut sich der MacPro verkauft. Und dann können sie ja auch abklären, was die Gründe sind warum ein MacPro kein MacStudio gekauft wurde.
Apple hat 3 Optionen:
- keinen echten Nachfolger, weil es sich nicht lohnt.
Eventuell bringt Apple einen neuen Apple Silicon MacPro mit einem neuen High End Chip heraus. Verzichtet aber auf DIMM-Slots und zusätzliche PCIe-Lanes.
- einen Nachfolger mit X86, weil es zwar Bedarf nach erweiterbaren Macs gibt, aber keinen der so groß ist, dass es sich lohnt dafür einen eigenen Chip zu entwickeln
- einen Apple Silicon Chip entwerfen, der genügend PCIe-Lanes hat.
Die zweite Option halte ich für unwahrscheinlich, weil sich Apple damit eine Blöße gibt.
Vor zwei Jahren hätte ich auf die 3. Option gewettet. Durch verwenden desselben Tricks wie M1 Max und M1 Ultra könnte Apple Workstation (MacPro) und Server abdecken.
Aber inzwischen halte ich die erste Option für wahrscheinlich.
Apple sind die CPU-Entwickler scharenweise (100+ zu Nuvia, 40+ zu Rivos) davongelaufen, um bei Startups Server CPUs zu entwickeln. Hätten die das tatsächlich gemacht, wenn es auch bei Apple interessante Serverprojekte gäbe?
Meine aktuelle Interpretation: Apple Silicon war erfolgreich gelauncht. Neue interessante Projekte gab es bei Apple nicht. Also haben die Entwickler nach neuen Herausforderungen gesucht.
Übrigens: Apple hat neulich still und heimlich die Klage gegen Gerrad Williams III zurückgezogen. Er hatte Nuvia gründet, die dann von Qualcomm aufgekauft wurden. Die Klage gegen Rivos köchelt weiter.
senf.dazu schrieb:
Ob Apple jetzt beim CXL Konsortium Karten hat oder nicht ist unerheblich - ARM arbeitet wohl dran CXL zu ermöglichen.
Apple hat eine Arm Architektur Lizenz, d. h. Apple entwirft die eigenen CPU-Kerne, die mit der Arm-ISA kompatibel sind. Apple hat eine eigene GPU-Architektur entworfen. Hat Apple irgend eine IP direkt von ARM übernommen?
Außerdem gehört zu CXL ein bisschen mehr als Chip IP. Das ganze muss auch vom Betriebssystem unterstützt werden, und dabei kann Arm nicht helfen.
Wenn sich Apple für CXL interessieren würde, wäre Apple im CXL-Konsortium. Denn dann könnte Apple Einfluss nehmen.
senf.dazu schrieb:
Und auch ein CXL Steckplatz wird wohl nicht viel anders aussehen als ein PCI Steckplatz.
Falls Apple auch weiterhin bei Apple Silicon nur PCIe-Lanes per M.2 für die SSD anbietet, dann braucht Apple auch kein CXL.
CXL ist Technik für Data Center und Server. Welche Hardware liefert Apple für diesen Markt?
Es geht nicht ums aussehen, sondern ob der Steckplatz das CXL-Protokoll unterstützt.
Viele Anwendungsfälle von CXL beruhen darauf, dass der CXL-Link aus dem Servergehäuse geführt wird.
z. B.
Memory-pooling:
senf.dazu schrieb:
Technisch ist es eh fast das gleiche. Ein Haufen PCIe5.0 Lanes.
Aber nur weil die physikalische Ebene gleich ist, müssen die Verbindungen noch lange nicht gleich sein. Die Logik an den Lanes muss die jeweiligen Protokolle auch unterstützen. Und dazu ist ein bisschen mehr als heiße Luft erforderlich.
Siehe Genoa:
AMD über Servethehome
Nur die P-Links können als PCIe oder CXL konfiguriert werden.
Die G-Links können als PCIe oder Infinity Fabric konfiguriert werden.
senf.dazu schrieb:
Genauso könnte aber etwas wie CXL auch bei der Verbindung der Chips auf der Prozessorträgerplatine des Packages (in Zukunft vielleicht nicht nur SOC und Rams) wichtig werden.
Das heißt dann UCIe. Aber auch hier ist Apple kein Mitglied, weil die lieber ihr eigenes Süppchen kochen.