Smartbomb schrieb:
Genau wie bei den SoCs für iPhone und Co:
Apple kann sich die super teuren Chips (weil große Fläche) leisten, weil sie sie 1.) nicht verkaufen müssen wie alle anderen und die Kosten durch ihre enormen Gerätepreise subventionieren.
Ich stimme Dir zu dass man Apple nicht mit dem Gespann "AMD/Intel und PC OEMs" vergleichen kann.
Aber IMO betrachten das Du und viele andere aus dem falschen Blickwinkel.
Apple ist Systemanbieter und leistet sich maßgeschneiderte SoC, um die Systeme zu optimieren. Natürlich kosten viel Die-Fläche und Advanced Packaging für die SOC einiges. Aber dafür wurde das System stark vereinfacht. Die Kostensenkungen bei der Elektronik wurde dadurch erreicht, dass man in die einzelnen Chips mehr Funktionen gepackt hat und gleichzeitig die Anzahl der Chips reduziert hat. Apple macht nichts anderes. Und ganz neben bei kann Apple die Kostentreiber DDR5 und PCIe 5.0 ignorieren.
Meteor Lake verwendet übrigens ein sehr teures Packaging Verfahren. In meinen Augen ist das nur sinnvoll, wenn man auch auf das Base Die ebenfalls Schaltungen packt.
Smartbomb schrieb:
Qualcomm, Mediatek etc würden nie so riesige Chips herstellen - denn die wären zu teuer und niemand würde sie ihnen abkaufen.
Eine kurze Suche nach Die Sizes:
A14: 88 mm².
M2: 155 mm²
M2 pro: ca 288 mm²
M2 max: ca 510 mm²
Also richtig groß sind nur die max- und Ultra-Varianten (Ultra bisher nur M1).
Smartbomb schrieb:
Aber in >1k€ Handys die Apple massenweise verkauft - da hat man genug Kohle dafür.
Aber Apple streicht auch traumhafte Gewinne ein.
AFAIK sind die Margen doppelt so hoch wie bei den PC OEMs.
Über die finanzielle Lage der anderen Mobil Phone Anbieter reden wir Mal gar nicht.
Smartbomb schrieb:
Richtig. Die iGPU in der CPU ist nur dafür da, ein Bild zu machen und evtl noch Video codecs zu beschleunigen.
Das die iGPU bei Intel und vor allem AMD praktisch brach liegt, ist ein Softwareproblem.
AMD hat hardwartechnisch HSA implementiert, konnte aber bisher nicht die notwendige Softwareunterstützung bereitstellen. Ohne Bibliotheken die die GPU automatisch einbinden läuft da rein gar
nichts.
Smartbomb schrieb:
Zum Zocken, eine 250W Grafikkarte, wirst du in eine CPU nicht reinquetschen können.
Das Problem ist eben dass die Games von einen schnellen Kopplung von CPU und GPU nur sehr gering profitieren (Das sieht man auch an den Game-Benchmarks mit verschiedenen PCIe-Busgenerationen). Das sieht bei Anwendungssoftware die auf den Servern und Data Centers läuft ganz anders aus.
250 W für die Grafikkarte ist schon sehr viel. Darunter ist sehr viel Raum. Vor allem dann, wenn die diskreten Grafikkarten zu einem High-End-Spielzeug werden.
Smartbomb schrieb:
Kurz: für die OEMs zu teuer und für die privaten meist nicht nötig. Und wenn dann gleich a "gscheite" Grafikkarte.
Das eigentliche Problem siehst Du bei Apple die M1- und M2-Familien bestehen jeweils aus 3 Dies. Und das war nur möglich weil Apple die Systeme und Chips Hand in Hand geplant hat. Einen großen Chip zu entwicklen und ihn dann nicht los zu werden können sich Intel und vor allem AMD nicht leisten.
Aber der Knackpunkt ist der Hauptspeicher im Package. Ich denke nicht dass die PC-OEMs das so bald schlucken. Aber früher oder später werden sie es müssen. CAMM hat zwar bessere elektrische Eigenschaften als SoDIMM, kann aber mit On-Package Memory nicht mithalten.
Smartbomb schrieb:
Also wenn dann evtl noch für kleine, platz- und stromsparende Geräte imteressant. Ergo: Mobilgeräte und Thinclients. Und da dürfen Fläche, damit Kosten und Leistungsaufnahem auch nicht explodieren.
Und genau hierfür ist das Design von Apple ideal. Die Thinclients von Apple haben für die meisten Anwender ausreichend Leistung. Ich bin echt gespannt wie es mit dem Mac pro weiter geht. Wird ein Nachfolger gebraucht? Und falls ja, lohnt es sich für Apple überhaupt einen eigenen Chip zu entwerfen. Das Problem hier sind die externen Steckplätze. Wie viele Apple-Anwender benötigen noch PCIe-Steckplätze?
Smartbomb schrieb:
Cache ist schnell, groß, braucht viel Strom.
Wie immer bei Speicher: Je schneller dieser ist, umso mehr (physischen) Platz pro Byte braucht er und umso mehr Strom. Also teuer und "heiß".
Ein großer Cache ist teuer. Ein großer Cache hat schlechtere Latenzen als ein kleiner Cache. Ohne 3D-Stacking würde ein 96 MByte Cache auf dem Ryzen CCD nicht funktionieren. Die schlechteren Latenzen würden den Vorteil des größeren Caches auffressen.
Ein großer Cache benötigt für sich betrachtet mehr elektrische Leistung als ein kleinerer Cache. Aber hier muss man den gesamten SoC betrachten. Das Verschieben von Daten kostet viel Energie. Wenn die Daten aus dem L3-Cache geholt werden, ist das nicht nur erheblich schneller, sondern benötigt auch erheblich weniger Energie als wenn sie aus dem Hauptspeicher geholt werden müssen.
Die höhere Effizienz durch den größeren Cache sieht man an den X3D-Ryzen eindrucksvoll. Das wäre auch für Gaming-Notebooks schön.
Um wieder auf Meteor Lake zu kommen: Ein großer L4 als System Level Cache würde einen deutlichen Beitrag zu mehr Effizienz leisten.
Smartbomb schrieb:
Darum haben MobilCPUs neben weniger Takt auch meist weit weniger Cache, weil man so die Leistungsaufnahme drückt.
Bei Intel habe ich mir es nicht angesehen.
Bei AMD hat es IMO zwei Gründe:
- Die APU sind monolithisch und deswegen ist der Vorteil eines großen Caches nicht so groß wie bei den CPUs die aus Chiplets bestehen. Bei den CPUs aus Chiples kompensiert der größere L3-Cache die schlechteren Latenzen zum Memory-Controller.
- Die APUs bilden das Einstiegssegment von AMD. Hier sind große Caches und 3D-Stacking momentan noch zu teuer.