Oberst08 schrieb:
Hab ich ja auch nie behauptet. Ich finde den M1 auch durchaus beachtlich, aber er hat eben auch so seine Spezialitäten (z.B. kein PCIe zur Anbindung schnellerer Grafik).
Es geht bei der ganzen Geschichte nicht darum, ob M1 besser oder schlechter als AMD ist.
Leute, die es weit besser wissen als sich, sagen gebetmühlenartig "ISA does matter much" D. h. der Einfluß der ISA ist nicht entscheidend für die Performance der CPU. Das gilt in beide Richtungen.
Die Arm-Kerne waren im vergleich zu X86 schwachbrüstig, weil niemand eine leistungsfähige CPU auf Arm-Basis entworfen hat. Und dann kam Apple. Und warten wir ab was die Ex-Apple Leute bei Qualcomm zaubern.
Zum Rest was Du da schreibst: Es gibt einen Weg eine leistungsfägige APU zu bauen und das ist der Weg den Apple vorgezeichnet hat. Im übrigen habe ich noch keine Beschwerden gelesen dass der Grafikspeicher von Grafikkarten nicht erweiterbar ist.
Du kannst die Unfähigkeit von Mircrosoft nicht als Argument gegen den M1 verwenden.
Der Kern von der Geschichte ist: Apple hat ein kompaktes und sehr effizientes System mit dem M1 im Zentrum entworfen. Es sind die ganzen Designentscheidungen in den Kernen und im System die den M1 so effizient machen.
Die Erweiterbarkeit ist doch für mindestens 80 % der Anwender irrelevant.
Es wird interessant sein was Apple mit dem MacPro macht. Viele die einen MacPro gekauft haben werden auf einen MacStudio wechseln. Aber nicht alle. Kommt da noch was, oder lässt Apple die Nische still vor sich hinsterben.
Wobei ich darauf getippt hätte, dass Apple hier etwas macht um auch Server abzudecken. Aber nachdem ich mitbekomme wie hoch der Exodus bei Apple ist, kommen mir Zweifel.
Oberst08 schrieb:
Die "neuen" Kerne von AMD sind einfach abgespeckte Kerne, um diese kleiner zu bekommen und mehr drauf zu packen.
Das wird so nicht funktionieren. Die Fläche nur über das Kappen des L3 zu kappen wird die Effizienz IMO massiv leiden lassen. Sprich Performance fällt erheblich stärker als Power.
Server werden über TCO verkauft. Nur den Kern kleiner machen funktioniert nicht. Die Effizienz muss ebenso steigen. Und deshalb zaubert Intel einen 3. Typ von Kernen aus dem Hut. Die sogenannten Effizienz-Kerne sind so ineffizient, dass sie auf dem Server nicht vermarktet werden können.
Oberst08 schrieb:
Das bringt in manchen Last Szenarien (vor allem die von dir erwähnte Cloud) einfach Vorteile. Diese Vorteile versucht auch ARM zu nutzen, finde ich auch sinnvoll (weil das von Intel und AMD bisher wenig beackert wurde, daher Marktlücke, die ARM ausnutzen kann).
Was ist Dein Problem?
Die Arm-Server zielen auf ein Marktsegment, bei dem sie jetzt Vorteile gegen die bisherigen X86-Prozessoren haben.
Aber das war doch bei X86 genauso. Zuerst hat man sich die kleinen schnuckeligen Server geschnappt wo sich die CPU eher gelangweilt hat. ... Und spätestens nach 3 CPU-Generationen war der angebliche systembedingte Performancevorteil von RISC Geschichte und die RISC-Prozessoren in Nischen abgedrängt.
Oberst08 schrieb:
Was mir an den bisherigen ARM Lösungen nicht gefällt, hatte ich aber schon durchblicken lassen: Fehlende Transparenz. Da wird mit Leistungssteigerungen von 200% bei 50% weniger Verbrauch geworben.
Das schockiert mich jetzt, das Marketing übertreibt die Leistung und schönt der Verbrauch?
Oberst08 schrieb:
Aber was bedeutet das konkret?
Das was heute anders als vor 20 Jahren ist:
- TSMC hat die führenden Prozesse, Samsung und Intel sind ziemlich gleichauf
- Die Bedeutung der CPUs ist nicht mehr dominierend. GPUs und neuerdings AI-Prozessoren gewinnen massiv an Gewicht.
- Das Arm-Biotop ist gereift.
- Es gibt eine große Auswahl an Kernen
- Es gibt viele Entwickler die sich mit Arm auskennen
Und deshalb tauschen Cloudanbieter wie Amazon, Google und wohl bald auch Microsoft als anwender von selbst entwickelten Prozessoren mit Arm-Kernen auf. Sie entwerfen CPUs und lassen sie bei einer Foundry bauen. Und wenn Intel als Foundry mitspielen will, müssen sie CPUs bauen die Intel-Server-CPUs verdrängen.
Der Grund ist nicht, dass die Arm-Kerne besser als die X86-Kerne wären. Besser oder nicht spielt keine Rolle. Die Arm-Kerne sind gut genug. Aber die Cloud-Anbieter können mit Arm-Kerne etwas machen, was sie mit X86 nicht können. Einen Prozessor bauen, der ihre Spezialprozessoren eng mit CPU-Kernen koppelt.
Eine große Schachstelle von X86 ist, dass es nur noch zwei Anbieter von X86-CPUs gibt. Und dass niemand die Kerne in eigenen Designs verwenden kann.
Deswegen war die zweite große Ankündigung von AMD auf dem FAD 2022: Packt eure Speziallogik bzw. Spezialprozessoren auf ein Chiplet und wir bauen damit speziell für Euch Eure ganz spezielle CPU.
Oberst08 schrieb:
Da werden die Hersteller dann auf einmal ganz schnell leise.
Beim A64FX kommt noch hinzu, dass ein Aufrüsten nicht möglich ist, da man HBM als Ram verwendet.
Aufrüsten wird überbewertet. Und es ist ein Auslaufmodell.
Wenn die Effizienz steigen soll (was sie muss) bleibt kein anderer Weg als Hauptspeicher und Prozessoren in ein Package zu stecken.
Bei Servern wird CXL so wie ich es verstehe zu einem radikalen Bruch in der Architektur von Rechenzentren führen.
Mein Verständnis als Laie:
- Einen ausreichend großen Pool an High Speed Speicher im Package nahe bei der CPU
- Größere Pools an DRAMs über CXL, die von mehreren Servern genutzt werden können. Es geht dabei zuerst nicht ums gemeinsame Zugreifen auf denselben Speicher. Es geht darum dass die Server nich immer dieselbe Menge an Speicher benötigen. Und diese dezentral vorrätig zu halten ist weniger effektiv als sie in Pools bereitzustellen.
- Bleibt dazwischen wirklich Platz für große Mengen an Speicher, die nur von einer einzigen CPU genutzt werden können?
Oberst08 schrieb:
Man kann also teilweise nicht aufrüsten, die Effizient, die man ARM so gerne nachsagt, kann niemand so wirklich nachprüfen, und preislich ist ARM dann auch nicht gerade günstig.
So wie ich es mitbekommen habe waren einige von den niedrigen Preisen von Ampere überrascht. Da ich keine Server kaufe, kenne ich die realen Preise nicht.
Oberst08 schrieb:
Fugaku hat z.B. grob das doppelte von Frontier gekostet, das vierfache von Summit. Ist also wohl der mit großem Abstand teuerste Supercomputer, der bisher gebaut wurde. Laut Green500 Liste ist er dann auch nicht effizienter als "Volta" basierte System. Volta war zu der Zeit aber schon kurz vor der Ablösung. Die ein Jahr später gekommenen A100 Systeme sind erheblich effizienter. Insofern ist der A64FX ein guter Prozessor, der aber auch viele Kompromisse fordert, vor allem Richtung Erweiterbarkeit und Kosten.
Du vergleichst Äpfel mit Bananen.
So wie ich weiß, verwendet Fugaku ausschließlich CPU Kerne. Und bei Frontier kommt die Rechenleistung hauptsächlich aus den GPUs. Und deshalb ist es kein Wunder das Fugaku nicht so effizient wie Frontier ist.
Das sagt aber nichts über die Effizienz der A64FX im Vergleich zu Trento (Milan mit Infinity Fabric 3) aus.