@ Was bedeutet der Umstieg für Apple und für Nicht-Apple
Ich glaube ganz entscheidend ist, was mit dem PowerMac/MacPro passiert. ARM-Notebook-Prozessoren stecken ja heute schon quasi in iPad und Chromebooks. Aber Apple versorgt auch einen Workstation-Markt und die Vorführung von
Maya auf ARM zielt auch genau darauf ab. Ich weiß nicht genau, wie man das Marketing-Sprech von Tim Cook interpretieren soll, aber wenn ein Abschluss der Migration in zwei Jahren bedeutet, dass in zwei Jahren keine neuen Intel-MacPros mehr verkauft werden, dann heißt das in der Zeit auch einführung eines echten ARM-Workstation-Prozessors, also eines Threadripper-Konkurrenten.
Ich bin mal gesapnnt, was das für PCIe-Geräte bedeutet. Zu PPC-Mac-Zeiten wurde nicht jede PCI-, AGP- oder PCIe-Karte von Apples OpenFirmware-Implementation initialisiert. Da brauchte es ausgewählte Firmwares auf den Mac-Karten, die dann auch teurer waren. Mac-Karten liefen im PC (ja, wirklich, ich hatte eine!), aber umgekehrt war das oft nicht der Fall. Ich bin mal gespannt, ob dann in zwei Jahren die Geforce/Quadro oder Radeon/FirePro Mac Editions mit 20% Preisaufschlag zurückkommen.
Herdware schrieb:
[...]
Für die x86-Kompatibilität ist nur noch eine vorgeschaltete Decoder-Einheit zuständig, die auf einer modernen CPU nur noch einen winzigen Teil der Chipfläche ausmacht.
[...]
Mit dem Wörtchen "winzig" wäre ich vorsichtig. Ich habe keine genaue Eingrenzung der Decode-Einheit eines Ryzen-Dieshots gefunden, aber
bei Anandtech mutet es so an, als könne die so groß wie die ALU sein. Das kann bei Auslastung einen bedeutenden Stromverbrauch verursachen. Ich erinnere mich dunkel vor 15 jahren vermutlich bei Ars Technica gelesen zu haben, dass man glaube, das Problem mit den möglicherweise bei x86 aufwendigeren Decodern als bei den meist verbreiteten Konkurrenz-Architekturen werde sich mit Multi-Core auflösen, weil mehr Kerne von einem Decoder versorgt würden. Rückblickend wird das der Moment gewesen sein, als die AMD-Bulldozer-Entwicklung begann und Bulldozer hatte genau das versucht: zwei Rechenkerne pro Decode-Einheit. Und Buldozer ist damit massiv gescheitert. Während Piledriver noch versuchte, die Effekte mit besseren L1-Chaches abzumildern, hatte Steamroller die Bulldozer-Architektur dahingehend erweitert, dass es dann wieder je Rechenkern eine eigene Decode-Einheit gab.
Es wird zu den ISA-Vergleichen zwar immer gesagt, dass moderne, superskalare ARM- und Power-Prozessoren ja auch Decode machen, aber wie aufwändig das im Vergleich ist, wird selten irgendwo verglichen. Wie stark sich die Unterschiede beim Decode zwischen ARM, x86 und Power auswirken, werden wir nur wissen, wenn das auch irgendwo mal untersucht und getestet wird aber weil das unglaublich aufwändig ist und bestimmt auch sehr unterschiedlich bei unterschiedlichen Workload-Typen sein kann, tut uns keiner den Gefallen - seit 20 Jahren.
RISC bedeutet aber auch nicht, dass es irgendwie "wenige" Befehle geben muss, sondern nur, dass die Befehle eine einheittliche Länge haben und jeder Befehl innerhalb eines Taktzyklus komplett abgearbeitet werden kann, während CISC auch Befehle erlaubt, die sich über mehrere Takte erstrecken. Damit es dabei bei RISC nicht zu einer massiven Zunahme von Speicherzugriffen kommt, haben RISC-Prozessoren mehr Register als CISC-Prozessoren. Während x86-32 nur 8 und x86-64 16 Register hat, hat ein aktuelles ARMv8 31 Register. Trotz dass AMD seit dem Aufkauf des NexGen Nx586 und Intel seit dem PentiumPro hinter dem Decode ALUs haben, die quasi nur RISC-Befehle ausführen, gibt es immernoch einen offensichtlichen Unterschied bei der Register-Anzahl.