News Abschied von Intel: Apples Mac wechselt ab Ende 2020 bis Ende 2022 zu ARM

SV3N schrieb:
Wird sehr spannend zu beobachten sein, wie sich die ersten ARM-Chips von Apple Silicon gegen die x86-Konkurrenz schlagen.

ARM im Desktop ist ja nochmal was ganz neues und daher interessant zu verfolgen wo die Reise hingeht.

Also die Aussage ist eigentlich Falsch, ARM ist nicht neu im Desktop.
ARM war sogar zuerst auf dem Desktop, da kommt die CPUs Architektur ursprünglich her

https://de.wikipedia.org/wiki/Acorn_Archimedes#Mikroprozessor

ARM wurde aber umbenannt, bzw die Bedeutung der Abkürzung
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaTux und PPPP
HanneloreHorst schrieb:
Ich finde die Zahlen alles andere als zufriedenstellend, vor allem sind Emulationen immer häufiger von Bugs und Leistungsschwankungen betroffen, nicht nur im Gaming.
Es handelt sich hier nur nicht wirklich um eine Emulation, auch nicht beim Vorgänger während des Wechsels von PowerPC zu x86.

Rosetta 1 damals übersetzte PowerPC-Maschinencode während der Ausführung von PowerPC nach x86. Rosetta 2 übersetzt nun während der Installation den Maschinencode von x86 zu ARMv8.

Bei Apple kann das sogar vergleichsweise gut funktionieren, da Apple dank seiner sehr sauberen Cocoa-API also auch XCode und dem damit verbundenen Compiler hier auch Erfahrung mit bringt. Der Ansatz von Rosetta benötigt zwar einiges an Fähigkeiten in der "Datenanalyse" und "Mustererkennung", jedoch eine Übersetzung von Maschinencode A zu Maschinencode B noch überschaubar und relativ effizient auszuführen.
 
  • Gefällt mir
Reaktionen: s0UL1, AlphaKaninchen und LamaTux
Azuro schrieb:
Ähm wass ich zu dieser Sache bei der letzten Apple Developer Conference gelesen habe, wird daraus nichts, da sie wärder OpenGL noch Vulkan unterstützen.
Schade, damit bleibt für mich das Thema Apple Tabu. Muss ich mein Geld woanders ausgeben😁

Interessant ist, das ich so manchen Apple Macbook User kenne, die jetzt überlegen auf Windows umzusteigen. Weil sie mit Windows bei ihren Kindernotebooks für die Schule in Kontakt gekommen sind und es gar nicht so schlecht finden (vor allem auch günstiger bei akzeptabler Wertigkeit).
 
Miuwa schrieb:
Bei den meisten Apps ist die ISA für die das Program compiliert wird nun wirklich das letzte was für einen Entwickler wichtig ist (zumindest solange man nciht von 32 auf 64 bit oder umgekehrt wechseln muss). Die wichtigsten Punkte sind immer: Wie sieht das Nutzerinterface aus, sind die OS-Schnittstellen die gleichen und was ist der Leistungs-/Resourcenrahmen in dem wir uns bewegen (Reihenfolge wirkürlich gewählt).

Das sehe ich anders. Wenn wir Apps entwickeln sind die unterschiedlichen Plattformen klare Kostentreiber. Mit Big Sur und ARM ist es nun möglich dass wir nur eine App im Appstore platzieren, welche dann auf allen Endgeräten (iPhone/iPad, Mac) verwendet werden kann - am Anfang in der iPhone/iPad Ansicht unter Big Sur, wenn es sich lohnt dann mit einem eigenen Layout für Desktop. So lassen sich auch Messenger auf den Mac bringen ohne dafür extra eine eigene App schreiben zu müssen.
 
  • Gefällt mir
Reaktionen: Gizzmow und LamaTux
D708 schrieb:
Ich kann dir auch Benchmarks zeigen, in denen die Power9 CPU ihrer x86 Konkurrenz nur die Rückspiegel zeigt mit ihrem SMT8 in Bereich der Virtualisierung.

Aber das sind doch Spezialfälle. Es geht aber hierbei darum, dass ARM in der Lage sein soll, die Komplette X86/64 Plattform zu beerben in ihrer universellen Einsetzbarkeit.
Dieses Apple-sind-die-besten-CPU-Hersteller und-haben-die-anderen-um-Lichtjahre überholt-, (und nichts anders wäre das, wenn die ihre Mitbewerber um das 3-Fache in jeder Anwendung schlagen würden)Gequatsche macht einfach keinen Sinn. Ist genau der gleich Mist, der über die Quantencomputer andauert publiziert wird.

Vergleiche es von mir aus mit den TensorCores von NVIDIA. Bei richtiger Nutzung schlagen die auch alles Dargewesene, aber selbst der kühnste Träumer bei NVIDIA glaubt nicht daran, dass die in die Nächsten Generationen auf klassische Shader verzichten können.

Ich hab dir jetzt mehrere Quellen genannt, auch eine von Spec2006 wo fast alles was man mit Rechnern machen kann getestet wurde, eben nicht nur Spezialfälle.
Wo sind also deine Quellen, deine Benchmarks? Behaupten kann man viel, Belege zählen 😉
 
howdid schrieb:
das reichste Unternehmen der Welt hat natürlich keine Analysten und Finanzdienstleister die alles bis auf den letzten Cent runter rechnen und kalkulieren. Danke für deinen Einblick in die Glaskugel.

Genau unddiese Analysten liegen ja auch nie falsch. Frag mal andere Spitzenunternehmen, wieviel Milliarden die schon in den Sand gesetzt haben. Wieviel Projekte hat Google schon wieder eingestellt? Und Nokia hatte ganz sicher auch Marktanalysten bei zeitweise über 85% Marktanteil und ist trotzdem pleite gegangen
 
PPPP schrieb:
Weshalb sollte man diesen rießen Aufwand beim Desktop betreiben? Und dann im Serverbereich nicht?! Nur weil Apple, die kaum der Rede wert sind was Desktops angeht, einen „Versuch“ startet?
ARM hat auf dem Desktop keinen Vorteil, in mobilen Geräten macht es ja noch Sinn.
Den Versuch gab es doch schon. Es gibt für Windows, Linux und demnächst auch macOS Desktop für ARM. Der Durchbruch wurde nur noch nicht erreicht. Mit Apple wäre das aber möglich und andere könnten nachziehen.
 
  • Gefällt mir
Reaktionen: GregoryH
ToTom schrieb:
Bitte schau bei Geekbench selbst nach.
Man muss bei Geekbench aber etwas aufpassen. Geekbench ist ein guter Test um die theoretische Leistungsfähigkeit einer CPU/GPU abzubilden, bildet aber keine wirklich realen Arbeitsworkloads ab.

Ich habe es in einem anderen Thema bereits mehrfach versucht zu erläutern, deswegen fasse ich mich hier nun kurz: In der reinen INT/FP-Leistung stehen moderne ARM-Kerne - ihren Intel und AMD Pendants in der x86-Welt nicht wirklich nach. Das primäre Problem für ARM-Kerne aktuell ist eher die Bandbreite der Caches als auch des Arbeitsspeichers. Hier werden ARM-Kerne auch heute noch auf Effizient getrimmt. Breite Datenpfade kosten viel Platz und ebenso auch oft viel Energie.

Bei Zen als auch bei Intels Kernen sprechen wir in der Regel von 2 * 64 Bit SI bis hinauf zu 8 * 64 Bit SI. Aktuelle ARM-Designs haben oft nur 2 * 32 Bit SI. Daten kommen also vom Arbeitsspeicher oft nicht schnell genug nach.

Ebenso können ARM-Kerne aktuell nicht so hoch takten. Wir sprechen hier in der Regel von knapp 3GHz gegen bis zu nun 5,2GHz bei Desktoprechnern.

ARM-Kerne können, wenn man gewisse Schwachstellen eliminiert, jedoch über alle Bereiche hinweg auch mit x86-Kernen mit halten.
 
  • Gefällt mir
Reaktionen: tidus1979, Iapetus, LukS und eine weitere Person
mkossmann schrieb:
Die Rechenleistung bei Supercomputern wird nicht von den eigentlichen CPUs erbracht sondern von speziellen Vektorerweiterungen (intern bei Fujitsu/ARM "SVE", bei Intel "AVX512"). Oder durch von Grafikchips abgeleiteten CPU externen Beschleuniger Chips ( z.B. Nvidia Tesla).
AVX ist nichts weiteres als eine Befehlsatzerweiterung des alten SSE4. Oder einfach gesagt, es ist die x-te Befehlsatzerweiterung der x86-Archtiektur. Gleiches gilt für SVE. Das sind keine speziellen FF-Einheiten oder ähnliches, daher verstehe ich deinen Einwand nicht wirklich.
 
  • Gefällt mir
Reaktionen: Miuwa
Steini1990 schrieb:
...
Was ich mich frage...
Als sie die Emulation vorgstellt haben wurde nur Linux erwähnt. Kein Hinweis auf Windowskompatibilität. Heißt das jetzt das da nur Linux gut drauf laufen wird? Oder haben sie das nur aus Prinzip nicht erwähnt.

Wäre die Frage, warum man das machen sollte. Man wendet sich doch von der x86 Welt ab. Das, was ich jetzt sage, ist meine persönliche Meinung als nicht-Apple-Nutzer:

Die Geräte von Apple sind ziemlich geil. Bei den Betriebssystemen machen sie irgendwie etwas richtiger, als die anderen beiden, sprich Microsoft und Google.

Was ich allerdings als absolut geheuchelt und inkonsequent von den Käufern empfinde: viele kaufen sich ein MacBook oder iMac, packen dann aber dank der noch vorhandenen Intel i-Prozessoren Windows zusätzlich drauf, weil man ja für gewisse Dinge des beruflichen Lebens oder Studiums Windows Programme braucht.

Dann kann ich es doch auch gleich sein lassen und ein vergleichbares UltraBook oder All-in-one Windows Rechner holen.

Aber die sehen ja so langweilig aus...
 
McFritte schrieb:
Wieviel Projekte hat Google schon wieder eingestellt? Und Nokia hatte ganz sicher auch Marktanalysten bei zeitweise über 85% Marktanteil und ist trotzdem pleite gegangen

Ein eingestelltes Projekt heißt nicht, dass es ein Fehler war, es auszuprobiert zu haben. Auch Apple probiert intern ständig alles mögliche aus und nur das wenigste davon erreicht je das Tageslicht. Aber manchmal kommt halt auch was Großes dabei raus. Nokia hat falsch gemacht, dass sie eben nicht Neues ausprobiert haben, sonder fest an den Status Quo glaubten.
 
Helge01 schrieb:
Den Versuch gab es doch schon. Es gibt für Windows, Linux und demnächst auch macOS Desktop für ARM. Der Durchbruch wurde nur noch nicht erreicht. Mit Apple wäre das aber möglich und andere könnten nachziehen.

Weil Apple ja so viel einflussreicher für den Desktopmarkt ist als Microsoft oder Linux? :freak: Warum sollte es gerade mit Apple nun möglich sein?
Mit “der Durchbruch wurde nur noch nicht erreicht“ hatte das ganze auch wenig zu tun. Es ist gescheitert und keiner hatte Interesse daran.
 
McFritte schrieb:
Genau unddiese Analysten liegen ja auch nie falsch. Frag mal andere Spitzenunternehmen, wieviel Milliarden die schon in den Sand gesetzt haben. Wieviel Projekte hat Google schon wieder eingestellt? Und Nokia hatte ganz sicher auch Marktanalysten bei zeitweise über 85% Marktanteil und ist trotzdem pleite gegangen

Märkte verändern sich laufend. Auch die besten Analysten können oft falsch liegen. Wer hätte noch vor 1 Jahr geglaubt, dass die Flugindustrie so stark kollabieren wird. So richtig voraussagen, kann man nur mit vorhandenen Marktdaten und Spekulationen. Und damit arbeiten auch Analysten und Marktkenner. Sie schauen sich die Marktentwicklungen an und die potentiellen Produkte in der nahen Zukunft und können dann Analysen erstellen. Das heißt aber nicht, dass dazwischen noch etwas passieren kann, wie zB eine große Insolvenz eines wichtigen Marktspielers. bestes Beispiel ist hier zB Wirecard.
 
Das erinnert stark an Microsofts Versuch, Windows Phone (Mobile) und Windows 10 verschmelzen, bzw die Anwendungen auf beiden Systemen laufen zu lassen.
Das kann klappen, muss aber nicht. Welche Probleme und Kinderkrankheiten der Versuch mitbringt, bleibt abzuwarten.
 
  • Gefällt mir
Reaktionen: Schorsch92
AlphaKaninchen schrieb:
Nur hat der Supercomputer den er (vermutlich) meinete keine GPUs sondern nur Fujitsu A64FX Chips
Genau das wollte ich damit sagen ;) Ohne GPU-Beschleunigung fehlt Effizienz unter Linpack.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
PPPP schrieb:
Weil Apple ja so viel einflussreicher für den Desktopmarkt ist als Microsoft oder Linux?

Apple hat viel mehr Kontrolle über die Anwendungen, die für MacOS entwicklet werden, als Microsoft über die für Windows oder gar irgendjemand (Linus Torvalds?) bei Linux.

Hinzu kommt, dass die Apple-Nutzer traditionell scheinbar ziemlich offen dafür sind, dem Weg zu folgen, den Apple ihnen vorgibt. Bei Windows-Nutzern geht es oft eher in die Richtung: "Sagt mir nicht, was ich mit meinem PC zu tun habe!". :lol:
Außerdem haben bei Windows auch die großen OEMs ein erhebliches Wörtchen mitzureden. Wenn Dell, Lenovo, HP und Co. keine ARM-PCs bauen wollen, kann Microsoft sie nicht dazu zwingen. Apple entscheidet selbst, wie alle Macs aussehen.

Ich sehe es deshalb auch so, dass wenn es jemanden gibt, der PCs erfolgreich von x86 auf ARM umstellen kann, dann Apple. Allerdings heißt es nicht, dass dann der Windows- und Linux-PC-Markt dem Beispiel der Macs zwangsläufig folgt. Die Macs sind eine in sich abgeschlossene Nische und haben keinen besonders großen Anteil am PC-Markt. Durch einen Wechsel auf ARM, wird der Spalt zwischen den Macs und allen anderen PCs nur noch größer.
 
  • Gefällt mir
Reaktionen: chartmix, BGnom und PPPP
@ Was bedeutet der Umstieg für Apple und für Nicht-Apple

Ich glaube ganz entscheidend ist, was mit dem PowerMac/MacPro passiert. ARM-Notebook-Prozessoren stecken ja heute schon quasi in iPad und Chromebooks. Aber Apple versorgt auch einen Workstation-Markt und die Vorführung von Maya auf ARM zielt auch genau darauf ab. Ich weiß nicht genau, wie man das Marketing-Sprech von Tim Cook interpretieren soll, aber wenn ein Abschluss der Migration in zwei Jahren bedeutet, dass in zwei Jahren keine neuen Intel-MacPros mehr verkauft werden, dann heißt das in der Zeit auch einführung eines echten ARM-Workstation-Prozessors, also eines Threadripper-Konkurrenten.

Ich bin mal gesapnnt, was das für PCIe-Geräte bedeutet. Zu PPC-Mac-Zeiten wurde nicht jede PCI-, AGP- oder PCIe-Karte von Apples OpenFirmware-Implementation initialisiert. Da brauchte es ausgewählte Firmwares auf den Mac-Karten, die dann auch teurer waren. Mac-Karten liefen im PC (ja, wirklich, ich hatte eine!), aber umgekehrt war das oft nicht der Fall. Ich bin mal gespannt, ob dann in zwei Jahren die Geforce/Quadro oder Radeon/FirePro Mac Editions mit 20% Preisaufschlag zurückkommen.

Herdware schrieb:
[...]
Für die x86-Kompatibilität ist nur noch eine vorgeschaltete Decoder-Einheit zuständig, die auf einer modernen CPU nur noch einen winzigen Teil der Chipfläche ausmacht.
[...]
Mit dem Wörtchen "winzig" wäre ich vorsichtig. Ich habe keine genaue Eingrenzung der Decode-Einheit eines Ryzen-Dieshots gefunden, aber bei Anandtech mutet es so an, als könne die so groß wie die ALU sein. Das kann bei Auslastung einen bedeutenden Stromverbrauch verursachen. Ich erinnere mich dunkel vor 15 jahren vermutlich bei Ars Technica gelesen zu haben, dass man glaube, das Problem mit den möglicherweise bei x86 aufwendigeren Decodern als bei den meist verbreiteten Konkurrenz-Architekturen werde sich mit Multi-Core auflösen, weil mehr Kerne von einem Decoder versorgt würden. Rückblickend wird das der Moment gewesen sein, als die AMD-Bulldozer-Entwicklung begann und Bulldozer hatte genau das versucht: zwei Rechenkerne pro Decode-Einheit. Und Buldozer ist damit massiv gescheitert. Während Piledriver noch versuchte, die Effekte mit besseren L1-Chaches abzumildern, hatte Steamroller die Bulldozer-Architektur dahingehend erweitert, dass es dann wieder je Rechenkern eine eigene Decode-Einheit gab.

Es wird zu den ISA-Vergleichen zwar immer gesagt, dass moderne, superskalare ARM- und Power-Prozessoren ja auch Decode machen, aber wie aufwändig das im Vergleich ist, wird selten irgendwo verglichen. Wie stark sich die Unterschiede beim Decode zwischen ARM, x86 und Power auswirken, werden wir nur wissen, wenn das auch irgendwo mal untersucht und getestet wird aber weil das unglaublich aufwändig ist und bestimmt auch sehr unterschiedlich bei unterschiedlichen Workload-Typen sein kann, tut uns keiner den Gefallen - seit 20 Jahren.

RISC bedeutet aber auch nicht, dass es irgendwie "wenige" Befehle geben muss, sondern nur, dass die Befehle eine einheittliche Länge haben und jeder Befehl innerhalb eines Taktzyklus komplett abgearbeitet werden kann, während CISC auch Befehle erlaubt, die sich über mehrere Takte erstrecken. Damit es dabei bei RISC nicht zu einer massiven Zunahme von Speicherzugriffen kommt, haben RISC-Prozessoren mehr Register als CISC-Prozessoren. Während x86-32 nur 8 und x86-64 16 Register hat, hat ein aktuelles ARMv8 31 Register. Trotz dass AMD seit dem Aufkauf des NexGen Nx586 und Intel seit dem PentiumPro hinter dem Decode ALUs haben, die quasi nur RISC-Befehle ausführen, gibt es immernoch einen offensichtlichen Unterschied bei der Register-Anzahl.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Ltcrusher schrieb:
Was ich allerdings als absolut geheuchelt und inkonsequent von den Käufern empfinde: viele kaufen sich ein MacBook oder iMac, packen dann aber dank der noch vorhandenen Intel i-Prozessoren Windows zusätzlich drauf, weil man ja für gewisse Dinge des beruflichen Lebens oder Studiums Windows Programme braucht.
vor allem gleich als "dual boot" - wo es doch bspw. Parallels gäbe, bei denen Anwendungen seamless laufen :)
 
MountWalker schrieb:
Mit dem Wörtchen "winzig" wäre ich vorsichtig.

Zu Athlon64-Zeiten machte er x86-Decoder laut einem Anandtech-Interview mit AMD noch ca.10% der Die-Fläche aus. (Und deshalb war es AMD nicht wert, die x86-Kompatibilität aufzugeben, als sie ihre ersten 64Bit-CPUs brachten.)

Die Decoding-Einheit wird mit der Zeit sicher auch komplexer geworden sein, aber garantiert nicht so schnell angewachsen, wie die anderen Funktionseinheiten auf der CPU und Dinge wie Cache, Speicher-Controller usw.

Es würde mich überraschen, wenn der Decoder auf modernen CPUs noch mehr als 1% der Die-Fläche bzw. Transistorenanzahl ausmachen würde. Jedenfalls bei großen Desktop-CPUs.
Je kleiner die CPU wird, um so größer wird der Anteil, den der Decoder ausmacht. Das dürfte einer der Gründe sein, warum ARM bei Smartphone-SoCs wesentlich effizienter ist als x86.
 
Zurück
Oben