News Im Test vor 15 Jahren: Apples Wechsel von PowerPC zu Intels x86-Prozessoren

maxpayne80 schrieb:
Welch Ideologiegetriebene Aussage, tust mir echt leid
Das hat nichts mit Ideologie zu tun, sondern lediglich mit dem Aspekt, dass man vorher teuer Geld bezahlt hat, um aus Sicht eines Endverbrauchers eine "exotische" CPU (RISC anstelle von CISC) zu bekommen die aber auch schnell war. Nach dem Wechsel auf Intel waren die Systeme erst mal nicht so schnell, aber weiterhin über alle Maße überteuert. Erschwerend kam hinzu, dass die ersten Versionen diversester Anwendungen auch noch relativ instabil (schlechte Portierungen) liefen.

Alles in allem Vergleichbar zu der Einführung von IDE bei MAC Rechnern, die vorher durch die Bank mit SCSI Platten liefen. Wieder wurde, aus Sicht des Endverbrauchers "exotische" Hardware aus dem System genommen, ohne dass sich diese Änderung entsprechend im Preis niederschlug.
Ergänzung ()

Luthredon schrieb:
Für dich - so what?
Für (Hardware-) Sammler
 
  • Gefällt mir
Reaktionen: ThePlayer
catch 22 schrieb:
Wobei ich bis Heute nicht verstehe, wie IBM bei dieser ursprünglichen (Projekt-) Bezeichnung mitgemacht hat (wurde später aus Marketing Gründen in "New Technology" umgedeutet), schließlich hatte IBM ja selber damals PowerPC RISC Prozessoren am Start und war bei der Entwicklung zu NT involviert

Mit der Spezifikation für das PowerPC-Design ging es laut Wikipedia 1991 los. Gut möglich, dass zu dem Zeitpunkt die Entwicklung für NT schon wieder weg von i860, hin zu einem plattformunabhägigen System geändert worden war. Es kam ja auch nie ein i860-Windows auf dem Markt.


Beitrag schrieb:
Bring hier nichts durcheinander, das Ding wäre mit 40 Mrd. verdammt groß und teuer.
Der I/O-Die hat 2,09 Mrd. Transistoren und ein Chiplet 3,9 Mrd.

Du hast recht. Ich habe das durcheinandergebracht. Ich hatte nach der Transistorzahl für Ryzen gegoogelt, aber die Antwort falsch gelesen. 40 Milliarden ist von den Epyc-CPUs.
 
Der Wechsel auf ARM wird kommen und ich begrüße ihn. Es wird wohl nichts schneller werden, aber es geht ja auch um Neue Plattformübergreifende Kompatibilität...
 
Qarrr³ schrieb:
Da, wo Leistung gebraucht wird, kann avx genutzt werden und damit ziehen die x86 CPUs davon. Videobearbeitung wird auf Apples soc ewig brauchen. Daher werden sie wahrscheinlich einen Hardware Encoder einbauen.


Ich glaube aber ehrlich gesagt, dass sich die Teile fast nichts geben werden. Wenn man arm aufpumpt, damit der mit x86 mithalten kann, verbraucht man genauso viel Strom. Umgekehrt hat Intel mit ihrem 5 Kern soc einen sehr effizienten chip (trotz 10nm Fertigung) mit wenig Leistung. Das aber nur ohne HT und avx.
Apple macht das nur zur Gewinnmaximierung, was vernünftig ist. Denn wenn man sowieso selbst CPUs produziert, dann kann man auch noch ein paar Kerne mehr einbauen und 256bit Funktionseinheiten einbauen und selbst den Gewinn behalten.

ARM Neon wäre das Gegenstück zu X86 AVX. Dazu sind die aktuellen Performance ARM cores allesamt fähig.
Apples Lightning Kerne haben dafür 3 und die neuen Cortex X 4 x 128 Bit Pipelines, die zusammengeschaltet werden können, um auch 256Bit Neon instructions ausführen zu können.

So ein Ligtning Kern hat darüber hinaus 6 reine ALU pipelines (selbst Sunny Cove hat dafür nur 4) und einen 7 instructions breiten front end decoder (verglichen mit 5 bei Sunny Cove).

Darüber hinaus eine ganze Ecke mehr Cache (128kb L1 vs 48kb bei Sunnycove, 4mb L2 vs 512kb, wobei Sunny Cove dafür 2mb L3 Cache hat).

Das schlägt sich auch im Transistorcount der Kerne wider.

Moderne high Performance ARM Kerne sind groß und breit.
Der IPC dürfte in vielen Anwendungen sogar über dem aktueller X86 CPUs liegen, nur wird man bei der Taktrate wohl nicht wirklich mithalten können. (wobei X86 CPUs einen Vorteil bei der Cache Latenz haben).

https://en.wikichip.org/wiki/intel/microarchitectures/sunny_cove
https://www.anandtech.com/show/14892/the-apple-iphone-11-pro-and-max-review/2
https://www.androidauthority.com/arm-cortex-x1-vs-apple-1121289/
https://www.anandtech.com/show/15813/arm-cortex-a78-cortex-x1-cpu-ip-diverging/3
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: konkretor und AlphaKaninchen
Beitrag schrieb:
Ähm, ich weiß zwar nicht, wann ich das gemacht haben soll, aber gern geschehen. ;)

Puh, hinterrücks vom Fettnäpchen erdolcht :D

Hoffe es gibt nicht auch nen nutzer "OP" :D
 
Marcel55 schrieb:
...
Gibt es eigentlich noch irgendwelche Systeme die heute auf PowerPC setzen? ...
Klar, gerade jetzt dieses Jahr kommt der IBM Power10 auf den Markt, exklusiv bei Global Foundries in 7 nm (nach Patentlizenzierung von TSMC) gefertigt und wahrscheinlich der Grund, warum Ryzen 4000 und die nächsten Spielekonsolenprozessoren erstmal exklusiv bei TSMC gefertigt werden. Eine neue Power-Generation gibts nur alle 6 Jahre oder so und damit ist Global Foundries als einziger IBM-Vertragsfertiger bis Ende nächsten Jahres bei allem, was sie in 7nm auf die Beine stellen können, voll ausgelastet.

IBM Power sind seit 2005 aber, und deswegen musste Apple damals auch umsteigen, aufs 200-Watt-pro-Sockel-Segment beschränkt. IBM wollte in den ganzen 2000ern schon keine Desktop- und schon gar keine Notebook-Prozessoren bauen. Zum G5 für den PowerMac kam es nur, weil Apple gebettelt hatte, nachdem Freescale (PPC-Designer seit Motorola-Ausstieg bis G4) die Sparte verlassen hatte.

Neben IBMs 200-W-Prozessoren gibts noch viele kleine Controller mit Power-ISA-Chips. Alle Geschäftsfelder, in denen man gelegentlich MIPS oder RISC-V findet, werden auch mit Power bedient. 2005 war der größte Hersteller solcher kleinen Power-Prozessoren mit ca. 1 W und so P.A. Semi, die später von Apple aufgekauft wurden und heute Apples ARM-Sparte bilden.

Seit RISC-V den Marktanteil von Power gefährdet, ist Power übrigens vollständig OpenSource geworden (OpenPower-Projekt) und zu den vielen Unterstützern der OpenPower-Plattform gehört auch Google. Ins Desktop- und Notebook-Segment wird das aber vermutlich nie zurückkehren, weil ARM als Alternative zu populär ist. Man muss auch bedenken, dass die wichtigste Software auf einem Desktop oder Laptop, der Web-Browser, heutzutage immer einen eigenen Compiler enthält (für ECMA/JavaScript) und deswegen ein erfolgreicher Wechsel auf eine andere ISA auch davon abhängt, ob ein Web-Browser-Engine-Macher Bock hat einen JavaScript-JIT-Compiler für diese ISA zu schreiben und zu pflegen. Das war 2005 noch nicht so. (Googles V8 hat es erfunden) Mozilla bietet heute zum Kompilieren auf Plattformen mit von deren JIT-Compiler nicht unterstützter ISA zwar noch einen JavaScript-Interpreter als Fallback an, aber den Slow-Motion-Webseiten-Aufbau will niemand erleben. Ich glaube auf einer aktuellen Webseite würde man sich wie mit einem 56k-Modem vorkommen, wenn man ohne den JIT-Compiler nur mit dem Interpreter surfen würde.

Deswegen, für jede Hochsprachensoftware ab C aufwärts ist zwar Portierung erwartbar, aber ausgerechnet Web-Browser gehören dank JavaScript-JIT-Compiler nicht (mehr) dazu und so werden wir auf absehbare Zeit nichts anderes als X86-64 und ARM haben. Ich bin mal gespannt, wann Mozilla die ersten AMD64-Prozessoren aussortiert; Windows hat das ja schon mit 8.1 getan.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zhan, Kuomo, me@home und 2 andere
Qarrr³ schrieb:
Und Gaming war bei Apple eh schon immer Stiefkind.
Das ist nicht wahr! Apple und Gaming sind weder verwandt noch verschwägert!

Atent123 schrieb:
ARM Neon wäre das Gegenstück zu X86 AVX. Dazu sind die aktuellen Performance ARM cores allesamt fähig.
Apples Lightning Kerne haben dafür 3 und die neuen Cortex X 4 x 128 Bit Pipelines, die zusammengeschaltet werden können, um auch 256Bit Neon instructions ausführen zu können.

NEON ist immer und ausschließlich 128bit. Das ist nämlich die Registerbreite und die ist fix (vielleicht verwechselst Du da was mit SVE).
Und dann kommt es nicht nur darauf an, wieviele NEON-Units vorhanden sind, sondern auch, was die alles können. Nicht jede Pipe stellt auch alle Funktionen zur Verfügung.

Atent123 schrieb:
So ein Ligtning Kern hat darüber hinaus 6 reine ALU pipelines (selbst Sunny Cove hat dafür nur 4) und einen 7 instructions breiten front end decoder (verglichen mit 5 bei Sunny Cove).

Darüber hinaus eine ganze Ecke mehr Cache (128kb L1 vs 48kb bei Sunnycove, 4mb L2 vs 512kb, wobei Sunny Cove dafür 2mb L3 Cache hat).

Im A13 habe die großen Cores 128 KB L1I und 128 KB L1D, der gemeinsame L2 ist 8 MB groß, aber für einen Core scheinen nur 6MB im Zugriff zu sein. Der SoC einen SLC von 16 MB.
Sunny Cove hat 32 KB L1I und 48 KB L1Dm der L2 ist im Gegensatz zum Apple-Core privat, der L3 steht exklusiv nur den CPU-Cores zur Verfügung.

Atent123 schrieb:
Moderne high Performance ARM Kerne sind groß und breit.
Der IPC dürfte in vielen Anwendungen sogar über dem aktueller X86 CPUs liegen, nur wird man bei der Taktrate wohl nicht wirklich mithalten können. (wobei X86 CPUs einen Vorteil bei der Cache Latenz haben).
Die IPC eines A13-Lightning ist ca. 60% höher als die eines Sunny Cove, die Intel-CPU muß also auf 4,3 GHz getaktet werden um die gleiche Leistung zu bringen.
Die L1-Latenz ist bei Intel tatsächlich deutlich niedriger, aber hier ein kleine Frage: Wieviele Takte braucht jeder der beiden Cores für den Zugriff?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Zhan
crackett schrieb:
Der Wechsel auf ARM wird kommen und ich begrüße ihn. Es wird wohl nichts schneller werden, aber es geht ja auch um Neue Plattformübergreifende Kompatibilität...

Ja ähhh nee. Vielleicht laufen dann mal alle Apple Geräte mit ARM - aber die Apple Welt ist relativ gesehen ziemlich klein. Gerade was richtige Computer betrifft (selbst Apple nennt das iPad im Werbespot "dein nächster Computer ist kein Computer" =)), sind die Macs ein winziger Teil und wenn man jetzt diese von X86 trennt, dann werden die für mich (wieder) und ich denke für viele andere komplett uninteressant.
 
Ich habe mit dem Mini G4 angefangen, dann iMac mit G5, dann als der Intel Umstieg kam, länger gewartet bis die Preise erschwinglich wurden am Gebrauchtmarkt.
Macbook pro, 2x Mac Pro dann als media Zuspieler den MacMini mit i7 + i5 aber nicht wirklich zufrieden. Die mini's sind / waren immer zu langsam bzw. zu heiß ebenso die Macpro 1.1 - 3.1 dann nur mehr hackintosh.
Bis vor 1/ 2 Jahr noch, aber jetzt gefällt mir Win10 mehr, einfach schon die Aufrüstungsmöglichkeit und die Preise!

Ich freue mich, dass Apple aus dem x86 CPU Bereich aussteigt, weil so gibt's mehr Innovationen und Druck auf Intel (+ AMD).
 
konkretor schrieb:
Die letzten großen neben x86...

Mich würde mal eher interessieren, wer neben VIA und AMD noch eine aktive x86 Lizenz hat
 
Apple stieg damals noch stärker in den mobilen Computermarkt (Notebooks) ein und diese konnten schlicht nicht auf IBMs energiehungriger, ineffizienter und damit sehr heiß werdenden CPUs laufen.

Intel konnte dagegen effiziente, sparsame und dennoch leistungsfähige x86 CPUs liefern. Übrigens hätte AMD fast das rennen gemacht und Intel hatte Steve Jobs Anfragen abgelehnt, spezielle CPUs für Apple zu entwickeln. Und AMD konnte damals wesentlich effizientere CPUs für den mobilen Markt liefern. Allerdings war Intel dazu bereit, Apple mit den neuen Core-CPUs experimentieren zu lassen, welche Apple und Steve Jobs überzeugten.
 
  • Gefällt mir
Reaktionen: konkretor
Matrix316 schrieb:
Gerade was richtige Computer betrifft, sind die Macs ein winziger Teil und wenn man jetzt diese von X86 trennt, dann werden die für mich (wieder) und ich denke für viele andere komplett uninteressant.
Ungefähr auf 2% der Macs läuft Windows.
Das geht Apple völlig am Allerwertesten vorbei und über kurz oder lang wird es auch den anderen 98% der Mac-Besitzer egal sein, daß dann keine Intel-CPU mehr in ihrem neuen Mac steckt.
 
  • Gefällt mir
Reaktionen: andi_sco
The art of keynote. Wenn man diesem Messias zusieht wie der damals sich und seine Produkte präsentiert hat, weiß man auch warum der Abtritt von ihm so schmerzlich war.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Schon komisch, noch nie ein EI-Phone gekauft.
Dafür aber 100 fach in die Aktie investiert :)
Wenn ich irgendwann eine Million damit gemacht habe, sollte ich mir tatsächlich ein Apple Produkt kaufen (vielleicht^^) Ich will ja Geld verdienen und keine Melkkuh sein... :)
 
Man sollte Apple nicht unterschätzen. Leider gibt es nicht allzu viele plattformübergreifende Benchmarks aber die SPEC06 Ergebnisse sind beim A13 echt beeindruckend, wenn man die Single Core Leistung betrachtet: https://www.mactechnews.de/news/art...teigt-im-Vergleich-zum-Vorgaenger-173581.html

Hier fehlt echt nicht mehr viel auf den 9900K und das ist eine High End Desktop CPU. Würde Apple eine CPU mit 8 Big Cores auflegen, so hätten sie sofort eine konkurrenzfähige Desktop CPU und immer noch mehr als genug Luft bei der Leistungsausnahme.

Ich denke auch, dass der ARM Befehlssatz mittlerweile deutlich im Vorteil ist. Man muss sich nur einmal ansehen zu welcher Zeit der x86 Befehlssatz entwickelt wurde. Der 80386 hatte weniger als 300K Transistoren.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
andr_gin schrieb:
Ich denke auch, dass der ARM Befehlssatz mittlerweile deutlich im Vorteil ist.
Ich denke die Befehlssätze spielen heute keine so große Rolle mehr. RISC wurde entwickelt weil die damaligen Compiler nicht besonders gut mit den älteren, auf Programmierung in Assembler optimierten CISC Befehlssätze zurechtkamen, die besonders schnelle Funktionen oft nur für einzelne Register angeboten haben. Compiler sind aber einfacher zu bauen,wenn alle Register die gleichen Funktionen anbieten.
Das ist aus folgenden Gründen heutzutage aber nicht mehr so relevant:
Beim Aufbohren von x86 auf 32bit und 64bit wurden neue, universell nutzbare Register hinzugefügt.
Dadurch das inzwischen viel mehr Ressourcen in Form vom RAM und Rechenleistung zur Verfügung steht können Compiler inzwischen auch auf die Spezialfunktionen eines CISC Befehlssatzes optimieren.
Z.B. in C: Früher hat es einen Unterschied gemacht ob man i = i+1; oder i++; im Code geschrieben hat, da letzteres auf die schnellere Increment-Funktion eines Prozessors umgesetzt wurde, ersteres aber als normale Addition gehandelt wurde. Moderne Compiler machen daraus den gleichen Machinencode.
Und wie in anderen Posts schon gesagt wurde: x86 sind intern inzwischen auch RISC-Prozessoren mit einer vorgeschalteten Übersezungseinheit für x86 Code.
 
  • Gefällt mir
Reaktionen: konkretor
@Qarrr³
ARMv8-A ist von 2011, gewonnen! :D
Und bei Intel müßte es eigentlich 1974 heißen, denn x86 gründet auf dem 8080.

@andr_gin
Durch den x86-Befehlssatz sind die Befehlsdecoder in x86-CPUs viel aufwendiger, während die in ARM-CPUs das Allermeiste einfach nur durchwinken können, aber abgesehen davon sind die Cores inzwischen mehr oder weniger gleich komplex, da Arm sich weg von "klein und billig" entwickelt hat.
Apple hatte 2013 mit ihren massiven Cores diese Entwicklung vorweggenommen, aber Apple verkauft auch keine Chips an Hersteller mit dünnen Margen und hat so nicht Die-Fläche gegen Performance abwägen müssen.

@mkossmann
Die Compiler optimieren x86-Code heutzutage dadurch, daß sie den Befehlssatz möglichst RISC-artig nutzen und die komplizierten Op-Codes, die dann in den Decodern aufwendig aufgespalten werden müssen, lieber meiden. Ein großes Ziel von CISC war es ja RAM zu sparen und die Anzahl der Speicherzugriffe zu reduzieren. Beides ist für Programmcode heutzutage nicht mehr wirklich wichtig.
Die Anzahl der Register des Programmiermodells ist inzwischen übrigens auch eher irrelevant, da die Cores Dutzende Schattenregister benutzen und die nach Bedarf einsetzen können.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: MountWalker und AlphaKaninchen
Zurück
Oben