News Apple M1: Was Apple Silicon im Mac kann und was noch nicht

foo_1337 schrieb:
Die Daten können direkt vom RAM in den VRAM "kopiert" werden bzw eben direkt angesprochen werden, ohne über den PCIe Bus gehen zu müssen. Bei der PS4 z.B. war sowas auch möglich. Auch muss nicht ein separater VRAM Pool allokiert werden (kein split).
Bei den intel iGPU muss der RAM über konventionelle Wege in den VRAM kopiert werden
Das nennt sich "Zero Copy", ist nicht neu und für Intel ein alter Hut:
https://software.intel.com/content/...uffer-copies-on-intel-processor-graphics.html

AMDs iGPUs sollten das auch können (ich bin zu faul zum Suchen).

Und Speicher muss allokiert werden, genauso wie die Berechtigungen für den Speicher gescheit gesetzt werden müssen. Dass die GPU oder CPU je frei im gemeinsam genutztem Speicher lesen/schreiben können wäre ein Problem. Die Rechteverwaltung ohne größere Latenzen umzusetzen ist eine Kunst für sich.
 
Man darf nicht vergessen das ARM Architektur einen ei st völlig anderen Ansatz verfolgt hat als Intel mit ihrer x86er.
Der x86er war/sollte die eierlegende wollmilchsau sein. Kann alles. Nur ist sie auf nichts spezialisiert.
Das sieht bei ARM im Kern zwar nicht wesentlich anders aus, allerdings setzte man dort von Anfang an auf Abhängigkeiten zu spezialisierter Hardware. Die kann dann ganz bestimmte Dinge extrem effizient. Aber sonst gar nichts.

Und genau das ist das Problem.
Speziell darauf zugeschnittene Software fluppt. Alles andere mündet in einer mittleren Katastrophe.
Was Apple da jetzt hinbekommen muss ist das die Software möglichst von all den Spezialitäten alles mitnimmt was nur irgendwie sinvoll Ist. Umgekehrt muss der Chip möglichst alles dafür notwendige bereit stellen.
Auf Smartphones mit ihren extrem geschlossenen Systemen funktioniert das ja super.
Microsoft ist genau daran gescheitert. Man sieht einen Windows Desktop und erwartet erst mal das alles an Software einfach so darauf fluppt.
Aber genau das tat es nicht. Weil es eben nicht so trivial ist bisherige Software darsuf zum anständigen laufen zu bringen.

Bei Apple wird es sicher hilfreich sein das es, im Vergleich zu Windows, eine sehr viel überschaubarere Auswahl an Software gibt. Die wenigen Etablierten Programme anzupassen/anpassen zu lassen wird sicher auch nicht einfach, aber darüber hinaus gibt es schlicht nicht so viel mehr was "selbstverständlich" gefordert wird.
Bei Windows erwartet man einfach das 20Jahre alte Software läuft. Abei MacOS gab es vor 20 Jahren noch PowerPC, soweit ich weiß gibt's da schon lange keinen Support mehr für.
 
Der Zeitpunkt von  hätte nicht besser gewählt werden können. Als wenn sie wussten das Intel nicht mehr Konkurrenzfähig sein würde.
Vielleicht haben sie Orakel...
 
  • Gefällt mir
Reaktionen: lalalala
Der Apple M1 die Abkehr von Intel ein und bietet mehr Leistung pro Watt.

ahh ja... okay!
 
w0mbat schrieb:
https://www.anandtech.com/show/16226/apple-silicon-m1-a14-deep-dive

Schon der A14 schlägt alle aktuellen Intel CPUs (bis zum 10900K), nur Zen3 ist noch schneller.
:rolleyes:

Der A14 ist ein low-power ARM design. Taktbereinigt kann er es in synthetischen Benchmarks mit einer high-end x86 desktop CPU sehr gut aufnehmen, aber in einem Alltagsszenario sieht es natürlich ganz anders aus. Gegen eine aktuelle Core-i9 oder Zen 3 CPU hat der A14 natürlich absolut keine Chance.

Das würde auch für den M1 gelten und wer etwas anderes glaubt ist auf Apples Marketinggeschwurbel reingefallen.

Apple will und braucht auch nicht die absolute Performancekrone, sie wollen solide Lifestyle-Produkte für Mutti und Papi als auch Omi und Opi herstellen. Diese Zielgruppe schert sich einen Dreck um hohe Leistung, Hauptsache der Rechner/Laptop funktioniert gut und ein Äpfelchen steht auf dem Gehäuse, weil letzteres ja so schick und schön ist.

Apple hat sicherlich eine sehr gute Architektur entwickelt, aber sie können nicht zaubern. Der Super-Duper-Apple-Zocker-Anwendungs-Blaster-PC wird es nicht geben. Intel, AMD, Samsung und auch Qualcomm werden Apples CPU-"Wunderwaffe" auch bestens überleben.
 
AlphaKaninchen schrieb:
So Stolz wie man bei Apple auf Unified Memory (zu recht) ist erwarte ich genau das, wenn auch mit Chiplets oder ähnlichem...
Man könnte natürlich auch den Memory der Erweiterungen für die CPU verfügbar machen und umgedreht, so das der Mac Pro dann quasi konfigurierbares Apple Silicon ist. Du möchtest 2TB HBM2 + 512 GPU Cores mit 8192 Execute Units, no Problem! Oder 1024 ML Einheiten statt den GPU Cores? ok!
Da gebe ich Dir voll und ganz Recht:
Das "Fabric" nimmt beim M1 mehr (Interconnect-)Chipfläche in Anspruch als CPU oder iGPU. Warum dieser Aufwand, wenn es nicht von zentraler Bedeutung für die Architektur wäre (Stichwort: Data Locality)?
Christof Windeck vergleicht es mit dem AMD Infinity Fabric.

Als High-Performance-Lösung sehe ich auch ein Multi-Chip-Modul mit diesem Fabric (+ gemeinsamem Lx-CPU/GPU/XXX-Cache) im Zentrum, an das mehrere CPU-, GPU-, Neural-Engine- und sonstige Chiplets angedockt werden.
Quasi die Architektur der Konsolen als aufgebohrte MCM-Variante im Desktop.

Analog zum Auto: Was nützen die PS (TFLOPS), wenn man sie nicht auf die Straße bringst?
Die Architekur des PC ist halt ineffizient ohne Ende.
Weiter so, Apple!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlphaKaninchen
Ich bin echt gespannt, wie Apple ihre tatsächlich an "Pro" Kunden oder "Prosumer" gerichteten Gerät überhaupt sinnvoll machen will: dafür ist deutlich mehr nötig als Marketing das einem sagt "X Times faster" aber dann ein MacAir mit nicht funktionierender Kühlung als Vergleich heran zieht.

Und dass ist dann nur die Frage nach der Hardware, die im produktiven Bereich ja ganz andere Anforderungen hat als es die üblichen Konsumenten haben. Die Software-Seite ist noch eine ganz andere und da schon Photoshop erst 2021 kommen soll, wo dann auch noch fraglich ist, ob es so gut läuft wie davor, wird es bei anderen Produkten noch schlechter aussehen.

Aber gut, sowas ist ja bei einem Gen1 Produkt zu erwarten.
 
Tulol schrieb:
Man darf nicht vergessen das ARM Architektur einen ei st völlig anderen Ansatz verfolgt hat als Intel mit ihrer x86er.
Der x86er war/sollte die eierlegende wollmilchsau sein. Kann alles. Nur ist sie auf nichts spezialisiert.
Das sieht bei ARM im Kern zwar nicht wesentlich anders aus, allerdings setzte man dort von Anfang an auf Abhängigkeiten zu spezialisierter Hardware. Die kann dann ganz bestimmte Dinge extrem effizient. Aber sonst gar nichts.

Das gilt zumindest nicht generell für ARM. Es gibt heutzutage natürlich unzählige hoch spezialisierte ARM-CPUs, -SoCs und vor allem -Microcontroller, die nur auf verschiedene, ganz bestimmte Aufgaben ausgelegt sind, aber die ARM-Architektur an sich ist genauso für ganz normale Allround-CPUs geeignet, wie x86.

Schon Mitte der 80er waren die ersten ARM-CPUs gewöhnliche General-Purpose-CPUs. Schließlich wurden sie entwickelt, um als Hauptprozessor in den damaligen Acorn-Computern (Archimedes, RISC-PC usw.) zu arbeiten.

Was die ARM-CPUs damals hauptsächlich von den x86ern unterschied, war der auf dem RISC-Prinzip basierende, reduzierte Befehlssatz. Statt vieler, komplexer Befehle für alle möglichen Funktionen (CISC), besteht RISC nur aus wenigen, simplen Maschinenbefehlen, die von der CPU besonders schnell abgearbeitet werden können.
Allerdings arbeiten die x86er auch schon seit Mitte der 90er (Pentium Pro) intern mit ganz ähnlichen Micro-Operationen. Die komplexen CISC-Befehle werden im Decoder in mundgerechte Micro-Ops zerlegt.

Es gibt also schon sehr lange keinen grundlegenden Unterschiede mehr zwischen ARM und x86. Eine moderne x86-CPU "verkleidet" sich nur nach außen als klassische CISC-CPU, um die Kompatibilität zu wahren.
 
  • Gefällt mir
Reaktionen: MadCat[me]
foo_1337 schrieb:
Das ist aarch64. Das hat nichts mit abschotten zu tun. Und welche Chip von AMD wird mit diesen Akkulaufzeiten beider Geschwindigkeit mithalten können? Richtig: Keiner.
Und welchen echten Nachteil haben mac user dadurch? Richtig: Keinen. Die paar Hansel, die unbedingt Parallels oder vbox brauchen, können auch noch einige Jahre x86 Macs kaufen. Und wenns auf die Performance nicht ankommt, sondern nur ne popel windows App ist, geht auch qemu-x86 jetzt schon.

Und x86 ist alles nur nicht offen. Im Gegenteil. AMD und VIA haben aufgrund diverser Umstände eine Lizenz, sonst ist es niemandem gestattet, x86 CPU zu bauen und zu vertreiben. Intel achtet penibel darauf, dass sich AMD an die Bestimmungen hält und würde sofort den Riegel vorschieben, gäbe es eine Gelegenheit. Ironischerweise muss Intel von AMD x86-64 lizenzieren :D


Bei "richtigen" Computern war das schon immer so. Sparc, Alpha, PA-RISC usw. Irgendwann liefen die Binaries nicht mehr, weil sich die Architektur im Gegensatz zu x86 richtig weiterentwickelt hat. Bei x86 traut sich das ja auch keiner, weswegen man hier auch Innovation vermisst. Das Ding ist aber am Ende, es kommen immer mehr Sicherheitslücken und man wird grundlegende Dinge ändern müssen und alte Zöpfe abschneiden. Sonst wird man von ARM & Co auch im non-apple Bereich überholt. Den Consumer interessiert die Architektur immer weniger.
Und dank JS/Electron, go etc. ist die Plattformunabhängigkeit auch immer einfacher. Und für C/C++ regelt es halt der Compiler. Wie schon früher.

Übrigens haben wir "Opas" früher Hasstiraden auf "Wintel" geschwungen, weil sie ein Innovationsverhinderer seinesgleichen waren. Und leider haben sie es u.A. aufgrund des Preises geschafft, den Markt für sich zu dominieren. eNTe 4.0 gab es sogar damals für x86, Sparc, MIPS, PPC und Alpha.
Daher gut, dass dieses x86 Monopol im Consumer Bereich endlich aufgemischt wird und so Innovationen kommen. Intel und AMD müssen hier eine Antwort liefern und das ist gut so.

Die innovativen Architekturen die sich weiterentwickeln gibt es alle nicht mehr. Okay, bisschen Alpha im K7/K8 bei AMD.
Getöte durch quellgeschlossene Software und Monopolstellung von Intel?

ARM sitzt auf der Lizenz, mehr noch als Intel.
 
Man braucht sich doch nur mal die Smartphones und Tablets ansehen. Das sind vollwertige, große Programme die da laufen können.

Nur weil das ganze hinter ner simplen Touch UI versteckt ist, muss das doch nicht heißen, dass die Programme nichts können. Außerhalb von Rohleistung/Leistungsaufnahme am PC sehe ich eigentlich nicht, in welcher Hinsicht eine ARM CPU gegenüber einer x86 CPU eine Einschränkung für Entwickler oder User darstellen soll. Ich meine, die Ergebnisse sprechen doch schon lange für sich.

Was ist denn auf einer ARM CPU an Software nicht realisierbar, die auf einer x86 CPU realisierbar ist?
Nennt doch dann mal konkrete Beispiele.

Ich würde mal behaupten, solange ein Photoshop in vollem Umfang aufs iPad gebracht werden kann und ein PC Game auf Mobile portiert werden kann, kann es eigentlich keine relevanten Einschränkungen geben, denn aufwändigere Programme kommen im Consumer Bereich nicht zum Einsatz.
 
  • Gefällt mir
Reaktionen: JustMy2Cents
Trumpf schrieb:
:rolleyes:

Der A14 ist ein low-power ARM design. Taktbereinigt kann er es in synthetischen Benchmarks mit einer high-end x86 desktop CPU sehr gut aufnehmen, aber in einem Alltagsszenario sieht es natürlich ganz anders aus. Gegen eine aktuelle Core-i9 oder Zen 3 CPU hat der A14 natürlich absolut keine Chance.
Du bist auch Faktenrestistent, oder? Les doch einfach den Test und dann denk nochmal nach...
 
  • Gefällt mir
Reaktionen: lalalala, Bart1, foo_1337 und eine weitere Person
benneq schrieb:
Du hättest einfach die Präsentation von Apple schauen können ;)

Minute 17:15

Logic scheint auf jeden Fall drauf zu laufen. Und selbstverständlich "besser als jemals zuvor"

Danke, ja die hatte ich natürlich garnicht im Sinn, mein Fehler :D
Hm besser als jemals zuvor ... :daumen: Ich warte es mal ab. Reizen tut es mich schon irgendwie.
 
In diesem Thread sieht man wieder das übliche Verhalten:
Erstmal werden die von Apple genannten Zahlen angezweifelt - trotz der langen Geschichte von sehr leistungsstarken Prozessoren in den iOS-Geräten.
Anschließend redet man die zu erwartende Leistung klein.
Dann werden geleakte Benchmarks angezweifelt oder gleich der entsprechenden Benchmarksoftware komplett die Gültigkeit abgesprochen, es würden nur echte Anwendungen zählen.
Wenn die Macs mit M1-SoC dann erscheinen und echte Anwendungen enorme Leistungssteigerungen zeigen wird zuerst gesagt, dass Mac-Anwendungen XY ja aber gar nicht zähle, da eh alle stattdessen die auch auf Windows verfügbare Software AB nutzen und wenn dann Benchmarks mit systemübergreifend verfügbarer Software erscheinen und auch die eine sehr hohe Leistung bescheinigen redet man das entweder mit den unterschiedlichen zugrundeliegenden Betriebssystemen klein ("...man kann MacOS ja auch gar nicht mit Windows vergleichen..." - Ach ja? Euch ist schon klar, dass MacOS - anders als iOS - ein "stinknormales" Betriebssystem wie Windows ist?!) oder das Thema interessiert schon wieder keinen und all diejenigen die jetzt die Leistung kleinreden (statt zwei Wochen auf Benchmarks zu warten, um dann nicht dumm dazustehen) sind weitergezogen.

Wenn dann der M1X oder M2 oder X1 (oder wie auch immer der Prozessor für den iMac oder Mac Pro heißen wird) erscheint wiederholt sich das Spiel und vielleicht hört man dann von den jetzigen Kritikern, dass der M1 ja schon ganz okay gewesen sein.... "aber der Desktop/eine Workstation sei ja schon etwas ganz anderes..."


Anderes Thema:

Zum Einfluss dieser Entwicklung bei Apple auf den Windows-PC: Es wird keinen großen Einfluss geben!
Microsoft hat schon halbherzig mit ARM-Prozessoren herumgespielt, sie können aber nur die CPUs verwenden die Qualcomm, Samsung oder Nvidia ihnen herstellen will und anders als bei Apple ist man viel zu ängstlich alte Zöpfe abzuschneiden.
Apple steht jetzt voll hinter dem Wechsel und in zwei Jahren wird vom MacBook Air bis zum Mac Pro jeder Mac einen Apple-Prozessor verwenden und eine Apple-GPU (integriert oder dediziert) verwenden - Microsoft hat gar nicht die Macht das Momentum aller PC-Hersteller von Intel und AMD zu ARM zu lenken.
Hin und wieder mal ein Nischengerät (Surface RT) oder ein Nischen-Premiumgerät (Surface Pro X) mit ARM-Prozessor auf den Markt zu werfen wird keine Wellen schlagen die ernsthaft irgendwo an den Ufern des PC-Markts zu spüren wären.
 
  • Gefällt mir
Reaktionen: JustMy2Cents, rys, lalalala und 5 andere
iSight2TheBlind schrieb:
Euch ist schon klar, dass MacOS - anders als iOS - ein "stinknormales" Betriebssystem wie Windows ist?!
Und was ist an iOS kein „stinknormales“ OS? :confused_alt:
 
  • Gefällt mir
Reaktionen: 7H0M45
benneq schrieb:
@deekey777 Die "Definition" auf Wikipedia hat ein paar mehr Variablen in der Berechnung der TFLOPs: "angefangene Befehle pro Takt", "Datenworte pro Rechenregister" und "numerische Operationen pro Befehl (FMA)". Also quasi Pipelining, Single/Double Precision und wie viele Operationen die Recheneinheit gleichzeitig ausführen kann.

Sind also mindestens 2 Unbekannte in der Gleichung, die nur Apple kennt.

https://de.wikipedia.org/wiki/Floating_Point_Operations_Per_Second
FLOPS sind FLOPS und werden seit mindestens 2005 (dem Auftreten des R520) so berechnet: Anzahl der ALUs/Streamingprozessoren/EU etc * 2 MADDs * Takt.

Apple gibt an: 8 "GPU-Cores" (quasi CUs der Radeons oder Shadercluster oder sonst was) mit je 128 EU ("SPs"). 128 SPs je Core klingen sehr verdächtig nach A-Series von IMG. Rechnet man zurück von 2,6 TFLOPs, so bekommt man einen Takt von 1,275-1,3 GHz. Es steht jedoch nirgendwo, ob FP16 oder FP32, dazu später.

Die kleinste denkbare A-Series-Konfiguration ist 8-256, also 8 Texel pro Takt und 256 FLOP pro Takt. Die Texelfüllrate ist 8 Texel * 8 Cores * Takt ~ 82 GTexel/s. Auch die von Apple angegebene Pixelfüllrate passt (4 Pixel je Core).

Halbe oder ganze Genauigkeit. Für 2,6 TFLOPs mit ganzer Genauigkeit spricht bereits der obere Link. Natürlich könnte Apple die einzelnen SPs so geändert haben, dass FP32-Leistung halbiert ist. Apple hat jedoch viel zu große Klappe, schließlich soll bereits A12X die FLOPS-Leistung der Xbox One S gehabt haben, und die Xbox One kann 1,31 TFLOP/s bei ganzer Genauigkeit. Auch spricht die Konkurrenz für 2,6 TFLOP/s mit ganzer Genauigkeit, https://www.anandtech.com/show/1517...-and-765-5g-for-all-in-2020-all-the-details/2

Earlier last summer Qualcomm did detail some titbits of its architecture, describing the ALUs execution units as being separate MUL+ADD units per lane, and also showcased some first-party performance metrics of the Adreno 640 GPU. The Adreno 630 and 640 were both 2-core GPUs with each respectively 256 and 384 ALUs per core based on the measured throughput. The Adreno 650 increasing this by 50% could either mean we’re seeing three 256-ALU cores, or that there’s now two 512-ALU cores. The resulting computational power at a hypothetical 600MHz clock rate would be ~1.2TFLOPs. We’ll have to wait and see where the frequency ends up at, Qualcomm didn't want to disclose it.

Es wäre schon etwas peinlich von Apple, wenn M1 nur etwas mehr FP32-Leistung bieten würe als Adreno 650.

Auch ist dem M1 kein mobiler SoC wie ein A14, wo mit FP16 Energiehunger gespart werden kann und muss.
 
  • Gefällt mir
Reaktionen: Opa Hermie
@benneq Deshalb ja in Anführungszeichen - iOS ist auch ein im Prinzip vollwertiges Betriebssystem, besitzt mit der Pflicht Apps über den Appstore zu beziehen (zumindest für den Durchschnittsbürger) und der eingeschränkten Dateiverwaltung aber Einschränkungen die es für manche zu einem OS zweiter Klasse machen.
MacOS dagegen kann all das was Windows auch kann und besitzt da im Prinzip keine Einschränkungen.

Vergessen nur manche zu gerne und sehen MacOS einfach als ebenso "eingeschränkt" wie es iOS ihrer Meinung nach ist.

Beim Wechsel zu Apple Silicon wird ja auch - oft von Menschen die eh keinen Mac nutzen oder nutzen würden - befürchtet Apple könnte dann den Mac Appstore vorschreiben, nur dass das überhaupt nicht geplant ist und man seine Universal Binaries natürlich auch ganz normal über Downloadseiten von Entwicklern oder sonstwoher beziehen kann.
Und das auch so bleiben soll!
 
iSight2TheBlind schrieb:
Deshalb ja in Anführungszeichen - iOS ist auch ein im Prinzip vollwertiges Betriebssystem, besitzt mit der Pflicht Apps über den Appstore zu beziehen (zumindest für den Durchschnittsbürger) und der eingeschränkten Dateiverwaltung aber Einschränkungen die es für manche zu einem OS zweiter Klasse machen.
MacOS dagegen kann all das was Windows auch kann und besitzt da im Prinzip keine Einschränkungen.
Das würde ich jetzt so nicht unterschreiben. Zumindest seit den letzten 3-4 Jahren macht macOS immer mehr dicht.
Seit Catalina ist man gezwungen 64 bit Programme zu benutzen. Ab Big Sur gibt's keine Kernel Extensions mehr mit uneingeschränktem Vollzugriff, sondern nur noch von Apple bereitgestellte Schnittstellen mit limitiertem Zugriff.
Seit irgendwann vor Catalina wurde es für Normalos sehr erschwert im Dateisystem "herzumzupfuschen".
Das Deaktivieren der SIP ist da schon ähnlich zu einem iOS Jailbreak - nur deutlich einfacher, wenn man weiß wo das Terminal ist. Worauf ich damit hinaus wollte: Unsignierte Software lässt sich im Gegensatz zu Windows nicht mit einem Klick (und einer weggeklickten Warnung) starten.
Der Unterschied zu iOS schrumpft mit jedem Jahr.

Mich persönlich stört das alles nicht, weil ich keine dieser "Freiheiten" benötige. Ich benötige einfach nur ein Desktop Betriebssystem, das out-of-the-box funktioniert. Für mich muss sich da nicht groß irgendwas anpassen lassen, weil es bereits genau das tut was ich erwarte und alles nötige von Haus aus mitbringt: Das ist für mich "Freiheit" beim Arbeiten - ich muss mir keine Gedanken um das System machen. Ich muss meine 20 Programme starten können und das war's. Solang also der AppStore nicht zum einzigen Weg wird, um Programme zu beziehen, ist für mich alles gut.

Und nicht zu vergessen: Je nach dem wen du fragst, ist ein Betriebssystem für manche auch einfach nur eine Hardwareabstraktionsschicht - also quasi der Kernel. :D
 
Zuletzt bearbeitet:
Zurück
Oben