News Apple M1: Was Apple Silicon im Mac kann und was noch nicht

tidus1979 schrieb:
Die GPU im iPhone SoC designen sie ja schon länger selbst und keiner weiß, wie lange davor sie bereits R&D in die GPU Entwicklung gesteckt haben. Vielleicht gibt es schon seit Jahren in Apples Labs funktionierende dedizierte Apple GPUs.
Das stimmt und TBDR ist auch sehr gut im Vergleich zu Intels iGPU. Dennoch ist das ganze ein großer Schritt. Wünschen würde ich es Ihnen natürlich.
Ergänzung ()

Bart1 schrieb:
Ja, weil nach über 10 Jahren Entwicklung und Erfahrung fängt man erst mit dem Release der ersten Produkte mit den GPUs an. :affe:
Frag doch mal Intel, wie lange sie schon iGPU haben und wie lange sie an deren dGPU rumwerkeln. Dazu kommt eben, dass die Architektur des SoC nicht dazu fähig ist, externe GPU anzusprechen. Auch das muss erst gelöst werden. Dazu kommt, dass Apple einen neuen Deal mit Imagination gemacht hat, ohne jedoch PowerVR weiter zu nutzen. Das spricht auch nicht dafür, das komplette Know How inhouse vorhanden ist.
 
Zuletzt bearbeitet von einem Moderator:
Mir ging es tatsächlich nur um die zwei Jahre. Egal wie man es dreht und wendet, die werden schon eine Weile an ihren GPUs gearbeitet haben, wenn die in 2 Jahren alle Macs umstellen wollen.
 
Was ist denn mit der Kompatibilität zu DAW's?
Bin am Überlegen, mein 2018er Pro abzulösen, arbeite jedoch hauptsächlich mit Logic Pro und einigen Plugins (Neural DSP, Black Rooster, FrozenPlain usw). Finde leider (noch) nichts zu dem Thema.
 
Scie schrieb:
@ameisenbaer Aber die werden in Unternehmen nicht eingesetzt. Da werden Verträge mit HP, Dell oder sonstwem gemacht, um tausende Thin Clients zu liefern, die meistens schon fertig konfiguriert sind. Kein Unternehmen wird Raspberry Pis kaufen und die tausendfach als Thin clients einsetzen. Insbesondere wenn das OS und die Partitionen verschlüsselt sein müssen.

Ich wollte mit dem Raspberry-Beispiel (Broadcom SoC) sagen, dass es Massenware mit hohem Preisdruck ist.
Ob ein SoC von Broadcom, Mediatek, Qualcomm oder Samsung-SoCs von Dell oder HP hübsch und businesskonform verpackt werden, ist jedenfalls technisch gesehen zweitrangig. Weder für Apple noch AMD ist es besonders attraktiv sich in die Richtung zu entwickeln.
 
N1nuzzo schrieb:
Finde leider (noch) nichts zu dem Thema.
Du hättest einfach die Präsentation von Apple schauen können ;)

Minute 17:15

Logic scheint auf jeden Fall drauf zu laufen. Und selbstverständlich "besser als jemals zuvor"
 
  • Gefällt mir
Reaktionen: 40l0so
N1nuzzo schrieb:
Was ist denn mit der Kompatibilität zu DAW's?

Bezüglich Melodyne hab ich jedenfalls gestern eine Nachricht in meinem Emailfach gehabt:
" Melodyne 5.1 ist mit macOS 11 Big Sur kompatibel, sowohl auf Intel-basierten als auch unter “Rosetta” auf ARM-basierten Macs. "
 
  • Gefällt mir
Reaktionen: 40l0so
Was der M1 offenbar nicht kann, ist eine brauchbare Anzahl an Anschlüssen bereitzustellen …

Grundsätzlich gefällt mir der neue Mac mini sehr gut, allerdings habe ich nicht die geringste Ahnung, wie ich da meinen ganzen Kram anschließen soll (siehe Grafik). Auch habe ich nach langem Überlegen noch kein sinnvolles Optimierungspotential bei meinem Zeug gefunden …

NAS für Daten und Backup möchte ich nicht, ich vertraue lieber HFS+ bzw. APFS formatierten HDDs. Für den zweiten Monitor müsste ich einen TB-Anschluss opfern, außer ich nutze ein nochmal mehrere hundert Euro teures TB-Dock …

Ich würde mir wünschen, Apple würde separat eine Art dazupassende Expansion-Bay verkaufen (ähnlich dem Satechi-Hub). Dieser furchtbare Kabelsalat am Mac mini nervt mich schon ewig …

:-/

Setup Mac mini 2012.png
 
w33werner schrieb:
Schöne Zusammenfassung
Vor allem die Leistung pro Watt zeigt wie viel Potential in den Chips steckt
Und für die erste Generation ist das bis hier hin gezeigte schon sehr beeindruckend

Die Einschränkung mit dem ram finde ich auch bis jetzt nicht soo wild da man ja noch nicht weiß in wie weit das überhaupt in der Praxis eine Rolle spielt

Leistung pro Watt ist relativ, ARM als Architektur hat Probleme bei Spitzenleistung, und das ist das wo Apple hin will. Klar, Apple steigert die Marge weil deren Standardkunden auf nem Mac Mini etc auch keine Leistung erfordern. Aber allein dass die Vergleiche auf bisherig verbauten Intel-Prozessoren beruhen, ist sinnfrei für die Beurteilung - da sogar das stagnierende Intel mittlerweile bessere Prozessoren im Sortiment hat. Nur werden die eben nicht von Apple verbaut - siehe WiFi6.

Einschränkung des RAMs in der Praxis? Ganz einfach, meine Datenbank, CAD-assets oder schnöde Video-assets müssen regelmäßig von der Festplatte kommen.

Abgesehen davon geht Apple denselben weg wie AMD und baut den L3C zentral ein, reduzierte Latenz, gesteigerte IPC. Bin gespannt wann Intel mit ihren monolithischen Skylake-dies bricht.

Bislang ist der M1 nur etwas für leicht aufgebohrte ipads. Ob und was er wirklich kann wird sowieso erst die Softwareumgebung in 2 Jahren zeigen. Gott, Apple hat den Mac Mini z.T. generationenlang nicht erneuert weil bei dessen Einsatzgebiet die Leistung auch eines A7 locker ausgereicht hat...
 
nlr schrieb:
Der Apple M1 als erstes eigens entwickeltes System-on-a-Chip für den Mac läutet bei Apple die Abkehr von Intel ein, die bis Ende 2022 abgeschlossen werden soll. Apple zufolge sind mit dem M1 große Sprünge bei Leistung und Effizienz zu erwarten. Auf der anderen Seite bringt der Chip aber auch Einschränkungen mit. Ein Überblick.

Zur News: Apple M1: Was Apple Silicon im Mac kann und was noch nicht
Aus dem Artikel:

Mit maximal 128 Execution Units (also 16 pro Kern) erreicht Apple damit bis zu 2,6 TFLOPS an Leistung.
Wie soll das gehen? Über 5 GHz ALU-Takt?
 
benneq schrieb:
Aktuell sicherlich nicht, aber irgendwann müssen sie wohl oder übel, oder sie müssen MEGA SoCs bauen.
So Stolz wie man bei Apple auf Unified Memory (zu recht) ist erwarte ich genau das, wenn auch mit Chiplets oder ähnlichem...
Man könnte natürlich auch den Memory der Erweiterungen für die CPU verfügbar machen und umgedreht, so das der Mac Pro dann quasi konfigurierbares Apple Silicon ist. Du möchtest 2TB HBM2 + 512 GPU Cores mit 8192 Execute Units, no Problem! Oder 1024 ML Einheiten statt den GPU Cores? ok!
Und wer jetzt sagt solche Monster Chips oder dieser interconnect ist Preislich nicht drin, wir reden von einem Mac Pro das Ding kostet aktuell bis über 50.000€ da sollte das machbar sein.
 
  • Gefällt mir
Reaktionen: lanse
deekey777 schrieb:
Wie soll das gehen? Über 5 GHz ALU-Takt?
Wer weiß schon so genau wie die ALUs aufgebaut sind. Vielleicht können die jeweils 2 Instruktionen gleichzeitig abfrühstücken. Oder mit Pipelining?

AlphaKaninchen schrieb:
So Stolz wie man bei Apple auf Unified Memory (zu recht) ist erwarte ich genau das
Die Speicherchips scheinen ja eh komplett getrennt von den Recheneinheiten zu sein und wurden einfach nur zusätzlich mit auf den SoC geklebt. Aber mit 2 TB HBM stell ich mir das trotzdem sehr kuschelig auf dem SoC vor :D Oder sie bauen HBM Wolkenkratzer. Müsste ja theoretisch machbar sein.
 
ameisenbaer schrieb:
Was ist da genau der Unterschied zu Shared Memory bei CPU mit integrierten GPU?
Es gibt keinen. 2 Namen für dieselbe Sache.
 
Die Daten können direkt vom RAM in den VRAM "kopiert" werden bzw eben direkt angesprochen werden, ohne über den PCIe Bus gehen zu müssen. Bei der PS4 z.B. war sowas auch möglich. Auch muss nicht ein separater VRAM Pool allokiert werden (kein split).
Bei den intel iGPU muss der RAM über konventionelle Wege in den VRAM kopiert werden
 
Jeder Core hat 128 EUs, das wäre die einfachste Erklärung, mit knapp 1,3 GHz kommt man auch auf 2,6 TFLOPs (SP). Dass die 2,6 TFLOPs nur FP16 sein sollen, kann ich nicht glauben.
 
Scheint ein polarisierendes Thema zu werden 😜

In meinem Kopf zeichnet sich da ein Bild...

Vor Jahren hat Apple ein iPad Pro released, wurden dafür belächelt... zurecht in vielen Punkten denn Power ja aber OS bah... Sie haben Entwickler gepushed in bestimmten Bereichen, da fällt mir Pixelmator ein, haben iMovie und GarageBand stark verbessert und und und.
Wie der Deal mit Microsoft für Office zustande kam wer weiß das schon.
Generation für Generation wurden so andere Entwickler angelockt und auch Größen wie Adobe mit einem angepassten Photoshop. Im iPad OS finden sich auch viele Nutzerwünsche umgesetzt Heutzutage (noch nicht der Brüller aber es wird).

Die Verkaufszahlen geben Ihnen recht und enorme Lwistung wurden gerade den iPad Pro‘s immer bescheinigt.

Bekannte meinerseits loben auch die Entwickler Tools und die Sprachw Swift. Auch nicht alles Gold aber wirklich gut sagen sie.

Und nun sagt man bei Apple: schaut -> nun habt ihr das OS was ihr wolltet und die Leistung und ihr müsst nur noch für ARM entwickeln -> leichtere Verbreitung, weniger Entwicklungskosten.

Kann es sein dass das ein lang vorbereiteter Zug ist? Das es nicht nur um die 2 Jahre bis 2022 geht sondern hinter den Kulissen schon laaaange Zwit darauf hinaus lieg? Wer weiß...

My2Cents
 
  • Gefällt mir
Reaktionen: Kaulin und iSight2TheBlind
@deekey777 Die "Definition" auf Wikipedia hat ein paar mehr Variablen in der Berechnung der TFLOPs: "angefangene Befehle pro Takt", "Datenworte pro Rechenregister" und "numerische Operationen pro Befehl (FMA)". Also quasi Pipelining, Single/Double Precision und wie viele Operationen die Recheneinheit gleichzeitig ausführen kann.

Sind also mindestens 2 Unbekannte in der Gleichung, die nur Apple kennt.

https://de.wikipedia.org/wiki/Floating_Point_Operations_Per_Second
 
Zurück
Oben