News M1-Prozessor: Apples Notebook-SoC soll die Konkurrenz abhängen

foo_1337 schrieb:
Bitte tu' dir den Gefallen und arbeitet einen Tag mit einem 13" Retina Macbook. Danach setzt du dich an ein 13" FHD Notebook. Danach wirst du wissen, was ich meine.

Dann seh ich, dass ich das Macbook nicht in nativer Auflösung fahren kann (weil alles zu klein), das FHD Modell dagegen schon.
 
spinthemaster schrieb:
Dann seh ich, dass ich das Macbook nicht in nativer Auflösung fahren kann (weil alles zu klein), das FHD Modell dagegen schon.
<hint>HiDPI</hint> Genau darum geht es doch.
 
  • Gefällt mir
Reaktionen: ComputerJunge
spinthemaster schrieb:
Dann seh ich, dass ich das Macbook nicht in nativer Auflösung fahren kann (weil alles zu klein), das FHD Modell dagegen schon.
Das Problem hast Du nur, wenn Du Windows benutzen willst.
Auflösung und Größe sind bei MacOS getrennt einstellbar.
 
  • Gefällt mir
Reaktionen: foo_1337
Novasun schrieb:
Was mich auch wundert - wenn die Teile sooo geil sind wieso werden die dann nicht in "Servern" eingesetzt? Selbst ARM Server tun sich noch schwer...
Apple hat kein Interesse am Server-Markt, fertig.
Arm hinkt Apple in der Entwicklung gut zwei Jahre hinterher, die Implementierung und Evaluierung bei den Arm-Kunden kostet dann noch einmal ein zusätzliches Jahr.
Aber AWS hat gezeigt, daß man ARM im großen Stile wirtschaftlich einsetzen kann, Fujitsu, daß man auch die Leistung bekommen kann.
Das Problem von x86: Arms nächste Neoverse-Generation wird beides kombinieren.
Das Problem von ARM: Die installierte Basis von x86 und das Lager-Denken der Verantwortlichen.

Galatian schrieb:
Was bedeutet das jetzt eigentlich für das iPad? Kommt MacOS aufs iPad? Bleiben das getrennte Ökosysteme? Wird es noch mehr verschmelzen?
iPadOS und MacOS bleiben getrennt. Verschmelzen sollen zwar die Applikationen, aber nicht die GUI.

bodd schrieb:
Weiß jemand ob man mit Parallels auch X86 auf nem ARM virtualisieren kann? Zielsetzung ist auf nem Mac M1 auch nen Windows haben zu können (falls man eine Windows Only Applikation braucht).
"It is important to note that currently available versions of Parallels® Desktop for Mac cannot run virtual machines on Mac with Apple M1 chip. Good news: A new version of Parallels Desktop for Mac that can run on Mac with Apple M1 chip is already in active development."
Kein Zeithorizont genannt...

deekey777 schrieb:
Apple hat große Klappe, aber alle "bis zu"-Werte beziehen sich anscheinend immer auf das Einsteiger MBP 13'' mit dem i5 der achten Generation (Iris Pro 645 und nur DDR3-2133; dieses ersetzt ja das MBP 13'' M1). Wenn also zB die GPU des M1 die schnellste integrierte GPU sein will, warum dann vergleich Apple diese nicht mit Iris Plus Graphics G7 (64 EUs) und LPDDR4X-3733?

Apple vergleicht immer mit dem jeweils zu ersetzenden Modell:
MacBook Air = i7-1060NG7 (Sunny Cove, 1,2–3,8 GHz, 4C/8T)
MacBook Pro 13 = i7-8557U (Coffee Lake, 1,7–4,5 GHz, 4C/8T)
Mac mini = i3-8100B (Coffee Lake, 3,6 GHz, 4C/4T)
Wo vorhanden, wurde mit dem jeweils leistungsstärksten Modell verglichen.

iSight2TheBlind schrieb:
Naja, Qualcomm schafft es jetzt ja auch nicht den A14 zu schlagen und das war in der Vergangenheit seit langer Zeit nicht anders.
Entweder will man nicht oder man kann nicht.
Und bei Nvidia sieht es erstmal auch so aus.
Man kann nicht.
Beide, und dazu Samsung, waren ja nicht einmal in der Lage mit Arm mitzuhalten.

RedGunPanda schrieb:
www:cpu-monkey:com/en/cpu-apple_m1-1804
Könnten wir von den Affen bitte verschont bleiben?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: ComputerJunge
@Haggis so ist es. Solche Aussagen kommen leider immer dann von Leuten

@KurzGedacht Leider ist halt z.B. composer absolut grottig innerhalb einer macos boot2docker vm. Das ist der Grund, weshalb die Entwickler bei uns den kram auf remote kisten machen und sich die relevanten Filesystem Teile via NFS gemounted haben. So kann die IDE auch direkt auf die live Daten zugreifen, aber composer, der Image Bau etc. läuft schnell auf dem Linux host. Die Integration von blackfire.io und newrelic gestaltet sich so auch etwas einfacher. Aber grundsätzlich hast du in dem Kontext völlig recht: Das was jetzt schon bescheiden läuft, wird auf ARM noch deutlich bescheidener laufen.
 
iSight2TheBlind schrieb:
Naja, Qualcomm schafft es jetzt ja auch nicht den A14 zu schlagen und das war in der Vergangenheit seit langer Zeit nicht anders.

Von schlagen war ja keine Rede aber ein Snapdragon ist nahe genug dran dass die Leistung oder Effizienz wohl selten der Grund für eine Entscheidung gegen Android sein wird.
Wenn bei einem Notebook plötzlich ein vielfaches an Akkulaufzeit angeboten wird sieht das bei Apple Silicon vs x86 aber anders aus.
 
17 Stunden Akkulaufzeit? Scheiß der Hund drauf wenn der M1 auch nur genauso schnell / langsam ist wie der vergleichbare Prozessor von Intel, wir reden wir von einer deutlich besseren Akkulaufzeit, was mir persönlich gerade im Homeoffice mehr als entgegen kommt (mal sitze ich im Wintergarten, mal auf der Terrasse, mal Im Garten oder am Pool, vielleicht auch im Arbeitszimmer oder Hobbykeller... !) und wenn die GPU auch nur annähernd hält was sie verspricht, hat Apple hier das bessere Gesamtpaket zu vergleichbaren Kosten geschnürt.
 
Eine blöde Frage muss ich mal loswerden:

Die Art wie die RAM nun verbaut sind, begünstigen ja diesen immensen Speed dieser Systeme.

Braucht man dadurch irgendwann weniger RAM oder ist das ein Trugschluss? Oder bezieht sich das auf die bereits in den RAM geladenen Daten?

Ich arbeite sehr viel mit grossen Sample Libraries in Logic Pro und brauche 128 GB RAM. Meine Befürchtung ist, dass Apple keine peripheren RAM Riegel in ihren neuen Desktop Macs mehr zulässt, siehe Mac Mini 2020. 128 GB RAM bei Apple kosten ein Vermögen, das wäre der Todesstoss für mich.
 
Wenn man RAM braucht, braucht man RAM. Aufrüsten geht hier nicht. Das Maximum ist wirklich nicht üppig.

Interessant ist vielleicht, dass der SSD-Controller im CPU-DIe sitzt und scheinbar auch direkt ans Fabric angeschlossen ist. Auslagerung auf SSD ist vielleicht schneller als wie man es sonst kennt?
 
iSight2TheBlind schrieb:
Naja, Qualcomm schafft es jetzt ja auch nicht den A14 zu schlagen und das war in der Vergangenheit seit langer Zeit nicht anders.

Entweder will man nicht oder man kann nicht.
Und bei Nvidia sieht es erstmal auch so aus.
Benchmarks mit Apple Zeugs ist so eine Sache. Da spielt Apple sein maßgeschneidertes OS in die Karten. Hard- und Software sind aufeinander abgestimmt. Da gibt es keine Zöpfe die aus Kompatibilitätsgründen die Leistung ausbremsen. Bei den anderen Betriebssytemen wie Windows und Android ist es halt nicht der Fall.
Das OS muss mit jeder möglichen Hardwarekonfig laufen. Da lässt man zwangsweise einiges an Leistung und Optimierung liegen.
Vergleichen könnte man das in etwa mit den neuen Konsolen. Würde man die Hardware vom xBox Series X in einen PC stecken und mit Windows betreiben, würden die Benchmarks auch sinken im Vergleich zur Standartsoftware mit dem die Xbox betrieben wird. Da reichen schon die Dienste im Hintergrund aus um an paar Prozent der CPU Leistung zu nagen.

Grundsächlich finde ich jetzt den Ansatz vom Apple auf ARM umzusteigen aber erstmal spannend und logisch. Warum sollten sie ihre Erfahrungen im SoC Design auch nicht im Notebook Bereich und etc. verwenden? Naja und Intel bekommt die A....karte.
 
Möglicherweise wurde es hier im Thread ja schon besprochen, aber Punkt 8 erscheint schon etwas skurril. 🤔

8. Die Tests wurden von Apple im Oktober 2020 durchgeführt mit Prototypen von 13" MacBook Pro Systemen mit Apple M1 Chip und 16 GB RAM unter Verwendung ausgewählter branchenüblicher Standard-Benchmarks. Verglichen wurde mit den leistungsstärksten integrierten GPUs für Notebooks und Desktop-Computer, die zum Zeitpunkt der Tests im Handel erhältlich waren. Eine integrierte GPU ist definiert als eine GPU, die sich zusammen mit einer CPU und einem Speicher-Controller hinter einem gemeinsamen Speicher-Subsystem auf einem monolithischen Silizium-Chip befindet. Die Leistungstests werden mit speziellen Computersystemen durchgeführt und spiegeln die ungefähre Leistung des MacBook Pro wider.

Seit wann sind den iGPUs darauf beschränkt ein monolithischer Silizium-Chip zu sein?
So kann man sich natürlich auch der Vergleichbarkeit mit der Konkurrenz entziehen.
Einfach die Definition ändern. 😂

Da muss man sich auf einen Schlag, bei den Werbeaussagen, schon nicht mehr mit Intels Tiger Lake + Iris Xe rumschlagen. Clever gemacht. 💰

Be0w0lf schrieb:
Da spielt Apple sein maßgeschneidertes OS in die Karten. Hard- und Software sind aufeinander abgestimmt.
Da gibt es keine Zöpfe die aus Kompatibilitätsgründen die Leistung ausbremsen. Bei den anderen Betriebssytemen wie Windows und Android ist es halt nicht der Fall.
Das OS muss mit jeder möglichen Hardwarekonfig laufen. Da lässt man zwangsweise einiges an Leistung und Optimierung liegen.
Die mysteriösen Optimierungen von MacOS sind völlig überbewertet, erstaunlich, dass sich das immer noch so hält. 🤔
Windows oder Linux läuft nicht langsamer, nur weil es auf mehr Hardwarekonfigurationen laufen muss.
Software und Treiber passen sich den jeweiligen Hardwaregegebenheiten an und gut ist.
Da laufen keine alten Zöpfe mit die nennenswert Leistung fressen.
Sieht man bzw. auch wunderbar an vergleichbaren Benchmarks.
Der Cinebench R20 liefert bei Einsatz der gleichen CPUs auf Windows wie auf MacOS nahezu identische Ergebnisse. (bei gleicher TDP, Turbo und Takt natürlich)
 
Zuletzt bearbeitet:
Weil es Apple so am Besten passt?

Was vergessen: AVX und neuer fallen wohl weg?
 
foo_1337 schrieb:
Bitte tu' dir den Gefallen und arbeitet einen Tag mit einem 13" Retina Macbook. Danach setzt du dich an ein 13" FHD Notebook. Danach wirst du wissen, was ich meine.
Ergänzung ()


Es gibt einen A14X. Dieser wird, wie gesagt, mit weniger GPU Cores als der M1, in den kommenden iPad Pro verbaut werden.
Ja also.
Später. Also ist der M1 ein A14X mit 2 GPU Einheiten mehr.

Darauf wollte ich doch hinaus. Es ist keine eigenständige Platform oder komplett dafür entwickelter SOC.
 
  • Gefällt mir
Reaktionen: foo_1337
Jan schrieb:
und dort mit Sicherheit optimaler angesprochen werden können,
Optimaler? Das glaub ich kaum. Es gibt keine Steigerung von optimal.
Wenn dann "näher am Optimum" oder "besser"
 
  • Gefällt mir
Reaktionen: Jan
deekey777 schrieb:
Was vergessen: AVX und neuer fallen wohl weg?

ARM hat dafür SVE als Äquivalent. Muss natürlich entsprechend implementiert werden. Ob man das beim Emulieren wohl übersetzen kann?
 
spinthemaster schrieb:
@Haggis
Auf meine Auflösungsfrage gehst du noch ein?
Ich verstehe die Frage nicht.
Welche Geräte hast Du? Was glaubst Du, ist die native Auflösung dieser Geräte? Was stellst Du statt dessen ein?

Ein iMac 21" hat 4k Auflösung. Natürlich läuft der dann auch mit 4K. Und natürlich kann man dann trotzdem noch die Apps bedienen, Webseiten lesen, ...
 
Haggis schrieb:
Wenn man RAM braucht, braucht man RAM. Aufrüsten geht hier nicht. Das Maximum ist wirklich nicht üppig.

Aber wie oft werden denn Notebooks aufgerüstet? Ich habe privat ein einziges Mal RAM im Notebook aufgerüstet und in den Firmen in denen ich tätig war wurde sowas eh nie gemacht.

Der maximale RAM Ausbau ist aktuell halt nur bei den Intel Modellen möglich, das wird sich in Zukunft auch ändern - man muss mit dem M1 ja nicht sofort sämtliche Zielgruppen bedienen.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind und smalM
Zurück
Oben