News Apple M1: Was Apple Silicon im Mac kann und was noch nicht

w33werner schrieb:
Vor allem die Leistung pro Watt zeigt wie viel Potential in den Chips steckt
Sind halt angepasste Mobil Chips. Effizienz ist daher auch sehr gut, aber die Leistung wird sehr begrenzt sein, egal was Apple behauptet.
Dass sie gegen Intels ULV Chips bei geringerer Leistungsaufnahme ankommen war mMn zu erwarten, aber sie lassen sich nicht so einfach im Desktop einsetzen.
Apple geht genau gegengleich zu Intel und AMD vor. Statt Desktop Chips zu entwickeln und für mobile Geräte anzupassen werden hier Mobil Chips entwickelt, die dann für den Desktop angepasst werden müssen.
 
  • Gefällt mir
Reaktionen: Trumpf
MöCkY schrieb:
Die Neural Engine beschleunigt und verbessert Bildbearbeitung enorm.
Was der A12Z mit Luma Fusion im Bereich Videobearbeitung leistet, lässt viele Notebooks jetzt schon alt aussehen

Eine "Neural"-Engine (also einen Prozessorteil für lineare Algebra... nichts wirklich kompliziertes, zumal das für Berechnungen mit geringer Genauigkeit ausgelegt ist) hat auch Tigerlake. Und AMD kann das auch schnell hinzufügen...
 
Chillaholic schrieb:
Laut Linustechtipps muss Apple x86 Anwendungen emulieren, stimmt das?
Habe keine Erwähnung dazu gefunden.

Ja, steht auch in unserer News und der alte Inhalt dazu wurde verlinkt. Kurz: Roseatta 2.0 soll x86-Apps schon bei der Installation übersetzen, so dass das Übersetzen als solches beim Ausführen keine Leistung mehr kostet.
 
  • Gefällt mir
Reaktionen: Ryoukou, konkretor, bernyfritz und 4 andere
Zeigt was ich vermutet habe, in ihrem Bereich ist der SoC erstmal Konkurrenzlos, aber auch nur dort! Was wir in 2 Jahren sehen ist ein anderes Pflaster, andere Firmen bleiben auch nicht stehen. MMn darf allerdings zumindest bezweifelt werden das der SoC extrem aufgeblasen werden kann ohne massiv ineffizienter zu werden. Für "normale Apple Nutzer" alles kein Thema, erst darüber hinaus wird es schwieriger werden sowohl in Hardware als auch in Software. Hier wird sich dann zeigen was Apple will, persönlich vermute ich das einfach auf dieses Clientel dann verzichtet wird und wirklich komplett auf ARM umgesockelt wird.

Das Apple aber in 2 Jahren mit SoCs wie in der PS5 und XSX um die Ecke kommt für die High-End Sachen ist unwahrscheinlich. Ebenso im GPU Bereich, da wird es Steigerungen geben, aber ich bezweifle das die alsbald in der Nähe von "aktuellen" GPUs kommen. Ingesamt zeigt sich aber wo der Zug in vielen Bereich hingeht, ich hoffe auch bei AMD das diese irgendwann ihre geilen SoCs ins Notebook bringen....

Insgesamt sollte man die Leistungsangaben nicht überbewerten, die angepeilten Geräte brauchen nicht unendlich Leistung, da ist die verlängerte Akkuleistung viel wichtiger und für Apple natürlich die stark gestiegene Marge durch den Wegfall von Intel.
 
  • Gefällt mir
Reaktionen: Kaulin, SpamBot, Transistor 22 und 2 andere
Bart1 schrieb:
Wer hat denn je was von „von heute auf morgen“ gesagt? Apple sagt seit Monaten, dass die Umstellung ~ 2 Jahre dauern wird.
Hab ich gesagt, dass Apple diesen Claim so wörtlich von sich gegeben hat? Nein, habe ich nicht! Es geht darum, was die Apple-Fans gesagt haben, nachdem Apple die "Transition" angekündigt hat.

Bart1 schrieb:
Einfach nur haltloses Getrolle mal wieder hier, und sowas treibt sich in einem Forum für angeblich technikaffine rum.
Vielleicht nochmal am eigenen Leseverständnis feilen, bevor man so was von sich gibt. ;)
 
immortuos schrieb:
Sind halt angepasste Mobil Chips. Effizienz ist daher auch sehr gut, aber die Leistung wird sehr begrenzt sein, egal was Apple behauptet.
Dass sie gegen Intels ULV Chips bei geringerer Leistungsaufnahme ankommen war mMn zu erwarten, aber sie lassen sich nicht so einfach im Desktop einsetzen.
Apple geht genau gegengleich zu Intel und AMD vor. Statt Desktop Chips zu entwickeln und für mobile Geräte anzupassen werden hier Mobil Chips entwickelt, die dann für den Desktop angepasst werden müssen.

Esoteriker-Forum, Telegram-Chat oder wo hast du den Schmus her? Sobald nackte Zahlen da sind, wird sich die angebliche Begrenzung und Mobile vs. Desktop belasten müssen, und wenn Apple nicht komplett den Verstand verloren hat, sind sie mindestens gleichauf (mit vergleichbaren Desktop- und Mobile CPU) und dabei effizienter.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: bernyfritz und Kalsarikännit
AlphaKaninchen schrieb:
Ich behaupte, dass das der Unterschied zwischen Air und Pro sein wird, Air trottelt, Pro nicht.
Gut möglich, durch die aktive Kühlung wäre das denkbar.
Allerdings stehen die Hinweise auch im Kleingedruckten des Pro.
Muss man einfach die ersten Tests abwarten.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Vielen Dank für noch mehr Verwirrung. Thunderbolt 3 steht ja heutzutage auch nicht mehr für min. 40 Gigabit und laden muss es damit auch nicht können und einen Bildschirm anzusteuern ist auch genug.

Ich werde USB-C/TB Kurse anbieten und in einem einwöchigen Workshop erklären, welches Kabel, Dock und Notebook mit was funktioniert ;) Am letzten Tag darf sich dann jeder was passendes suchen und es wird im Gremium diskutiert, ob es für den gewünschten Einsatzzweck geeignet ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ryoukou, Kaulin und sven.ghostrider
calluna schrieb:
Eine "Neural"-Engine (also einen Prozessorteil für lineare Algebra... nichts wirklich kompliziertes, zumal das für Berechnungen mit geringer Genauigkeit ausgelegt ist) hat auch Tigerlake. Und AMD kann das auch schnell hinzufügen...

Ok und das hat was mit meiner Aussage zu tun?
Im Apple Ökosystem wird das bereits jetzt schon genutzt, wie lange dauert es bis es in der Windowswelt dann gut und genauso effizient genutzt wird?

Selbst wenn es in der Windowswelt genauso genutzt werden sollte, ändert dies meine Aussage dennoch nicht. ;)

Confidential schrieb:
Esoteriker-Forum, Telegram-Chat oder wo hast du den Blödsinn her? Sobald nackte Zahlen da sind, wird sich die angebliche Begrenzung und Mobile vs. Desktop belasten müssen, und wenn Apple nicht komplett den Verstand verloren hat, sind sie mindestens gleichauf (mit vergleichbaren Desktop- und Mobile CPU) und dabei effizienter.

Richtig zumal die Core Architektur auch von den mobilen CPUs kommt, und vom P3 abstammt.
Zudem ist Apple dafür bekannt eher zu untertreiben als zu übertreiben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337 und AlphaKaninchen
Hier fehlt noch was. Auch auf ARM Seite wird sich Apple zukünftig den Angriffen von AMD und Nvidia erwähnen müssen.
Samsung ist mit AMD an einer Grafiklösung für Samsungs ARM Chips dran. Und Nvidia hat ja den ARM Lizenznehmern in Aussicht gestellt das man das GPU Know How anbieten will.... Qualcom wird was brauchen.. Aber auch Apple könnte eventuell zugreifen... AMD rüstet halt den größten Gegner aus... Aber mal sehen was die nächsten 5 Jahre so bringen...
 
Confidential schrieb:
Apples Marketing-Zahlen vergleichen beim Macbook Air laut eigenen Angaben die folgende CPU:

Intel Core i7 1,2GHz Quadcore im Macbook Air 2020. Hier mal Ergebnisse via Geekbench 5:
  • Single-Core: 1130 Punkte
  • Multi-Core: 2870 Punkte
  • OpenCL: 5266 Punkte
Wenn die Angaben von Apple stimmen würden, hätten der M1 mindestens folgende Benchmark Ergebnisse:
  • Single-Core: 3400 Punkte (Vergleich: AMD Ryzen 5 5600X 3700 MHz (6 cores): 1841 Punkte)
  • Multi-Core: 8600 Punkte (Vergleich: AMD Ryzen 5 5600X 3700 MHz (6 cores): 9501 Punkte)
  • OpenCL: 26.000 Punkte (Vergleich: AMD Radeon Pro 5300M: 27097 Punkte)

Falls das nur annähernd realistisch ist, bei deutlich mehr Akkulaufzeit und doppelter SSD Performance, verzichte ich gerne auf 2x USB-C und bleibe bei 16GB RAM. Aber nur dann!
Auf meinem i5 MBA 2020 hab ich mit Pad am heatsink knapp 4000 im Multi...
 
Ich muss sagen, ich bin schon etwas hyped. Das ist immerhin die erste Generation und zeigt jetzt schon, was für enormes Potenzial dahinter steckt. Immerhin sind diese Chips auf Effizienz ausgerichtet, schließlich sind sie (primär) für die Macbook-Reihe gedacht - ich bin sehr gespannt, was Apple hier in einem Desktop-Setup zu leisten vermag, wenn sie Akku-Laufzeit keine Beachtung schenken müssen.

Und, so traurig das auch ist, Apple ist wohl einer der wenigen, wenn nicht der einzige Hersteller der eine ganze Industrie dazu bewegen kann, ihre Anwendungen für eine "neue" Architektur anzupassen bzw. zu optimieren.

Gerade im kreativen Bereich ist es beachtlich, wie sehr moderne x86-CPUs Schwierigkeiten haben, mit mobilen ARM-Prozessoren mitzuhalten. Das aktuelle iPad Pro rendert 4K-Videomaterial oft schneller als professionelle Workstations. Das hängt natürlich auch mit der teils mangelnden Hardware-Beschleunigung am Desktop zusammen, das Endresultat ist aber das gleiche.
 
MöCkY schrieb:
Gerade im Professionellen Bereich, hat der SoC enorme Vorteile.
Die Neural Engine beschleunigt und verbessert Bildbearbeitung enorm.
MöCkY schrieb:
Im Apple Ökosystem wird das bereits jetzt schon genutzt, wie lange dauert es bis es in der Windowswelt dann gut und genauso effizient genutzt wird?
Also bspw. der Effekt "Details verbessern" in Camera Raw (Lightroom, Photoshop, After Effects, Bridge) wird seit Februar 2019 eingesetzt.
Läuft über die Adobe KI (Sensei) und nutzt die GPU des jeweiligen Computersystems.
Ist zeitgleich für macOS und Windows erschienen.
https://helpx.adobe.com/de/lightroom-classic/help/enhance-details.html

Ähnlich sieht es bei den "neuronalen Filtern" in Photoshop 2021 aus sowie bei den neusten KI-Effekten in der aktuellen Version von Premiere Pro 2020.
Erscheint immer gleichzeitig für beide Plattformen. 😉
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kaulin
nlr schrieb:
Selbst zum Abschluss des Übergangs in zwei Jahren bleibt es äußerst fraglich, ob Apple jemals 1,5 TB direkt auf dem Package anbieten wird.
Das ist wohl die nächsten 10 Jahre eher unvorstellbar. Selbst in Form von HBM Stacks dürfte so eine Menge viele viele Quadratzentimeter belegen. Ich kann mir zumindest nicht vorstellen, was das für ein Monster SoC wäre, wenn darauf derart viel Speicher untergebracht würde :D Nicht zu vergessen, dass so viel Speicher dann sicherlich auch mit 32 (oder wahrscheinlich noch mehr) CPU Kernen kombiniert werden will, was noch mehr Fläche einnimmt.
 
chico-ist schrieb:
Und, so traurig das auch ist, Apple ist wohl einer der wenigen, wenn nicht der einzige Hersteller der eine ganze Industrie dazu bewegen kann, ihre Anwendungen für eine "neue" Architektur anzupassen bzw. zu optimieren.

Es war auch noch nie so einfach wie heute Standard-Anwendungen Crossplatform zu entwickeln. Und viele Programme, wenn sie nicht laufzeitkritisch sind, liegen als Bytecode vor und benötigen irgendeine Laufzeitumgebung, von denen es mittlerweile viele gibt. Nur die Laufzeitumgebung muss für eine bestimmte Zielplattform vorhanden sein.
 
Zuletzt bearbeitet:
Agent500 schrieb:
Also bspw. der Effekt "Details verbessern" in Camera Raw (Lightroom, Photoshop, After Effects, Bridge) wird seit 02-2019 eingesetzt.
Läuft über die Adobe KI (Sensei) und nutzt die GPU des jeweiligen Computersystems.
Ist zeitgleiche für macOS und Windows erschienen.
https://helpx.adobe.com/de/lightroom-classic/help/enhance-details.html

Das gleiche ist bei den "neuronalen Filtern" in Photoshop 2021 gegeben.
Erscheint immer gleichzeitig. 😉

Ok das wusste ich nicht, aber es wird eine GPU benötigt, auf System mit integrierter Intel CPU funktioniert das dann nicht?
Das es das bei Windows jetzt auch gibt, ist schön für Windows Nutzer, ändert dennoch nichts daran, dass der M1 gerade im Professionellen Bereich enorme Vorteile bringen kann.
All das wird sich aber erst zeigen, wenn die Geräte bei den Nutzern sind. :)
 
Jan schrieb:
Kurz: Roseatta 2.0 soll x86-Apps schon bei der Installation übersetzen, so dass das Übersetzen als solches beim Ausführen keine Leistung mehr kostet.

Stimmt eigentlich das Gerücht, dass Rosetta 2.0 nicht mit AVX-Code klarkommt?
 
Zurück
Oben