News Apple M1 Max & M1 Pro: MacBook-Pro-SoCs sollen Intel, AMD und Nvidia düpieren

Status
Für weitere Antworten geschlossen.
LäuftBesser2000 schrieb:
Ich frage mich jetzt, ob es nicht sinn machen würde, das Apple viel mehr in die Entwicklung von Tripple A Game Titeln investiert, um diese GPU Leistung zu nutzen? Oder warum nicht eine Apple Spiele Konsole mit dem M1 Max? Ich kann mir richtig vorstellen, das viele Entwickler auf den Zug aufspringen würde, wenn Apple Arcade auf einer Art Konsolen Plattform manifestieren würde. Die GPU Leistung ist irgendwie zurzeit nur für Entwickler nützlich, obwohl Sie viel mehr sein könnte!
Vorsicht gefährlich Halbwissen meinerseits, aber mir war so, dass ich etwas in dieser Richtung zum „nächsten“ AppleTV gelesen habe…also dass dort auch Der Fokus auf Spiele/Arcade gelegt wird/werden soll…

Gut da hatte ich jetzt nicht den M1Pro Max auf dem Schirm😉 oder vielleicht kommt das Gerät auch erst mit dem M2?

Naja zumindest wäre da dann weit mehr möglich als ich mir so vorgestellt hatte.
 
ssh schrieb:
Und es lohnt sich u.U. ein 2000€ Notebook zum Schürfen zu nutzen, wird hundertausendfach in diesem Moment gemacht.
Da man für diesen Preis locker eine 3080 bekommt, lohnt es sich eher nicht
 
foo_1337 schrieb:
Der ergibt aber wenig Sinn, weil diese Art Anbindung eben mehr mit der tradionellen Simm Slot on Board Variante gemein hat als die DRAM auf Package Variante des M1.
Was soll daran wenig Sinn ergeben. Das war die Ausgangsfrage, ob es möglich ist und du kommst an, dass es nicht das gleiche wie auf dem Package ist. Das ist allen beteiligten klar.

Ansonsten ist auch alles falsch und wenn schon, dann DIMM Slot.
Leitungslänge und Kontakte sind bei der Verlötung auf den Board deutlich näher am on-Package DRAM, als am gesockelter DRAM.
 
bensen schrieb:
Ansonsten ist auch alles falsch und wenn schon, dann DIMM Slot.
Leitungslänge und Kontakte sind bei der Verlötung auf den Board deutlich näher am on-Package DRAM, als gesockelter DRAM.
Ich schrieb traditionell und traditionell ist eben SIMM und nicht DIMM. Ja, sie sind deutlich näher. Aber weit entfernt im Vergleich zur on Package Variante.

Und anscheinend verstehen wir den Ausgangspost wohl unterschiedlich.

Der RAM sitzt ja mit auf dem SoC, da hat man ganz andere Möglichkeiten. Wenn man einem normalen Mainboard diese Art der Anbindung spendiert lassen sich die Hersteller das bestimmt gut bezahlen wenn sich sowas auf einem 0815 Board überhaupt realisieren lässt.

Ich interpretiere es so, dass er damit meint, dass es ein Board erlaubt, keinerlei Lanes mehr zum Memory zu haben. Aber anscheinend interpretiere ich es falsch. kA. Habe auch wenig Lust, darüber weiter zu diskutieren, denn dafür ist mir das Thema zu unwichtig.
 
@foo_1337

wenn du aber ein MacBook willst und keine Grafikkarte dann schon. Minen ist in dem Fall nur ein lohnendes Abfallprodukt
 
bensen schrieb:
Entweder weißt du nicht wie ein SIMM aussieht oder du willst nur irgendwas daher labern.
Natürlich weiß ich wie ein SIMM aussieht. Es gab auch mehrere Varianten davon. Traditionell hat man die nunmal verwendet. Oder siehst du das anders?
 
foo_1337 schrieb:
Ich interpretiere es so, dass er damit meint, dass es ein Board erlaubt, keinerlei Lanes mehr zum Memory zu haben. Aber anscheinend interpretiere ich es falsch. kA. Habe auch wenig Lust, darüber weiter zu diskutieren, denn dafür ist mir das Thema zu unwichtig.
Wie sollen die Daten denn sonst übertragen werden? Funk?

Es geht nicht darum, ob die traditionell verwendet wurden, sondern darum was du im zusammenhang mit den SIMM geschrieben hast. Stell dich doch nicht absichtlich dumm.
 
  • Gefällt mir
Reaktionen: Nagilum99
Apple sollte mal anfangen noch mehr GPU-Cores auf nen Chip zu pflanzen und dedizierte Grafikkarten damit rausbringen.
Da ist aktuell eh jeder Mondpreise gewohnt, da fallen die nicht negativ auf.
Am besten RTX 3070 Niveau für 100 Watt, das wäre ne schicke Kombi. ;)
 
Bierliebhaber schrieb:
Die Zeiten können sich einfach ändern. Und umdrehen kann man die Argumentation ja auch. Solange Android bzw. zu Zeiten eines HD2 Windows die Krone hatte war es laut iOS-Kunden irrelevant und die Leistung brauchte niemand, und heute ist es umgekehrt.

Ähm nee, zu der Zeit war das Argument der Apple-Gegner, dass deren SoCs ja viel mehr Leistung hätten, wo unsere Seite entgegnete, dass Android trotzdem ruckelt wie blöde, von der "Leistung" also nichts spürbar wäre,
Damals wurde von den Samsung-Fans ne ganze Menge angegeben mit Zahlen, die am Ende nirgendswo spürbar waren, so wie ja auch immer Batteriegrößen ein wichtiges Argument gegen Apple waren - und da zählte auch nur dass diese Batteriegrößenzahl höher war als bei Apple - ob am Ende auch wirklich die Laufzeit höher war hat dann schon keinen mehr interessiert, das war einfach Autoquartett für erwachsene Nerds.

Die Leistung wurde dann plötzlich irrelevant als sie bei Apple nachweislich höher lag und iOS noch immer nicht ruckelte, während Android... naja, so langsam nicht mehr ständig ruckelte.

Ich glaube der große "Die Leistung von Apple ist egal"-Moment für die Gegner kam dann, als Apple den 64bit-SoC eingeführt hat und die Gegner irgendwie zwischen "Ha, unter 4GB RAM ist das total unnötig!!!" und dem Moment als Qualcomm das als unnötig abtat, kurz darauf aber zugeben musste, dass sie auch in die Richtung wollten, aber einfach noch ein Jahr hinter Apple waren, hin und herpendeln mussten und die Leistung des SoCs auch noch sehr gut war.

In dem Moment wurde die Welt für die Gegner von Apple einfach zu kompliziert und deshalb haben sie sich in ihren safe space "Leistung ist egal" zurückgezogen, so wie andere Menschen denen die Welt zu kompliziert geworden ist sich in ihre safe spaces "Ausländer sind an allem schuld" und "Die Erde ist flach und Reptiloiden beherrschen sie!" zurückziehen.
Die Diskussion über Leistung hat ab dem Moment ein ähnliches Niveau angenommen wie die beiden anderen Rückzugsorte die ich gerade nannte.
 
  • Gefällt mir
Reaktionen: Col. Jessep, BorstiNumberOne, klappi86 und 3 andere
iSight2TheBlind schrieb:
Ich glaube der große "Die Leistung von Apple ist egal"-Moment für die Gegner kam dann, als Apple den 64bit-SoC eingeführt hat
Hier übrigens ein netter Twitter Thread dazu von Shac Ron. https://twitter.com/stuntpants/status/1346470705446092811
Vielleicht wird damit dann auch verständlicher, dass Apple eben nicht einfach ein Referenzdesign von ARM nimmt und das fertigen lässt, sondern dass da inzwischen sehr sehr viel Eigendesign dahinter Steckt. Von der GPU wollen wir gar nicht sprechen, die mit MALI (was man bei ARM mitbekommen kann) gar nichts gemein hat.

Der Satz hier sagt eigentlich alles aus:
M1 performance is not so because of the ARM ISA, the ARM ISA is so because of Apple core performance plans a decade ago.

Und wenn wir schon historisch ist, ist dieser Abschnitt in Bezug auf Apple und CPU Design auch interessant:
https://en.wikipedia.org/wiki/PowerPC_600#60x_bus

Und hier noch ein Wikipedia Auszug zur Gründung von ARM bzw. dessen Ausgliederung aus Acorn:



Apple entwickelte indes eine vollkommen neue Plattform, den PDA Newton. Der für dieses Gerät notwendige Prozessor musste verschiedene Anforderungen an Stromverbrauch, Kosten und Leistung erfüllen und zudem völlig statisch operieren, so dass der Takt zu jeder Zeit ausgesetzt werden konnte. Von allen Bewerbern kam nur die Acorn RISC Machine den Anforderungen nahe, wies jedoch selbst noch Mängel auf. So bot der ARM beispielsweise keine integrierte Speicherverwaltung, deren Funktion stattdessen vom MEMC-Sekundärchip übernommen wurde. Acorn verfügte auch nicht über die nötigen Ressourcen, eine integrierte Verwaltung für den ARM zu entwickeln.

Apple und Acorn entschieden sich, für die Weiterentwicklung in Gestalt eines eigenen Unternehmens zu kooperieren. Der Großteil der Forschungs- und Entwicklungsabteilung der ARM CPU bildete die Basis der ARM Limited, die im November 1990 gegründet wurde. Die Acorn Group und Apple Computer besaßen jeweils Anteile von 43 %, mit VLSI als Investor und erstem Lizenznehmer.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: jotecklen, ldos, SVΞN und 2 andere
isyyy schrieb:
Das ding ersetzt KEINE x86 Powerhorse CPU.

Wer einen M1 schon hat wird wissen das er nur für MacOS und drum rum Optimiert ist.
Braucht man mal Wirklich Leistung kommt am ende nicht viel raus.

Das Azul-JDK muss sich dann aber auf meinem MacBook Air gewaltig irren, wenn es in einem Maven-Build (mehrere Unterprojekte, Java/Kotlin, am Ende fällt ein WAR-File raus), der ca. zwei bis drei Kerne belastet, auf Augenhöhe mit einem 3950X arbeitet und den Core i7-7700HQ in meinem alten MacBook Pro so richtig abwatscht.

Ich hatte damals Benchmarks für mein Blog gemacht:

DeviceBuild time with testsBuild time without tests
MacBook Pro223 s183 s
MacBook Air85 s63 s
PC84 s66 s

Ein ähnliches Bild zeigt sich mit NodeJS für den Frontend-Build des Projekts:

DeviceBuild Time
MacBook Pro native27.8 s
MacBook Air with Rosetta 220.7 s
PC native20.6 s

Inzwischen geht das auch mit nativ mit dem M1 in unter 20 s, obwohl das Frontend inzwischen deutlich größer geworden ist.

Ich setze die Kiste jetzt seit Februar produktiv ein und das MacBook Pro verstaubt nur noch, weil es -- trotz mehr RAM -- dagegen einfach nur eine schnarchige Mistkiste ist, die mich in meiner täglichen Produktivität massiv stört. Das fängt bei der miesen CPU-Leistung verglichen mit dem M1 an und hört damit auf, dass ein Google Meet effektiv den Rechner lahmlegt bzw. den Lüfterdrehzahlen in die Konkurrenz zu Strahltriebwerken bringt, während das MacBook Air nicht mal einen Lüfter hat. IntelliJ rennt auf dem M1 trotz nur 8 GB RAM um Welten besser, subjektiv selbst besser als auf dem 3950X ...

Und wenn wir ehrlich sind: ja, wir wissen derzeit nicht, wie sich der M1 Pro und Max in der Praxis Verhalten, aber wir wissen, was der M1 kann und das Apple letztes Jahr bei der Präsentation sogar noch untertrieben hat. Sie haben überhaupt keinen Grund nun irgendeinen Blödsinn aufzutischen. Dass nicht unbedingt die doppelte Leistung des M1 erreicht werden kann, sollte eigentlich halbwegs klar sein, weil man in einem Notebook auch nicht unendlich Energie zur Verfügung hat bzw. mit der Abwärme auch irgendwo hin muss.

Intels und AMDs Top-CPUs mögen schneller sein, aber sehr wahrscheinlich nur marginal und bei erheblich höherem Stromverbrauch. Gerade bei Intel stellt sich auch die Frage, wie lange die Höchstleistung hält. Tiger Lake kann sich auch 45 W genehmigen und geht nach kurzer Zeit auf 35 W runter -- um immer noch von einem passiv gekühlten M1 mit max. 15 W abgewatscht zu werden. Was soll also die Skepsis gegenüber den größeren Brudern? Ich sehe einfach keinen Anlass dazu.
 
  • Gefällt mir
Reaktionen: darthbermel, mcasd, Col. Jessep und 7 andere
@iSight2TheBlind


Zunächst mal hatte ich ja schon geschrieben, dass es ne andere Zeit war. Damals brauchte man einen S4 oder so, damit es halbwegs läuft. Heutzutage ist jedes halbwegs solide jahrealte SoC meiner Erfahrung nach schnell genug, sodass ich grundsätzlich lieber günstigere Phones oder bessere Features (in Richtung Frontkamera des Mix 4 z.B.) hätte als Leistung, die man abseits von Spielen eh nie braucht, auch bei Android. Hab parallel im Thread zu den neuen Google-Phones übrigens aus denselben Gründen deren Versuch kritisiert, auch über ein angeblich tolles eigenes SoC ihre Phones zu verkaufen, wenn ich doch lieber Features wie ein notch- oder lochfreies Display hätte. Wegen des SoC kauft doch heute keiner mehr sein Smartphone...
Ist doch kein Apple-spezifisches Problem, die überzüchteten und dadurch zu teuren Smartphones.

Abgesehen davon wurde doch zumindest von ernstzunehmender Seite eher innerhalb eines Lagers kritisiert, dass manche Hersteller zu kleine Akkus verbauen oder so. Dass man das zwischen den Betriebssystenen nicht direkt vergleichen kann war doch immer klar. Was zählt ist am Ende die Akkulaufzeit... muss man denn immer anbeißen, wenn Kiddies im Internet Blödsinn schreiben?
Genau wie beim SoC. Damals war es relevant, ob im Phone ein SD4xx oder SD8xx gesteckt hat, heute ist es egal. Die Vergleiche sind doch generell Blödsinn, wenn die eine Seite wenige schnelle, die andere mehrere langsamere verbaut und beide ein anderes OS nutzen. Beide Ansätze funktionieren anscheinend momentan gut.
Für mich kommt iOS grundsätzlich nicht infrage, warum sollte mich dann die Größe der Akkus bei iPhones interessieren, oder andere Kleinigkeiten?

MMn blödsinnige Trends wie das Wegfallen der Klinke oder die hässliche Notch nehm ich mal aus, anders als bei Zahlen auf einem Akku oder so kann und wird sich da leider ein Beispiel dran genommen, und als Anführer in die falsche Richtung wäre das ein Punkt, wo ich vielleicht auch lagerübergreifende Kritik angebracht sehe.

Aber um mal den Bogen zu Laptops zurückzuschlagen, das ist eher so, als würde man kritisieren, dass ein Laptop mit Intel statt AMD kommt. Oder dass der Akku im Vergleich zur Windowskonkurrenz zu klein ist. Oder das Display nichts taugt. Oder die Tastatur.
Oder der RAM nur Singlechannel läuft oder so. Alles Probleme innerhalb des Ökosystems und nicht zwangsläufig zwischen macOS und Windows bzw. iOS und Android vergleichbar.
Wie gesagt, wer Apple kauft kauft aus bestimmten Gründen. Wer Windows kauft aus anderen. Hier zu vergleichen ist doch Blödsinn, solange man nicht Windows mit solchen SoC vergleichbar mit wesentlich günstigeren Geräten laufen lassen kann und sie so für einen großen Teil der Kunden sowieso nicht infrage kommen, oder umgekehrt manche auf macOS angewiesen sind und deshalb auch kein Interesse an Rembrandt haben oder so. Wenn ich einen Ferrari kaufe beschwer ich mich ja auch nicht, dass der keine zwei Tonnen Zuladung hat.

Verstehe nicht, wieso das von beiden Seiten immer so ausarten muss. Oder warum man sich auf blödsinnige Aussagen von Menschen beziehen muss, die zu dem Zeitpunkt halt kein vergleichbares Produkt auf dem Markt hatten, ob es gebraucht wurde oder nicht. Ist ja nicht so, als hätte Apple da z.B. mit der Butterfly-Tastatur eigene Geschichten, wo man zu lange gebraucht hat...

Dieses religiöse Verteidigen bringt doch niemandem was. Apple kann deshalb unverhältnismäßig lange an fehlerhaften Designs festhalten, die x86-Welt könnte jetzt einfach ignorieren was in der Mac-Welt passiert, die Entwicklung von Android/iOS könnte einfach eingestellt werden... ist ja doch alles noch was anderes als bei CPUs und GPUs, wo nVidia, AMD und Intel sich gegenseitig pushen und deshalb liefern müssen.

Trotzdem kann man die Entwicklung doch verfolgen, gespannt darauf sein wie und auf welche Weise sich das auf x86-CPUs auswirkt und schreiben, dass manche Vergleiche nicht zutreffen oder M1 für viele momentan einfach keine Rolle spielt...
 
  • Gefällt mir
Reaktionen: Col. Jessep, Seven2758, joue und eine weitere Person
Frage zu den Netzteilen.
Laden die Macbooks eigentlich an jedem beliebigen USB-Netzteil? Egal ob MagSafe oder Thunderbolt4, was passiert eigentlich bei den Macbooks, wenn man sie an ein schwächeres Netzteil hängt. Ich würde mal davon ausgehen, dass sie das maximum des angehängten Netzteils ziehen und darüber hinaus die Batterie anzapfen, wenn sie gerade mehr brauchen.

Ich stell mir die Frage weil ich es praktisch fände auf kurzen Reisen und Trips einfach ein kleines Netzteil mitzunehmen und den Laptop z.B. über Nacht am schwachen Netzteil zu laden. z.B. (ca 10h @10W --> 100Wh akku voll).
Dementsprechend hole ich einfach ein kleines GaN USB-Ladegerät mit und lade daran parallel iPhone, Watch und MacbookPro.

läuft das so? Marken-USB-Netzteile sind ja strombegrenzt, da sollte nix passieren, könnte aber sein, dass die Macbooks ab einem bestimmten Strom (oder weniger) das Laden verweigern - oder aber, dass es Stabilitätsprobleme gibt, falls bei plötzlichem Spitzenstrom Bedarf (oberhalb dessen, was vom beliebigen Netzteil per USB-C kommt), der Akku nicht sofort einspringt.

Das müsste echt ziemlich stümperhaft ausgelegt sein, wenn dem so wäre, oder künstlich beschnitten, aber ich weiß es ja nicht, hatte noch kein USB-C Macbook vorliegen, daher kann ich es nicht einschätzen.
 
@Randfee ja und ja. Wichtig ist, dass sie usb-c PD unterstützen. Ich hänge aber morgen mal nochmal das 30w vom Air an das Intel Pro und teste noch mal damit
 
  • Gefällt mir
Reaktionen: Randfee
foo_1337 schrieb:
Der ergibt aber wenig Sinn, weil diese Art Anbindung eben mehr mit der tradionellen Simm Slot on Board Variante gemein hat als die DRAM auf Package Variante des M1.
Ich weiß nicht woher der SIMM-Quatsch kommt, aber du solltest (den Unterschied twischen SIMM und DIMM) noch mal googlen... das da ist totaler Quatsch und du wirfst Fachbegriffe total unsinnig durcheinander.
Was du meinen könntest; DRAM vs. HBM (Module vs. on Package)
 
Der jetzige m1 ist schon sehr stark und hat bei mir einen i7 locker ersetzen können. Schön das man in Zukunft zu mehr RAM greifen kann.
Für normale Haushalte sind die MBP ohnehin nicht gedacht, dafür gibt es doch iMacs oder MBAs und iPads. Jeder der 1-3k für ein Spiele PC/Notebook ausgibt ist sicher auch nicht die Zielgruppe. Für Entwickler, Grafikdesigner, Musiker oder Cutter ist so ein MBP eben ein Arbeitsgerät und da zahlt das eh der Chef oder es wird von der Steuer abgesetzt.

Der Vergleich zwischen Mac und PC wird sicher noch ewig weitergehen. Ich denke mir nur, wenn ich auf einem Windows PC programmieren soll ist das für mich kaum anders, als unter Linux oder MacOS. Es ist mir total egal. Intel und AMD werden schon ihre Käufer finden, den Krieg gibt es ja nicht erst seit gestern.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben