News Apple-Silicon-Gerüchte: M3 Pro und M3 Max sollen mehr CPU-Kerne bieten

Jeder der denkt der eine oder andere Hersteller wäre abgehängt hat einfach keine Ahnung wovon er redet.
So lange keiner von ihnen (AMD, Apple, Intel) sich einen groben Schnitzer erlaubt kochen sie alle nur mit Wasser und bieten ähnlich gute Architekturen an.
Der mit abstand größte Unterschied macht der Fertigungsprozess. Sieht man z.B. wieder deutlich beim 7840 von AMD. Er wird mit dem 4nm Prozess von TSMC bzw. ist der minimal optimierte 5nm von TSMC hergestellt welchen Apple schon lange für den M1 und co verwendet. Und Schwupps sind alle Leistungs bzw. Effizienzvorteile verschwunden.
 
Beteigeuze. schrieb:
Der mit abstand größte Unterschied macht der Fertigungsprozess. Sieht man z.B. wieder deutlich beim 7840 von AMD. Er wird mit dem 4nm Prozess von TSMC bzw. ist der minimal optimierte 5nm von TSMC hergestellt welchen Apple schon lange für den M1 und co verwendet. Und Schwupps sind alle Leistungs bzw. Effizienzvorteile verschwunden.
Apple nutzt kein N4 sondern N5. Ergo hat AMD hier sogar einen Vorteil.
 
Intel hat grundlegend seit Haswell nichts geändert, sonst wäre die letzte CPU bug/exploit Downfall https://downfall.page/ nicht möglich.

AMD hat seit Ryzen 1xxx nichts geändert, sonst wäre der letzte CPU bug/exploit https://comsec.ethz.ch/research/microarch/inception/ nicht möglich.

Beide brauchen wieder Hard- und Softwaremitigation, jeder ist dadurch betroffen. Die Hardware steckt ja auch in Servern. Und wieder geht bis zu 50% Leistung drauf.

Sicherlich gibt es auch solche Probleme mit ARM. Aber letztendlich müssen wir von diesen x86 CPU Generationen weg, das Grunddesign ist zu fehleranfällig.
 
Beteigeuze. schrieb:
Ich habe doch geschrieben dass der N4 ein minimal optimierter N5 ist.
Ich frage mich warum man für den M2 nicht auch auf N4 gegangen ist, hätte man evtl. noch ein paar Prozente rausdrücken können.
 
Das lohnt sich nicht weil Apple gar nicht so viele M2 benötigt. Das kostet ja auch wieder Geld und der Mehrwert ist gering.
 
  • Gefällt mir
Reaktionen: ThirdLife
Man darf auch nicht außer Acht lassen, dass die M-CPUs keineswegs "Erstlingswerke" für Apple sind, seit wievielen Jahren designen die schon eigene ARM-CPUs für iPhone/iPad? Eben.
Der Wechsel war nur eine Frage der Zeit und rückblickend betrachtet, hätten die den Schnitt möglicherweise sogar früher machen können.

Ich stelle mal die Behauptung auf, dass mit den gleichen Voraussetzungen, wie Apple sie hat, andere Hersteller etwas ähnliches hätten auf den Markt bringen können.
Haben sie aber nicht, deswegen sehe ich ARM als Alternative (oder gar Ersatz) für x86 noch lange nicht.
 
Opa Hermie schrieb:
Haben sie aber nicht, deswegen sehe ich ARM als Alternative (oder gar Ersatz) für x86 noch lange nicht.
Im Mobilen Sektor durchaus. Wenn ich sehe was mein MPB im Idle zieht, das ist lachhaft wenig. Da reden wir schon von Milliwatt für den gesamten SoC inkl. Memory, GPU und SSD.

Am Desktop sehe ich nach wie vor x86 vorne, müsste allerdings ein paar Designüberarbeitung in Kombination mit OS Anpassungen bekommen um effizienter zu laufen und dabei mehr Performance raus zu quetschen.
 
Im "Kleinleistungsbereich" (sage ich mal so) ist ARM lange etabliert, genauso wie Linux auch; zahlenmäßig sicher x86 und Windows weit überlegen, nur für die meisten Nutzer nicht direkt sichtbar und denken deswegen, dass ein Nischenprodukt sei: Fast jede Glotze, Router, Mähroboter oder sonstwas wird üblicherweise so betrieben.

Genauso hat x86 aber auch gewachsene Strukturen mit etlichen Vorzügen. Manche sehen halt nur Apples ARM und stellen es so dar, als sei x86 dagegen eine unbrauchbare Antiquität.
Und so richtig toll finde ich die M-CPUs auch nicht, alleine die exorbitanten Aufpreise halten mich die nächsten Jahrzehnte als Kunde fern.
 
TenDance schrieb:
Frappierend wie die Chipsparte von Apple seit dem Abgang des Chefs sich darauf beschränkt ihre Designs in neue, kleinere Fertigungen bei TSMC zu migrieren und dadurch gewonnene Takt- sowie Transistorgewinne mitzunehmen.

Bei Apple kommt die Leistung aus einem Dreieck mit:

Fertigungsprozess, Architektur und speziell angepasster Software.

Genau vom Fertigungsprozess kommt auch die Effizienz, wofür der M1 schon gehyped wurde.

Software ist schon angepasst... (das bisschen dass es gibt)
Die Architektur ist auch schon ziemlich breit. (Transistoranzahl)
Was macht man?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: G00fY
IBISXI schrieb:
Genau vom Fertigungsprozess kommt auch die Effizienz, wofür der M1 schon gehyped wurde
Nicht ganz, die kommt primär vom Verhalten der Taktraten und ähnlichen Parametern (z.B. dass der M1 niemals höher Takten kann als 3,2 Ghz, es gibt auch keinen "boost" drüber oder so).
Die Apple Chips boosten nicht ins Nirvana, wenn man die Maus bewegt oder eine Webseite aufruft, und können den Energieverbrauch ziemlich niedrig halten, während Intel/AMD hier gerne mal volle kanne boosten, "um den Task schnell zu beenden".

Wird hier ganz gut erklärt:

Diese "hohen Bursts" sind der Hauptgrund, warum die Akkulaufzeit im Alltag nicht an die Macbooks ran reicht.

5nm als Fertigung spielt wirklich nur sehr wenig eine Rolle hier.
Denn siehe AMD's Sprung von 12nm auf 7nm. Hat in der Akkulaufzeit oder benötigte Kühlung so ziemlich nichts verändert.

Auch Intel mit 13th Gen oder gar 12th Gen könnnte da recht nah ran kommen, wenn das Boost verhalten mal vernünftig angepasst werden würde, und die E-Cores optimal eingesetzt werden.
 
Darkseth88 schrieb:
Denn siehe AMD's Sprung von 12nm auf 7nm. Hat in der Akkulaufzeit oder benötigte Kühlung so ziemlich nichts verändert.
So einfach kann man das nicht sagen.
Wenn man beim Sprung von 12 auf 7nm fast alles auf mehr Leistung setzt dann wird man halt nicht effizienter.
Die fertiger geben die Sprünge ja auch immer in mehr Performance oder Effizienz an. Aber im Desktopbereich ist die Effizienz von AMD auch so schon gut genug gewesen um mit Intel mitzuhalten.

Darkseth88 schrieb:
Diese "hohen Bursts" sind der Hauptgrund, warum die Akkulaufzeit im Alltag nicht an die Macbooks ran reicht.
Sie sind ein kleiner Bestandteil warum sie so effizient sind mehr aber auch nicht
da spielen andere Dinge wie z.B. der Fertigungsprozess (ja ich weis das glaubst du nicht), die ARM Architektur oder das geschlossene System mit angepasster Software eine viel größere Rolle
 
Beteigeuze. schrieb:
So einfach kann man das nicht sagen.
Wenn man beim Sprung von 12 auf 7nm fast alles auf mehr Leistung setzt dann wird man halt nicht effizienter.
Die fertiger geben die Sprünge ja auch immer in mehr Performance oder Effizienz an. Aber im Desktopbereich ist die Effizienz von AMD auch so schon gut genug gewesen um mit Intel mitzuhalten.
Doch, in dem Fall kann man das sagen. trotz deutlich kleinerer Fertigung gab es da keine Unterschiede, weil die fertigungsbedingten effizienz-vorteile in Leistung umgewandelt wurden.

Das Verhalten wenn eine Task ausgeführt wird, ist aber trotzdem weiterhin knallhart auf maximale Power optimiert, und NICHT auf Stromsparen oder effizienz.

Damit bestätigst du doch nur meine Aussage: Mit der Fertigung wird weder AMD noch Intel an Apple Silicon rankommen was effizienz angeht (oder besser gesagt, Energieverbrauch pro ausgeführte Task), einfach weil AMD und Intel am Chipverhalten nichts ändern.

Solange das Teil auf 5 Ghz boostet weil ich die Maus bewege, bleibt die effizienz schlecht.
Würde die CPU nur auf 1,5 bis 2 Ghz takten bei so etwas banalem, wäre der Energieverbrauch auch bedeutend geringer.


Beteigeuze. schrieb:
da spielen andere Dinge wie z.B. der Fertigungsprozess (ja ich weis das glaubst du nicht), die ARM Architektur oder das geschlossene System mit angepasster Software eine viel größere Rolle
Nein, das Verhalten spielt die größte Rolle (Ja ich weiß das glaubst du nicht).
Der Fertigungsprozess spielt die kleinere Rolle, das sieht man wenn man sich einfach nur alle anderen Chips anschaut.
Lass es nicht AMD sein, aber Intel als sie von 14+++nm auf 10nm gewechselt sind. Gut zu vergleichen im Macbook mit 8th Gen und 10th Gen.

Und dass Apple nicht mit der Brechstange die höchste Taktrate brauchte, sondern maximal 3,2 ghz angesetzt hat, egal ob mehr ginge oder nicht.
ARM zähle ich mit rein, da durch den Aufbau auch ein gewisses Verhalten einhergeht. z.B. dass Apple sämtliche Hintergrundprozesse no matter what auf die E-Cores legt, selbst wenn diese alle zu 100% rödeln, die P-Kerne bleiben still.

Schau dir bitte das Video an, was ich verlinkt habe, da sieht man es auf wie viel Watt beide Chips hoch gehen, wenn man nur eine Webseite neu lädt.

Das ist totaler Quatsch den großteil davon auf den Fertigungsprozess zu schieben, wenn es offensichtlich andere Gründe gibt, warum die Laufzeit so enorm ist.
Zen4 ist aktuell bei 4nm. Würde der Großteil von der Fertigung kommen, müssten Zen4 Chips allesamt in jeder vergleichbaren Situation weniger Energie verbrauchen als ein M1 oder M1 Pro. Dem ist aber nicht so.

AMD kann ja nicht erst seit Zen4 mit den Apple Chips mithalten, was Benchmark Punkte pro Watt angeht - wenn du den AMD Chip hart auf die gleiche Watt menge begrenzt.
Aber im Idl eund Teillast verbrauchen die dinger einfach deutlich mehr, und die Spikes sobald etwas passiert sind sowohl absolut als auch prozentual deutlich größer als bei Apple. Weil hier ins Nirvana geboostet wird für maximale Leistung.

Mein Arbeitslaptop hat einenn i7 1255u oder so mit angeblich 15w TDP, aber wenn ich einen Benchmark starte knallt das ding auf über 40 Watt hoch. Natürlich ist da die Akkulaufzeit schlecht, das hat aber hier nahezu gar nichts mit dem Fertigungsprozess zu tun.


MacOS ist genau so wenig ein geschlossenes System wie Windows es ist, keine Ahnung woher diese Fehlinformation immer kommt.
iOS/iPadOS sind geschlossen.


Surprise surprise: Wenn die x86 Chips mal gezügelt werden, dann KÖNNEN sie auch die lange Laufzeit haben und damit auch zuverlässig lautlos bleiben. Siehe Thinkpad Z13 mit dem 6-Kerner. Laut Notebookcheck kaum schelchter als ein M2 Air. Da geht es in die richtige Richtung.

Apple zeigt es ja mit den Chips: Die Dinger können ordentlich Power liefern wenn sie müssen, können aber auch sparsam bleiben, wenn sie die power eben nicht liefern müssen.
So wie man einen Porsche auch mal im 5. Gang mit 1100 rpm fahren kann, statt entweder Vollgas oder Vollbremsung.

Wenn ich meinen Kleinwagen mit vollgas oder Vollbremsung fahre bei ständig 5000 rpm dann ist der verbrauch auch mit dem effizientestem Motor schlecht.
Wenn ich aber mein verhalten änder, kann ich den auch sparsam fahren.
Bzw, kannst du einen 20 Jahre alten Motor sparsamer fahren als einen modernen wenn dieser nur Vollgas kennt.
Kein stück anders ist es mit den Prozessoren.
 
Takt und Verbrauch bei CPUs spielt ohnehin im Gesamtverbrauch eine untergeordnete Rolle. In erster Linie ist ein MBP mit einem 100Wh Akku ausgestattet, andere kommen da auf mickrige 60Wh. Am meisten zieht bei mir immer noch das Display. Bei voller Helligkeit sind das schnell 10-12W.

Ob die CPU dann jetzt 2W oder 4W verbraucht ist prozentual dann zwar das Doppelte aber insgesamt gesehen ein Tropfen auf den heissen Stein. Solang die Hersteller keine sinnvolle Kühlung + große Akkus verbauen und gute Displays ist das ein viel größeres Problem als wenn ein kleiner AMD oder Intel 4 statt 2W zieht.
 
@ThirdLife Stimmt nicht.
Macbook Pro 13" 2020 mit Intel 10th Gen (oder die vorgänger mit 8th Gen) und Macbook Pro 13" mit M1.
Komplett identisches Gerät, identisches Display, identischer Akku. nur Mainboard mit Chip sind anders.

Akkulaufzeit plötzlich verdoppelt im schlechtesten fall, in einigen Fällen sogar deutlich mehr als verdoppelt (Teillast, Last etc). Ganz zu Schweigen davon, dass der Hitzeausstoß plötzlich kaum noch da war, und die Lüfter meist nur dekoration.
Der Intel Chip pendelt sichg nämlich bei über 30 Watt ein bei Multicore Benchmarks.

Das kommt ausschließlich vom Prozessor.

Auch dir würde ich nahelegen, das verlinkte Video mal anzusehen.
Der M2 schießt auf nur 4w hoch, wenn man eine Seite neu lädt, der Intel Chip geht auf 20w hoch für die gleiche Aufgabe. Und das passiert alle paar sekunden, bei jeder Aktion die man macht mehr oder weniger.

Auch im Idle beim nichts tun ist der Unterschied enorm. x86 Chips kommen kaum kurz unter 1 Watt runter, ein M1/M2 komt auf <0,1 Watt.

Das macht einiges aus, wie man sieht.
 
BAR86 schrieb:
Primär gehts mir hier um das generelle Heranreifen des Ökosystems gleichzeitig mit dem Reifen der CPU. Erste Gens haben halt immer diverse Dinge die später verbessert/integriert werden
Ok ... ich lese es und versteh nix :). Erstens ist ja der m2 nicht 'erste Gen.' und zweitens kaufe ich mir meine Dinge nach Bedarf. Der m2 Max deckt viele Anwendungen hervorragend ab (= richtig schnell) und ist dabei für Apples Verhältnisse sogar noch recht günstig.
Außerdem, mit deiner Einstellung bist du vermutlich viel am 'Warten' und wenig am 'Tun'.
 
Darkseth88 schrieb:
Das macht einiges aus, wie man sieht.
Sicher. Aber unterm Strich brennt das Display permanent mit 10-15W, die CPU nur gelegentlich. Und ein großer Akku hilft halt enorm. Die M-CPUs sind super, keine Frage, aber sicher nicht der alleinige Heilsbringer ggü. den Windows-Kisten.

Hauptverbraucher ist immer das Display sofern du nicht oberhalb von 15W CPU Dauerlast agierst.
 
@ThirdLife 10-15w dürften viel zu hoch gegriffen sein.

Siehe z.b. den Test: https://www.notebookcheck.com/Apple...t-die-M1-Leistungsspritze.509348.0.html#toc-6
Wifi websurf-skript mit maximaler Helligkeit, also volle 500 nits. 10h Laufzeit. Bei einem 58 Wh Akku wäre das ein gesamtverbrauch vom kompletten System von knapp 6 Watt. Das Display selbst dürfte bei <5w liegen auf maximaler Helligkeit.
Beim 14" Pro: https://www.notebookcheck.com/Apple...n-MacBook-Pro-eingebremst.684532.0.html#toc-8
sind es 7h bei max Helligkeit, macht rund 10w Verbrauch.
Beides wäre entsprechend ein ticken weniger, wenn kein Skript durchlaufen würde sondern das Gerät einfach nur rumsteht.

Mein Arbeitslaptop mit maximaler Helligkeit hat laut hwinfo eine Entladerate von im schnitt 6w beim nichts tun im Idle.
Mit minimaler Helligkeit hat sich das ganze bei 4,7w eingependelt.
Weiß nicht welche Panelnummer, aber direkt daneben ist es subjektiv noch heller als mein Macbook Pro.
Oder wenn ich Cinebench R23 laufen lasse, ist der komplette Chip bei 22w, die gesamte Entladerate bei 30w~ etwa, also 8w bleiben für alles außer den Chip.

Lenovo hat ja bei seinem 400 cd/m² Panel auch eine "low Power" Version, das dürfte die hier sein: https://www.panelook.com/NE140FHM-N61_BOE_14.0_LCM_parameter_38601.html
Angabe ist hier 2,8 Watt maximal, also mit 400 cd/m² Helligkeit.
 
BatteryStatusShow auf dem MBP zeigt mir grad 9,5-10,5W an beim Surfen auf dem dunklen CB Forum. Schau jetzt mal ne Serie/Film in HDR oder lass was helles auf dem Display sein dann geht das schon ganz ordentlich hoch.
 
Luthredon schrieb:
Ok ... ich lese es und versteh nix :). Erstens ist ja der m2 nicht 'erste Gen.' und zweitens kaufe ich mir meine Dinge nach Bedarf.
das tu ich auch. Und ich habe keinen Bedarf am M2, denn ich kann - es muss Zauberei sein - wie alle anderen auf der Welt meine Arbeit auch ohne erledigen ;)
Luthredon schrieb:
Der m2 Max deckt viele Anwendungen hervorragend ab (= richtig schnell) und ist dabei für Apples Verhältnisse sogar noch recht günstig.
ja, bei mir nicht.
Luthredon schrieb:
Außerdem, mit deiner Einstellung bist du vermutlich viel am 'Warten' und wenig am 'Tun'.
Eher das GEgenteil: ich "tue" so viel, dann vergeht automatisch auch Zeit bis Dinge ausgereift sind:
Ich kaufe keine Spiele bei Releasetag.
Ich kaufe keine 1st Gen Hardware (etwa die erste Shader- Grafikkarte, die erste Raytracing-Grafikkarte, die erste Dualcore-CPU, nicht das erste Elektroauto, nicht das erste Level 2/3 Auto, nicht den ersten OLED Bildschirm usw usf.
Ich kaufe Dinge, wenn sie gereift sind. Ich weiß, viele schaffen das heutzutage nicht mehr (sieht man auch bei den Releases von Spielen die Bugbehaftet aufm Markt geworfen werden), aber mein Vorgehen hat eigentlich bislang immer nur Vorteile gehabt. Sollen die Dinge halt bei denen reifen, die es nicht aushalten.
Und ja, solange die Applegeräte nicht meine Anwendungen abdecken, bin ich eben am echten "tun" und nicht am Warten darauf, dass das mal der Fall sein wird/kann.
 
Zurück
Oben