News Apple M4, M4 Pro und M4 Max: CPU- & GPU-Kerne, RAM und Bandbreite im Vergleich zum M3

Cool Master schrieb:
Ich bin etwas entäuscht über den M4 Max. Nur 40 GPU Kerne? Ich habe an M1 Max ja schon 32 Kerne. Klar, die IPC ist schneller, aber trotzdem in ~4 Jahren nur 8 Kerne mehr ist etwas dürftig.
Das klingt so, als würden Intel und AMD bei jeder neuen CPU-Generation alles rausfeuern, was die technischen Innovationsabteilungen bis dahin erreicht haben. Die Unternehmen sind ja letztlich auch noch Wirtschaftsunternehmen, die wollen, dass Du nach 1-4 Generationen auch unbedingt die neue Generation kaufen willst.

Botcruscher schrieb:
Die AI Leistung ist wie bei den ganzen anderen APUs eigentlich ein Witz gegenüber Grafikkarten. Apple hat immerhin den Vorteil überhaupt mal eine Softwareintegration zu liefern.
Naja, Du musst ja auch überlegen, was Du in so eine CPU/APU gequetscht bekommst. Da leisten ja bspw. AMDs APUs teils schon enorm viel, wenn man sich anschaut, dass man früher für alles eine Grafikkarte brauchte und die iGPUs auch sehr lange nur für rudimentärste Dinge zu gebrauchen waren.

Zusätzlich hast Du den Stromverbrauch. Ich bin dank gutem Timing und langen Preisfixierungen mit sehr, sehr günstigen kWh-Preisen durch die Energiekrise gekommen. Dennoch habe ich beim Zusammenstellen meines Servers Ende 2023 erstmals so richtig überlegt, wie ich zum Thema Energieverbrauch stehe.
Wenn ich sehe, dass manche Leute 1000-1500W Systeme regelmäßig dafür nutzen, irgendwelche dummen, und leider auch immer noch zu 100% als solche erkennbare, Bild-KI-Bilder zu erstellen oder total unproduktiv andere Dinge generieren lasse, kratze ich mich am Kopf.
Währenddessen transkribiert mein M1 Pro mit Whisper dermaßen schnell und gut, dass nichtmal der Lüfter hörbar anspringt und das Netzteil sehr wenige Watt zieht.

Das Thema Energieverbrauch sollten wir nicht aus den Augen verlieren. Und da sehe ich Apple aufgrund des integrierten Ansatzes im Consumer- und Professional-Bereich immer noch in einer sehr komfortablen Situation, was die nächsten Jahre angeht.
 
  • Gefällt mir
Reaktionen: Acrylium
Holodan schrieb:
Die Unternehmen sind ja letztlich auch noch Wirtschaftsunternehmen, die wollen, dass Du nach 1-4 Generationen auch unbedingt die neue Generation kaufen willst.

Klar, aber das passiert ja eben nicht. Ich habe im Prinzip null Interesse an einem M4 Max, weil das einfach zu wenige Gewinn ist, vor allem für ein neuen Rechner der zwischen 2500-4000 € kosten würde, je nach Konfiguration. In 4 Jahren Faktor 1,9 ist halt nicht sonderlich viel. Dazu kommt, dass man wieder nicht sagen kann was da verglichen wurde. Ich bezweifele, dass es 4k und max Settings war.
Ein M4 Ultra könnte wieder anders aussehen der soll aber wohl erst nächstes Jahr kommen. Aber der kostet dann wohl auch wieder mehr als 4000 €, da kann ich auch gleich auf mein Desktop setzen der ein 9000er X3D und 5090 haben wird. Klar bedeutet dann mehr Verbrauch - sowohl Strom als auch Platz - aber damit kann ich leben.
 
@Cool Master: Das liegt in meinen Augen aber vor allem an diesen Dingen:
  1. der enorme Sprung, den Apple mit den eigenen ARM SoC hingelegt hat, dem die Konkurrenz auch vier Jahre später nichts Vergleichbares entgegenzusetzen hat.
  2. der damit einhergegangene Geschwindigkeits-Puffer, der wohl 80-90% der Anwender noch nicht an den die Leistungsgrenze geführt hat.
  3. das langsame Innovationsende von CPUs?
Die neuen KI-Aufgaben werden ja alle von GPUs/NPUs übernommen. Die landen dann zwar teilweise mit auf CPUs, aber ich fürchte, hier ist abgesehen von einer Effizienzsteigerung durch Wechsel auf ARM (oder in Zukunft auch RISK-V) nicht mehr viel zu holen. Die physikalischen Grenzen der Transistorverkleinerungen nahen ja auch mit großen Schritten.
 
@Holodan

Zu 1.: Das Problem ist eher Windows nicht unbedingt die HW. Da spielt Apple halt seine Vorteile aus, dass sie das gesamte Paket machen und nicht wie bei Windows wo Microsoft auf Drittanbieter angewiesen ist. Qualcomm liefert hier ja schon recht gute Ergebnisse aber hat nun die Lizenz verloren... Aber ja auch MS macht Fehler wie das beibehalten alter Kompatibilitäten. Ein "Windows 12" muss 64 Bit only sein damit alte Programme noch mal neu entwickelt bzw. weiter entwickelt werden oder es neue Programme gibt. Dazu kommt, das der Kernel einfach mal von 0 überarbeitetet gehört und damit auch sämtliche Schad-Programme ihr Potenzial verlieren.

Zu 2.: Bin ich bei dir. Die CPU ist bei mir kein Problem, schrieb ich ja schon. Könnte man dann aber auch nutzen um die GPU oder NPU bzw. Apple's Neural Engine (ANE) aufzubohren. Das ist aber schon seit vielen Jahren der Fall, dass CPUs nicht mehr so schnell limitieren. Heute ist es eher (V)RAM, Grafik(karten) und SSD-Platz.

Zu 3.: Möglich, CPUs sind in der Tat bei über "80%". Da wird es keine neuen Innovationen die nächsten 20 Jahre geben. Die Zukunft wird wie immer mehr Kerne, mehr Takt und mehr Cache (auf Ebenen) heißen.

Effizienzsteigerungen sind auch so ein Ding. Das spielt nur eine Rolle weil bei uns die kWh 41 Cent kostet. In anderen Ländern wo Strom 5, 10 oder 15 Cent kostet spielt Effizienz einfach keine Rolle. Klar wird es immer ein Sweetspot geben aber wir müssen uns daran gewöhnen, dass IT aktuell eher an Verbrauch zunehmen wird. Das wird in Zukunft auch wieder runter gehen. Aktuell ist der Zyklus halt wieder bei viel Verbrauch.
 
Protogonos schrieb:
Nein weil sich keiner jedes Jahr einen neuen Rechner kauft! Sondern sie vergleichen mit denen denen sie annehmen das neue Rechner von dieser Gruppe gekauft werden, mit dem Vorjahresmodell zu vergleichen ergibt doch gar keinen Sinn oder kaufst du dir jedes Jahr neue Rechner?
Gerade Notebooks und Desktops behalten Nutzer viel länger. Dann wäre doch ein Vergleich mit irgendeiner alten intel Kiste das richtige, wenn es nach deiner Theorie geht. Wieviele Jahre sollen es denn sein? 3? 5? 7? Wünsch dir was?

Natürlich vergleicht man immer die Vorgängerversion. Macht Apple doch bei den iPhones auch. Genauso, Nvidia, AMD, Intel, Qualcomm, Samsung usw.. Und ja das sieht manchmal ziemlich mau aus. Bei der M3 Vorstellung wurde auch mit M2 verglichen.

Das hat nichts damit zu tun wann ich mir einen Rechner kaufe und macht sehr wohl Sinn.
 
@Cool Master:

Die Richtung hätte MS aber auch angeben können, bspw. bei einer ähnlichen Herangehensweise zu Rosetta 2 und der klaren Entwicklung hin zu ARM. Qualcomm bzw. seine Kunden haben das große Problem, dass es ein chinesisches Unternehmen ist. Ich vermute, da wird in Zukunft noch einiges passieren, was dieses Unternehmen schwächen wird. Handelskrieg, Technologieentzug, etc. Man sieht ja bereits bei TSMC, dass man seine Schäfchen ins Trockene bringen möchte, was China angeht.

Ich würde mir mal wünschen, dass wir in Europa Innovation in der Richtung hinbekämen. Die schlauen Chip-Köpfe in München hat Apple seinerzeit ja direkt aufgekauft.

Der Fokus auf Effizienz wird in meinen Augen nur weiter zunehmen, weil Energie eher teurer, als preiswerter werden wird. Das ist, zumindest wenn es um fossile Energieträger geht, ja auch irgendwie wünschenswert. Was da teilweise bei den PC-Komponenten los ist, ist ja nicht mehr feierlich.

Setzt man eine PS5 Pro mal in Relation zu einem PC-Monster, muss man sich schon fragen, ob es das sein kann, dass man sich mit einem Vielfachen des Verbrauchs ein paar mehr Details, mehr Frames, etc. erkauft.
 
trouble schrieb:
Wieviele Jahre sollen es denn sein? 3? 5? 7? Wünsch dir was?

Abschreibung für Rechner ist in der Regel 3 Jahre. Würde aber sagen heutige Rechner halten locker 5 Jahre bis man wirklich "Probleme" bekommt.

Holodan schrieb:
Der Fokus auf Effizienz wird in meinen Augen nur weiter zunehmen, weil Energie eher teurer, als preiswerter werden wird.

Wie gesagt Europa/DE Problem. Schau dir China, Südkorea, Kanada oder die USA an. Das ist zwar nur 2023 aber es zeigt wie es aussieht. Deswegen hört man aus dem Ausland auch praktisch keine Beschwerden bzgl. des Verbrauchs.

Holodan schrieb:
Setzt man eine PS5 Pro mal in Relation zu einem PC-Monster, muss man sich schon fragen, ob es das sein kann, dass man sich mit einem Vielfachen des Verbrauchs ein paar mehr Details, mehr Frames, etc. erkauft.

So viel Unterschied ist da nicht. Die Pro Zahlen gibt es noch nicht aber PS5 liegt bei ~200 Watt beim spielen. Das brauch ein normaler PC auch. Zudem kann ein PC mehr machen als nur BluRays abspielen und Spiele spielen.
 
Cool Master schrieb:
Abschreibung für Rechner ist in der Regel 3 Jahre. Würde aber sagen heutige Rechner halten locker 5 Jahre bis man wirklich "Probleme" bekommt.
Nope, 1 Jahr.
Cool Master schrieb:
So viel Unterschied ist da nicht. Die Pro Zahlen gibt es noch nicht aber PS5 liegt bei ~200 Watt beim spielen. Das brauch ein normaler PC auch. Zudem kann ein PC mehr machen als nur BluRays abspielen und Spiele spielen.
Ich sprach jetzt von dem Run auf neue, immer leistungsstärkere Hardware. Bei Notebooks und Smartphones hat man Limitierungen, die auf Effizienz drängen. Bei Spielekonsolen aufgrund ihrer Größe auch. Bei PC-Hardware werden Gehäuse größer, für die neuen Grafikkarten-Ungeheuer, genau wie die Netzteile. 1000W Netzteile waren vor ein paar Jahren ja die absolute Ausnahme. Wenn heute aber selbst die normale nVidia 4070 80% des Stroms einer PS5 verbraucht, liegt man in der Summe dann ja häufig doch deutlich höher. PC-Hardware ist unglaublich ineffizient.
 
Zurück
Oben