Test Apple vs. AMD & Intel im Test: Der M4 Pro im Vergleich zu Ryzen 9000 und Core Ultra 200S

Salamimander schrieb:
Dazu fällt mir echt nichts mehr ein, unpassender kann man nicht vergleichen ....
Genauso wie MacOS vs. Windows und trotzdem wird es gemacht.
Dieser Prozessorvergleich ist eigentlich totaler Blödsinn:
Will ich MacOS kann ich nur Apple Prozessoren wählen. Will ich Windows, kann ich nur zwischen AMD/Intel wählen.
Baut dir ein Hersteller ein Windows Laptop mit 160w/h Akku und dicker CPU und wiegt dabei weniger als das MacBook, könntest du es trotzdem nicht kaufen wenn du MacOS möchtest.
 
  • Gefällt mir
Reaktionen: guzzisti, sikarr und Glendon
chakko schrieb:
Klar, ich kann wohl alles irgendwo, irgendwie zum laufen bringen, die Frage ist halt ob sich der Aufwand lohnt, zumal auch die Effizienz flöten geht, was ich jetzt beim drüber lesen so gesehen habe. Treiberanpassungen und Energiemanagement kann gar nie so gut sein wie nativ unter MacOS und daher könnte sich Linux mit M2 auch niemals einem Vergleich stellen. Auch wenns immer noch eine beeindruckende Arbeit ist, aber genau auf das will ich ja hinaus. Die x86 Prozessoren machen alles mit, die Apple CPU's halt nicht oder nur unter großer Anstrengung, daher ist der Vergleich zwischen den CPU's eigentlich nicht fair und daher zu vernachlässigen.

Apples CPU ist unter MacOS herausragend, ich habe selber auch ein M1 MacBook, das kann so stehen bleiben, nur muss man es nicht höher hängen als es ist und dazu gehört eben das geschlossene Apple System.
Das genau ist es wohl. Und deshalb wird x86 auch nicht aussterben, weil es eben eine unglaubliche Fülle an unterschiedlicher Hardware bedienen kann, dieses "Problem" hatte und hat Apple halt nie gehabt, weil die immer nur ihr eigenes Portfolio bedienen. Was natürlich auch in viel höherer Effizienz mündet, bzw. münden kann - wenn man es denn drauf hat in der Entwicklung.
 
pipip schrieb:
Man sollte nur nicht vergessen, dass der Apple Chip in der neusten Fertigung produziert ist und zeitgleich der Chip per se auch größer ist. (Gilt auch für den CPU Core)
AMD selbst nutzt nur einen verbesserten 5nm Prozess, Apple hingegen bereits 3nm.

Klar Fertigung ist nicht alles!

Habe beides im Einsatz, also finde die Apple Hardware supi
Ich wollte es grad anmerken. Apple und auch Core Ultra 200 nutzen schon neuste 3nm Technologie.
 
@Cr4y: Ich müsst jetzt nachschaun, wie Lunar Lake genau angebunden ist, schlecht machen kann man es ja immer... :-) Nachdem viele Anwendungen halt ins Speicherlimit laufen, was man bei perfekt skalierenden Multithreading-Sachen gut sehen kann (die dann eben nicht mehr perfekt skalieren), denke ich, dass ein Großteil des Performancegewinns genau daher kommt. Sonst müsste Apple irgendetwas machen, was die anderen gar nicht machen (also nicht nur ein ultrabreites frontend oder so, sondern irgendein "Trick"). Die Speicherlatenz auf modernen Prozessoren ist halt (fast) immer noch genau schlecht wie vor 20 Jahren. Holst du da 20 % raus, ist man "einfach" schneller.

Un wie schon von anderen angemerkt: Nehm Geekbench raus, schon ist der M4 auf dem Niveau von AMD im Singlecore. Ich würde mir für solche Tests halt gerne auch mal ein paar Programme wünschen, die wirklich "hart" sind, also wo man ans Limit der Maschine geht. Z.B. wirklich große Datenbanken, Compiling vom Chrome (nicht dem Linux Kernel, das ist ein Witz an Speicherbedarf und Rechenaufwand, die ganzen Module passen da in den Cache), so in die Richtung. Da trennt sich dann die Spreu vom Weizen, spannend sind so Speicherfresser, wenn man die zu vergleichenden Systeme auch ausmaximiert, also wo bekomme ich am meisten Performance, wenn ich die besten Komponenten wähle. Bei meinem Beispiel (Synthese von FPGA Code, das leider nicht gebencht werden darf (Lizenz verbiete das)) z.B. entscheidet in der Regel der Arbeitsspeicher, wie viele Runs parallel laufen, da ist dann Kombination aus viel Speicher, viel Kerne und schnellen Kernen entscheidend. Bei Datenbanken kann man dann die Cache entsprechend auslegen, das bencht dann die SSD mit, aber das ist halt auch ein Teil der Systemperformance.
 
  • Gefällt mir
Reaktionen: Cr4y
MalWiederIch schrieb:
400-450W liegen hier aber bei der GPU und eine 4090 würde doch in einem ARM PC genauso viel verbraten - wo ist da die Logik? Oder gibt es hier bereits effizientere Lösungen in deiner kleinen Schublade?
Ansonsten ist es doch peinlich deine recht kleine Last mit einer großen Last zu vergleichen und dann sinnfrei mit



Oder vergleichst du jetzt plötzlich auch den Wasserkocher und den Fön mit der Effizienz eines Chips? :stacheln:
Naja, bei Wasserkochern ist doch recht wenig Spielraum für Optimierung vorhanden. ;)

Der M4Pro war im MultiCore Test 15% schneller als der 9800X3D. im Windows-Desktop war der M4 bei 3Watt und der 9800X3D bei 20W. Beim Handbrake Max Test verbrauchte der M4 nur 1/3 des 9800X3D.

Da lagen zwischen beiden CPUs also keine Kleinigkeiten oder vielleicht Welten, sondern ganze Galaxien dazwischen. Das ist der Weg den die Menschheit gehen muss.

Und zum Thema Grafikkarten:

Früher reichten FullHD und 60Hz aus.
2 Millionen Pixel die 60mal in der Sekunde aufgebaut werden müssen.

Mittlerweile soll es mindestens 4K = 8,3 Millionen Pixel mit 165hz oder mehr.
Dh 4mal so viele Pixel müssen 3mal so oft neu aufgebaut werden.
Reinste Energieverschwendung für sinnlosen Nonsense.

Wäre das nicht super wenn man anstelle immer höhere Auflösungen und Hz-Wettrennen, nicht alles darauf konzentrieren würde die Chips effizienter zu machen?


Und nein, ich bin kein Öko. Aber bei der Menge an Menschen auf diesem kleinen Planeten sollte langsam Effizienz eine wichtigere Rolle spielen.
 
  • Gefällt mir
Reaktionen: Hexxxer76
Glendon schrieb:
Dann ist es aber kein reiner "Beschleunigungsvergleich" mehr. Es würde vielmehr das Verhältnis von Beschleunigung zu Verbrauch gemessen. Auch ein legitimer Vergleich, aber eben ein anderer.
Die Frage ist, ob ein Beschleunigungsvergleich, wenn wir bei solch marginalen Unterschieden sind, überhaupt alleingestellt noch einen Sinn ergibt. Hier ist die Frage: Wie oft sind die 35% relevant. Da du mit dem Pro ja einen erweiterten Anwendungsbereich hast, allem voran mobiles Arbeiten, kann man durch das hinzuziehen der Wattzahlen eben doch eine sehr relevante Aussage tätigen: Nämlich den Anwendungsfall. Ich denke, dass viele Menschen eher einen Fiat Panda als einen F1-Wagen benötigen. Der F1 Wagen funktioniert für einen Rennfahrer ja nur im Office, während er mit dem Panda auch von der Rennbahn runterfahren kann.

Wenn es hier um 600% mehr Leistung gehen würde, dann hättest du Recht. Aber so ist die Wattzahl in jedem Fall absolut relevant.
 
Die Effizienz des M4 an sich ist wirklich beeindruckend.

Es wäre sehr schön, wenn CB den M4 Max herbekäme. Damit sind GPU-Vergleiche auch ganz interessant.
Nur, damit auch die Graka-Freunde ihr Fett abbekommen und hier weiter über Äpfel und Birnen geschimpft werden kann. ;)

Wenn man bedenkt, dass eine RTX4090 in Blender nur etwa 30% vor einem M4 Max liegt.
Naja, bei der RTX5090 werden es dann wieder fast 100% Vorsprung sein.
Aber zu welchem Preis in € und bei der Leistungsaufnahme? :evillol:

Und dann kommt noch irgendwann (wahrscheinlich) der M4 Ultra ...
 
da man bei apple leider nichts optimieren kann: bitte bei den konkurrenz optimieren!
einerseits zu mehr leistung oder zu mehr effizienz oder sogar beides gleichzeitig.

zb schnellerer ram, kürzere latenzen, übertaktung, undervolt, powerlimit erhöhen/verringern, smt deaktivieren, kerne deaktivieren, module deaktivieren, kühlung (luft/wasser/stickstoff), zeitgleiche beanspruchung der gpu (bei apple nur integrierte, bei konkurrenz einerseits die integrierte und andererseits jede beliebige dedizierte) etc.

bitte dazu noch spieletests im cpu- und gpu-limit.

kann man damit aufholen oder sind singlecoreleistung und effizienz weiterhin unerreicht?

edit: und bitte noch ein diagramm mit preis pro leistung bzw umgekehrt (dabei bei der konkurrenz das minimum annehmen für ein brauchbares system, also billigstes mainboard etc, denn bei apple ist minimum=maximum durch fehlende konfigurierbarkeit)
 
Zuletzt bearbeitet:
Ich hätte es noch geil gefunden, wenn ihr den M4 Max mit reingenommen hättet in maximaler Ausführung und ggf. nächstes Jahr dann auch den M4 Ultra.
 
Ein Programm das super duper Schnell läuft. 👏

Alle paar Jahre das selbe, jemand holt ein rausgepickten Benchmark oder Programm raus und zeigt wie schnell Apple doch ist.
Aber sagt nicht das bei allen anderen Anwendungsfällen das System verkackt.
So geht Qualitäts Bericht Erstattung, oder ist das schon klickbait?
 
Mal vorweg: Ich schreibe gerade vom einem MB Air M3 und verwende berufliche einen MB Pro.

Ich bin besonders vom MB Air ein Fan, zumal Apple endlich von den 8GB als Minimalkonfiguration abgerückt ist.

Trotzdem finde ich den Test hier äußerst unausgewogen. Warum dieser unsinnige Vergleich mit Desktopprozessoren? Warum kein Vergleich mit potenten Mobilprozessoren (denn nichts weiter ist auf der M4 SoC)?

Was ist mit AMD Strix Point ?

Die Kollegen von NBC haben dem M4 schon vor einem Monat auf den Zahn gefühlt und dabei z.B. auch einen Ryzen 9 HX 370 mit einbezogen, was viel mehr Sinn macht.

Da ist der Gap bzgl. Effizienz gar nicht mehr groß und auch die absolute Pertformance spielt in einer ähnlichen Liga. Wenn AMD jetzt auch noch einen 3nm Prozess zur Verfügung hätte, lägen da nicht mehr die postulierten Welten dazwischen.

Einmal mehr kommt das Gefühl auf, dass es CB bzgl. Apple etwas an Objektivität vermissen lässt.

Aktuell ist der MB Pro 14 mit M4 (nicht pro) und 16/512 durchaus ein preiswertes Angebot und ich bin auch schon gespannt auf die MB Airs mit M4.

Aber jeweils nur in der Minimalkonfiguration. Die Upgradepreise von Apple sind einfach nur unverschämt und bei den Ultra/Max Varianten ist die Effizienz auch nicht mehr so doll.

Und man muss mit MacOS auch klar kommen wollen/können. Dass der Workflow auf MacOS besser wäre, ist ein weit verbreitetes Märchen von FanBoys., die nichts Anderes kennen.

Es hat alles seine Vor- und Nachteile und unter dem Strich geben sich Windows, MacOS und inzwischen auch Linux nicht wirklich etwas.
 
  • Gefällt mir
Reaktionen: Seven2758, guzzisti und nospherato
sLyzOr schrieb:
Der Großteil des Benefits (wahrscheinlich >>95%) kommt daher, das Apple die modernste Fertigung von TSMC nutzt und gleichzeitg auch noch genug Siliziumfläche (die-area) spendiert. Die restlichen paar Prozent kommen dann aus optimierungen und entfernung von irgendwelchen x86 Altlasten (Unterstützung für veraltete Befehle etc).

Das dem nicht so ist, hat Intel doch gerade erst bewiesen…
 
Es hat schon Vorteile wenn Hard- und Software aus einer Hand kommen.
Man kann die CPU genau auf den Code abstimmen und andersherum.
 
HamHeRo schrieb:
Dass der Workflow auf MacOS besser wäre, ist ein weit verbreitetes Märchen von FanBoys., die nichts Anderes kennen.
Ich bin von @Firefly2023 mehrfach "ausgezeichneter" Apple-Hater und muss trotzdem sagen, dass der Workflow deutlich besser als unter Windows ist, jedenfalls nach meinem Empfinden. Nur mein Linux ist mir lieber, aber mobil nutze ich lieber ein Macbook (auch dieser Test zeigt warum).
 
Zurück
Oben