Test Apple vs. AMD & Intel im Test: Der M4 Pro im Vergleich zu Ryzen 9000 und Core Ultra 200S

Interessant wäre noch zu sehen was mit der Effizienz passiert wenn man nun den 285k und 9950x soweit einschnürt dass sie die gleiche multicore Performance haben wie der M4. Dann wären alle 3 gleich schnell und man könnte die Effizienz noch besser beurteilen. Am Schluss ist es halt schwierig. Man sieht es ja schon am 9700x mit 65 vs 105W. Da braucht der 9700x 59% mehr für 11% mehr Performance.

EDIT: Man kann halt immer in beide Richtungen argumentieren wenn man will

A: Apple bietet ein mit Standardeinstellungen effizienteres Produkt als Intel/AMD
B: Apple bietet ein mit Standardeinstellungen langsameres als Intel/AMD
C: AMD/Intel bieten ein mit Standardeinstellungen ein schnelleres Produkt als Apple
D: AMD/Intel bieten ein mit Standardeinstellungen ineffizenteres Produkt als Apple

Und alle 4 Aussagen sind wahr. Nur ist halt der Fokus immer ein anderer. Und egal welche der vier Aussagen man trifft wird es Leute geben die eben eine andere lieber gehabt hätten weil deren Fokus anders ist.

Wobei man fairerweise wenn man den Gesamtkontext betrachtet auch noch sagen sollte

E: Apple ist teuer und kann nur mit dem Apple Betriebssystem verwendet werden und hat nur eine begrenzte Auswahl an Software zur Verfügung.
F: Apple bietet mit dem geschlossenen Produkt ein optimales Paket für den Standard Endkunden.
G: AMD/Intel Produkte können in fast unendlich versch. Konfigurationen und Wünschen zusammengestellt werden, funktionieren auf X Betriebssystemen und bieten eine immense Rückwärtige Kompatibilität an. Zusätzlich all das zu einem deutlich geringerem Preis als Apple.
H: AMD/Intel machen es dem Standard Endkunden schwer die korrekte Wahl der Hardware zu finden und die meisten Systembuilder sind da nicht wirklich besser. Runde einheitliche Produkte wie bei Apple gibt es zwar auch allerdings muss man diese suchen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Xul und Obvision
Schon ennorm, was Apple da abliefert seitdem sie eigene Chips fertigen.

Aber gut, als Apple, kann man sich tatsächlich die fähigksten, klügsten und kreativsten Köpfe ins Team holen.
Ich mein, wer hat nicht Bock drauf für Apple zu arbeiten?

Ich glaube wirklich, das vieles daran liegt, dass da einfach richtig fähige Leute in der Entwicklung sitzen. Nicht solche hängen gebliebenen, weltfremden, sondern fähige, dynamische Leute.

Das + finanzielle Möglichkeiten resultiert meiner Meinung nach genau in dem, was man in diesen Benchmarks hier sieht.
 
fox40phil schrieb:
@Cool Master im Software Bereich ist doch nichts unmöglich?! Wieso denkst du dass es nie möglich sein wird?!
Man kann doch fast alles aufknacken! Selbst Kameras und Konsolen. Windows on ARM müsste dich theoretisch laufen? Evtl mit etwas simulation Oder so?
Fehlende Treiber. Asahi Linux ist aber ein Projekt, dass zumindest Linux auf Macs zum Laufen kriegen will. Aber besonders stabil ist das alles nicht.
 
  • Gefällt mir
Reaktionen: Cool Master
@fox40phil

Weil Apple das wie es noch auf den Intel Macs war nicht freigeben wird. Der Bootloader ist das kleinste Problem wie Asahi Linux zeigt. Das Problem werden aber die Treiber bzw. das fehlen davon sein die Apple nicht bereitstellen wird bzw. überhaupt nicht hat.

Ich hatte bei mir schon Windows on ARM getestet über Parallels und ja es läuft aber sobald man etwas mehr machen will was die GPU brauch geht nichts mehr. Man muss es also wirklich wollen. Da ist es Sinvoller, wenn auch nicht ökonomisch oder -logisch, ein Win Rechner sei es x86 oder ARM zu kaufen wenn man Win brauch.
 
Der M4 (Pro) ist sicherlich ein kleines Biest, aber etwaige Geräte sehr teuer. Man lebt auch hier beim Verkauf vom Apple-Effekt.
 
  • Gefällt mir
Reaktionen: fox40phil
Also, die effiziens ist dann doch gar nicht so beeindruckend, 50%/W mehr bei einer RISC CPU?
Also, man opfert jede Menge Instruction Sets, man kann so viele Programme nicht nutzen, Gaming ist nahezu Unmöglich bzw. Lachhaft wenn mit "Flüssigem WoW" angegeben wird, ein Spiel das einfach auf jedem A7 Prozessor noch läuft.
Da hätte ich schon viel mehr erwartet.
 
Meine Systeme laufen bis auf eines nocht mehr mit Windows. Dieses eine ist wegen DAW bzw eher wegen den Plugins notwendig, weil diese nicht auf Linux laufen (mangelnde Unterstützung seitens NI). Da habe ich überlegt, das letzte Windows gegen Apple zu tauschen, weil da der Audio-Kram auch unterstützt wird. Aber ich bräuchte dafür schon minimum 24GB Arbeitsspeicher und 2 TB SSD, was dann bei Apple über doppelt so teuerist, wie meine aktuelle Lösung, mit 32GB und 4TB. Ja, in anderen Belangen ist der von Apple auch besser, aber was habe ich den davon, wenn die Leistung bereits völlig ausreicht und ich nichts misse, außer eben, dass es Win11 ist.
Ne, das Upselling bei Apple ist so extrem, dass es Abseits von Basismodellen wieder uninteressant wird.
 
  • Gefällt mir
Reaktionen: Xul und fox40phil
chakko schrieb:


Das heißt für mich, der Vergleich ist überhaupt kein Vergleich, …

Das hab ich doch geschrieben?!
 
GUN2504 schrieb:
Kurz, knapp und präzise @CB :)

Die Leistung vs. Stromverbrauch ist wirklich imposant !
Ja, muss man schon sagen. Mit einem drittel der leistungsaufname die gleiche leistung(arbeit) zu schaffen ist schon bemerkenswert.

Hätte mir aber bisschen mehr Details gewünscht.

Wird soviel auf dedizierte Bereiche des SoC durch angepasste Software ausgelagert oder wo kommt die Effizienz her? Allein von den 3nm fertigung kommen keine 1/3 der Effizienz.
 
  • Gefällt mir
Reaktionen: MGFirewater
Nach all den bisherigen Enttäuschungen am Hardwaremarkt dieses Jahres, habe ich mich nun auch für ein Upgrade meines doch angestaubten MBP 2018 entschieden und bin mit dem 16" M4 Max "all in" gegangen. Es ist schon krass was das Ding kann und im Vergleich mit herkömmlichen RAM und GPU VRAM Kombination, lässt der Unified Memory mit der M4 Max hier richtig seine Muskeln spielen. Meine paar Sachen mit Local AI sind zwar hier und da manchmal etwas langsamer (nur auf pure Token/s heruntergebrochen, aber dafür kann ich mit Modellen mehr als ~22 GB hantieren. Da mich hier keine Limitierung des dedizierten GPU VRAM trifft, ist dies dann sogar noch besser, wenn man Multi LLM Prozesse laufen lassen will.
Gepaart mit der Effizienz einfach ein Traum diese Kombi + Man ist auch noch mobil und ist nicht unbedingt an einem Ort gebunden. :p
 
  • Gefällt mir
Reaktionen: stevefrogs
Volker schrieb:
Doch der Blick ins Detail mit ähnlicher Anzahl an Kernen/Threads zeigt dann schnell, dass da immer noch viel Leistung drin steckt: Intels Core Ultra 5 245K hat 14 Kerne, der AMD Ryzen 7 9700X hat 16 Threads – in beiden Fällen ist der Apple M4 Pro vorn.
Kann ich nicht ganz nachvollziehen. 10+4 Kerne soll nah an 8 Kerne sein? Da ist der AMD Chip aber erheblich kleiner. 12 Zen5 Kerne sind da wohl deutlich näher am gleichen Transitiorbudget.
 
Cool Master schrieb:
Kurz und Knapp:

ARM ist speziell auf die Anforderungen von dem Einsatzgebiet abgestimmt.
x86-Architektur ist stärker auf universelle Rechenleistung ausgelegt.

ARM = Skalpell
x86 = Schweizertaschenmesser

ARM ist genauso General Purpose wie x88-64. Apple verbaut zusätzlich spezielle Hardware, um bestimmte Aufgaben wie eben Video-Encoding zu beschleunigen.

Daher ist auch die Aussage von anderen, dass Macs nur für Media Creation taugen, einfach nicht richtig. In der Software-Branche haben Macs nicht umsonst eine so hohe Verbreitung gefunden -- sofern man außerhalb der Microsoft-Welt unterwegs ist.

Ich bin Ende 2020 von einem 15" MacBook Pro Late 2017 mit Core i7-7700HX und 16 GB RAM auf M1 MacBook Air mit 8 GB RAM umgestiegen. Das Air ist regelrecht Kreise um das Pro geflogen, trotz deutlich weniger RAM. Ich habe damals diverse Dinge ausprobiert, u.a. das Kompilieren von Java- und Node-Projekten.

Hier ein paar Ergebnisse:

Java (natives JDK 1.8 für alle Plattformen)

GerätBuild Time (inkl. Tests)Build Time (exkl. Tests)
MacBook Pro223 s183 s
MacBook Air85 s63 s
PC (R9 3950X, 32 GB, W10)84 s66 s

NodeJS Frontend Build (nativ für x86 unter macOS und Windows 10, via Rosetta 2 für macOS aarch64)

GerätDauer
MacBook Pro native27.8 s
MacBook Air with Rosetta 220.7 s
PC native20.6 s

Die gerade mal drei Jahre alte Intel-Kiste sah überhaupt kein Land gegen den normalen M1, in einem komplett passiv gekühlten MacBook Air. Nicht mal mit NodeJS, das damals noch gar nicht nativ für macOS aarch64 verfügbar war. Als später eine native Version inkl. einer Depedencies endlich kam, war der Build noch mal um einiges schneller. Die gleiche Erfahrung konnte ich mit einem anderen Projekt mit Ruby machen. Auch hier war Ruby mit Rosetta 2 um einiges schneller als die native x86-Version auf dem MacBook Pro.

Mein großer Desktop-Rechner mit einem 3950X war in etwa genauso schnell wie der M1. Dabei hat der M1 unter Last weniger gezogen, als der Ryzen im Idle ...
 
  • Gefällt mir
Reaktionen: stevefrogs
Volker schrieb:
Selbst wenn andere CPUs unter Volllast schneller sind, verbrauchen sie dabei auch oft nicht nur das Doppelte, sondern gar mehr als das Dreifache an Energie. Das zeigt sich im Rating „Leistung pro Watt“ in Handbrake.
Ist das verwunderlich? Selbst der gleiche Chip wird doch extrem ineffizient nach oben raus. Der Vergleich ist doch nicht wirklich legitim.
Takte die schnelleren Prozessoren runter, so dass sie die Performance der Apple CPU haben und die Effizienz wird deutlich näher dran liegen.
Na klar sind die Apple CPUs effizient, aber der Artikel ist sehr tendenziös geschrieben. Das sind doch keine fairen Vergleiche. Man kann das durchaus gegeneinander testen, aber der Begleittext sollte das dann vernünftig einordnen und nicht effektheischend möglichst größtmögliche Zahlen liefern.
 
Zuletzt bearbeitet:
Tja und trotzdem ist das Appleteil ein ziemlicher Krüppel. Da kann er noch so schnell sein, wenn man ihn nicht einsetzen kann.
 
fox40phil schrieb:
Ich kann mir vorstellen, dass man die Treiber aus dem MacOS extrahieren und übersetzen müsste. Kluge und fähige Köpfe finden sicherlich einen Weg :)

Nein, das wird nicht passieren da die im Kernel sind und mittels einer Kernel Extension geladen werden. Da kommt man nicht dran. Zudem sind alle Treiber kompiliert ergo müsste da mittels Reverse Engineering dran was in der Regel Illegal ist.
 
  • Gefällt mir
Reaktionen: stevefrogs, fox40phil und sikarr
The_Wizzard schrieb:
Tja und trotzdem ist das Appleteil ein ziemlicher Krüppel. Da kann er noch so schnell sein, wenn man ihn nicht einsetzen kann.
Was meinst du? Zum zocken holt man sich keinen Mac und ja, das ist er ein ziemlicher Krüppel.

Außerhalb davon sind die Macs Windows in allen Belangen überlegen. Ich habe jahrelang mit Windows gearbeitet (Podcasts schneiden, Videos schneiden, Grafikarbeiten). Windows, seien es PCs oder Laptops, kommen nicht mal annähernd an die Macs mit M-Prozessoren ran.
 
  • Gefällt mir
Reaktionen: stevefrogs, Sirhaubinger, pseudopseudonym und eine weitere Person
ErichH. schrieb:
Rein physikalisch gesehen - Input der elektrischen Leistung und Output des "Rechen"Leistung - würde mich sehr stark interessieren, wo Apple hier so stark gewinnt bzw. AMD/Intel so stark Federn lassen. Ist ja nicht so, als bauen die x86-Buden erst seit gestern CPUs. Ist jemand technisch kundig genug, um das kurz und knapp zu begründen?

Viele Grüße
Die x86 architectur ist halt seit 1986 mehr oder minder fix, mit späteren extensions. SSE , amd64 etc.
Mit der ewig einzuhaltenden Rückwärtscompatibilität sind ide fortschritte schwierig.

CISC CPUs (wie die x86) ist ausgelegt möglichst wenig Code für eine operation zu benötigen. Sprich multi anweisungen werden in eine hardware pipline gegossen.

Speicher sind in blöcken/matrizen organisiert und wenn ich 2 zahlen mit einander multiplizieren will reicht in CISC assembler

MULT 2:3, 5:2

was in C ungefähr a = a*b, entsprechen würde.

In RISC was nur basic kommandos kennt würde das ganze so aussehen:

LOAD A, 2:3
LOAD B, 5:2
PROD A, B
STORE 2:3, A

Sprich der compiler hat in CISC viel weniger zu tun und der codespeicher ist wesentlich geringer.
Die software war 1986 weit aus weniger fortgeschritten, und speicher war extrem teuer. Also war CISC der weg. Darin wurden die entwicklungsgelder gesteckt und man hat eine gewaltige infrastruktur aufgebaut für CISC und sich auf eine weltweite basis geeinigt (x86) mit einigen wenigen kaum nennenswerten konkurrenten.

Heute ist die software besser, speicher nicht mehr so teuer und die transistoren die für komplexe CISC hardware genutz wird kann bei gleicher anzahl von transitoren für anderes genutzt werden.

Und man darf ned vergessen das eine CISC anweisung mehrere taktzyklen dauern kann, Es ist also nicht schneller als als die RISC anweisungen in sequenz. RISC anweisungen sind nach meinem verständis immer 1 -Taktcyclus.

Man hat also mehr kontrolle, aber auch mehr codespeicher.


Im endeffekt hat Intel die sache am leben erhalten in dem es die steigende komplexität einer CISC hardwareentwicklung mit ihren damals, abstrusen ressourcen erschlagen hat.

Heute entwickeln tatsächlich fast alle außer AMD/INTEL RISC designs
 
  • Gefällt mir
Reaktionen: stevefrogs
Zurück
Oben