Test Apple vs. AMD & Intel im Test: Der M4 Pro im Vergleich zu Ryzen 9000 und Core Ultra 200S

Dittsche schrieb:
irgendwie recht lame, das überhaupt nicht erklärt wird, wie Apple diese leistung im vergleich zustande bringt.

Eine Mischung aus:
16k Pages statt 4k Pages
Potente Branch Prediction
Potentes Reordering
Viel Speicherbandbreite über Caches und Ram
Etwas Nachteil aufgrund höherer Latenz von LPDDRam, was aber gut kompensiert wird durch BP und Reordering.
In Mischung kann die Breite der CPU von bis zu 9Ops/Takt bei recht vielen Lastfällen gut ausgenutzt werden.

Grob ist das ein gutes CPU-Design und es wurde das Energie- und Transistorbudget genutzt welches TSMC N3 erlaubt.
 
  • Gefällt mir
Reaktionen: TomH22, Dittsche und ComputerJunge
@Volker: wenn Du /Ihr Effizienz in Handbrake testet, wie stellt ihr da sicher, daß Handbrake dann wirklich alles exklusiv in Software enkodiert? Gerade bei Enkodierung von Videos variiert der Stromverbrauch sehr je nachdem, ob die eingebauten ASICs komplett oder teilweise eingesetzt werden. Und alle hier getesteten CPUs haben ASICs für Hardware Enkodierung, wobei man zumindest bei x86 das in Handbrake auch abschalten kann.
Die Resultate mit den Zen5 haben mich überrascht; FFMPEG hat ja erst kürzlich eine Version rausgebracht, die zum ersten Mal AVX512 voll unterstützt bzw einsetzt; da hätte ich u.a. auch bessere Effizienz erwartet.

Zu den ASICs: Auch deshalb haben zB die größeren RTX Karten ja mehrere NVENC ASICs eingebaut, in CUDA würde das nämlich ein Vielfaches an Strom fressen.
 
ComputerJunge schrieb:
Gibt es eigentlich einigermaßen aktuelle Zahlen, was bei x86/64 das reine Decoding von der ISA auf die µOps an Performance kostet? Wäre - im Vergleich zu ARM - 1-2% eine realistische Größenordnung?
Wie soll es das geben? Außerhalb der jeweiligen Laboren hat ja keiner die Decoderstufen in einer Form vorliegen, dass man sie auf einem FPGA synthetisieren und separat testen könnte.
 
@Piktogramm Wobei es interessant wäre, die Frage bei Gelegenheit (Interview, Deep Dive) mit einem der Hardware Entwickler von AMD oder Intel zu stellen. Zumindest sollten die das ungefähr abschätzen können. Ob sie einem (CB) das dann mitteilen würden - das ist eine andere Frage.
 
Echt schicke CPU.
Jemand ne Ahnung was Apple da pro Stück in etwa hinlegt und was sich TSMC ein passendes Gegenstück (z.B. 9800X3D) kosten lässt.
Vielleicht sollten AMD und speziell Intel ja doch mal auf den "wir klatschen das mit Cache voll um die IPC zu pimpen und holen uns über den Fertigungsprozess noch ein paar Watt Vorsprung raus" Zug aufspringen.
 
Piktogramm schrieb:
Wie soll es das geben?
Ich frug ja aus meiner Ahnungslosigkeit heraus. ^^

Ich dachte naiv an etwas Synthetisches, welches

  • so "klein" ist, dass es nur im "Cache läuft" (diese Variable bleibt damit natürlich auch bestehen)
  • "irgendwie" ooo-"Sachen" "umgehen/minimieren kann"

Die anderen Caches (µOps und was weiß ich noch alles) sind aber natürlich auch noch da.
 
eastcoast_pete schrieb:
wenn Du /Ihr Effizienz in Handbrake testet, wie stellt ihr da sicher, daß Handbrake dann wirklich alles exklusiv in Software enkodiert?
Handbrake ist ein Wrapper für ffmpeg und solang man ffmpeg nicht die Parameter setzt Hardwarebeschleunigung zu nutzen, versucht es ffmpeg auch nicht.
 
CrustiCroc schrieb:
Du bist auch so einer....
Die aktuellen Apple M-Prozessoren sind einfach nur absolut beeindruckend.
Aber es darf einfach nicht sein, was nicht sein darf.
So nach dem Motto : "Ich will aber nicht das Apple Hardware top ist".
Meine Güte....
Setzt Mal deine Fanboybrille ab:

A) würde nirgends gesagt, dass die Hardware nicht top ist.

B) nur weil man die Fakten nicht hören will, bleiben sie trotzdem. Tut mir leid, dass dem so ist.
 
ErichH. schrieb:
Rein physikalisch gesehen - Input der elektrischen Leistung und Output des "Rechen"Leistung - würde mich sehr stark interessieren, wo Apple hier so stark gewinnt bzw. AMD/Intel so stark Federn lassen. Ist ja nicht so, als bauen die x86-Buden erst seit gestern CPUs. Ist jemand technisch kundig genug, um das kurz und knapp zu begründen?

Viele Grüße


Ist doch ganz klar 3 vs 6 NM, RAM quasi direkt neben der CPU, 28 Mrd Transistoren vs. 4,7 Mrd (9800x3D) usw. Das ist nichts anderes wie Physik und wie schnell elektrische Impulse übertragen werden können. ist der Weg kürzer sind die Daten schneller verarbeitet. Gibt es mehr Transistoren kann man mehr Impulse verschicken. Intel und AMD könnten das auch, wenn sie die Fertigung auf 3nm umstellen , die Transistoren erhöhen und den RAM daneben knallen würden. Vermutlich wären sie dann aber sogar schneller als ein M4.
 
Ich finde solche Vergleiche immer ein stück weit nichtssagend

Apple hat halt komplett auf deren OS optimiert

Auf Linux und Windows muss halt jegliche X86 Hardware laufen
Würde mich mal interessieren, wie viel man aus einem AMD / Intel raus quetschen kann, wenn man hoch spezialisiere Betriebssysteme nimmt, wie sie eben in Datacenters zu finden sind
 
prof.cain schrieb:
Wenn die Redaktion einen, auschließlich zur Steigerung der Active User Metrik, wieder mal bewusst polarisierenden, stark verkürzten und unvollständigen Erguss von sich gibt, dann habe nicht ich für Nachbesserung zu sorgen. Bin ja kein ausgebildeter Journalist.
Und im iPad Pro gibt es trotz Pro im Produktnamen kein M4 Pro SoC, um welchen es im Artikel geht.
Ergänzung ()



Genau das hat aber die Redaktion gemacht. Kreide es doch bitte den Verantwortlichen an.
Dann streich das iPad… die Aussage bleibt doch trotzdem die selbe… aber interessiert dich ja genauso wenig.

Nichts für ungut… das ist Zeitverschwendung.
 
eastcoast_pete schrieb:
@Piktogramm Wobei es interessant wäre, die Frage bei Gelegenheit (Interview, Deep Dive) mit einem der Hardware Entwickler von AMD oder Intel zu stellen. Zumindest sollten die das ungefähr abschätzen können. Ob sie einem (CB) das dann mitteilen würden - das ist eine andere Frage.
Das Nächste dazu sind die Aussagen von Jim Keller dazu, der ja fröhlich die Prozessorschmieden wechselte und mittlerweile lange genug bei seinem neuen Arbeitgeber ist, dass er dazu etwas sagen konnte. Grob ging das in die Richtung, dass CISC Decode gut genug verstanden wurde und (für größere CPUs) kein wesentlicher Nachteil ist.

Ansonsten gibt es längliche Analysen bei ChipsandCheese.

Aimero schrieb:
Apple hat halt komplett auf deren OS optimiert

Auf Linux und Windows muss halt jegliche X86 Hardware laufen
Würde mich mal interessieren, wie viel man aus einem AMD / Intel raus quetschen kann, wenn man hoch spezialisiere Betriebssysteme nimmt, wie sie eben in Datacenters zu finden sind

Das Betriebssystem hat bei CPU/Speicherbenchmarks nahezu keinen Einfluss. Der Code der ausgeführt wird wird ja von der Anwendung bestimmt. Wenn das Betriebssystem nicht grob scheiße baut und ständig Prozesse zu verschiedenen Prozessorkernen verschiebt oder anderen Threads Zeitslots zuschiebt. Das bekommen Windows, Linux und MacOS ganz gut hin (und wenn nicht gibt es meist zeitnah Patches).
Und viel herausholen lässt sich nicht. Die kritische Komponente bei Handbrake ist ffmpeg und da sind kritische Codepfade handgeklöppeltes Assembly. Bei Geekbench laut Dokumentation ist es ebenso. Wobei die Programme im Regelfall alle Logik enthalten um herauszusuchen welche Befehlserweiterung vorhanden ist um die Potentesten zu nutzen.

Und bei AppleSi gibt es ja auch den Quervergleich, wie die Performance mit Asahi Linux und Anwendungen ausschaut, zumindest bisher für M1 und M2. Die Prozessoren können was!
 
  • Gefällt mir
Reaktionen: sioh, TomH22, HamHeRo und eine weitere Person
Auch wenn ich die Geschäftspolitik von Apple ablehne, da haben sie eine Klasse CPU gebaut!
 
  • Gefällt mir
Reaktionen: Bjetre2 und HamHeRo
Oben steht: aktuelle MacOS Version, unten bei Energieverbrauch steht "Windows Desktop" ... finde den Fehler ;)
 
CrustiCroc schrieb:
Du bist auch so einer....
Die aktuellen Apple M-Prozessoren sind einfach nur absolut beeindruckend.
Aber es darf einfach nicht sein, was nicht sein darf.
So nach dem Motto : "Ich will aber nicht das Apple Hardware top ist".
Meine Güte....
Man will es einfach nicht glauben! Bin vor ein paar Tagen von Windows zu MacOS. Vorher ca. 25 Jahre Windows genutzt/benutzt! Mein Windows Rechner ging kaputt und da stellte sich die Frage. Einen neuen Computer oder ich schaue mal bei Apple vorbei. Und siehe da. Es wurde ein Apple. Die Umgewöhnung dauert ...ganz klar. Wollte mit zunehmenden Alter ein funktionierendes System ohne dieses ganze Theater bei Microsoft.

Man muss es erleben... sage ich nur! Wahnsinn was in dem "kleinen" Mac mini steckt! Hab dieses Wunderwerk seit einer Woche.
Man muss auch mal über den Tellerrand schauen. Hat sich gelohnt.
@CB Danke für den ausführlichen Test!
 

Anhänge

  • IMG_6048.jpeg
    IMG_6048.jpeg
    3,5 MB · Aufrufe: 66
  • Gefällt mir
Reaktionen: prayhe, nemomec und kim88
OK, ob eine Architektur nun intern und/oder nach außen RISC oder CISC ist und direkt einfache Befehle verarbeitet oder komplexe intern zerlegt, sollte nicht diesen Unterschied ausmachen. Schlussendlich können pro Takt simpel gesagt quasi atomare Speicher- und Int/Float-Rechenoperationen durchgeführt werden. Das ist aber nichts neues, das wissen alle entsprechenden Hersteller seit Jahren, wenn nicht Jahrzehnten. Was kam also hinzu? Pipelines, prädiktive Ausführung von Befehlen, Parallelität auf verschiedenen Ebenen. Klar ist auch, dass ein Maßschneidern auf bestimmte Architekturen diese möglichst optimal ausnutzt. Da mag Apple im Vorteil sein. Intel und AMD-Prozzis sind ja im großen und ganzen befehlskompatibel, aber eben nicht völlig gleich. Ein Vergleich mit auf die jeweiligen Architekturen optimierten Binaries wäre da interessant. Gibt ja genug (gekaufte, äh, "unterstützte") Pro-Intel-Beispiele.
Was bleibt noch? Die Fertigung? Ob ein Transistor nun in 6 oder 3nm gefertigt ist, ist für eine Funktion erstmal egal. Der Fertigung beeinflusst im wesentlichen den Energiebedarfs der Schaltung und die Signalwege. Kürzere Signalwege sind besser, aber so dramatisch spürbar (bei gleichem Takt)? Bleibt also nur noch der Tradeoff zwischen benötigter Spannung und der maximal stabilen Taktfrequenz.

So, die Ms takten nicht höher, verbrauchen aber weniger Energie. Daran sieht man, wohin Apple hier gegangen ist.
Verbleibt also noch das große Ganze: Monolith vs. Chiplet-Konzept bzw. quasi System-on-a-chip versus Chiplet+externe Peripherie (RAM z.b.).
Also Speicherlatenzen und (eventuell) -durchsatz.

Hab ich irgendwas entscheidendes vergessen?

Viele Grüße
ErichH.
 
-=:Cpt.Nemo:=- schrieb:
Auch wenn ich die Geschäftspolitik von Apple ablehne
Du meinst die Preispolitik? Die ist bei den Specs der Geräte nach "oben hinaus" natürlich (weil schon immer so) marktführend ambitioniert.

Bei Notebooks, den Tablets, aber aktuell besonders dem kleinsten Mac Mini, in den "kleinen" Ausstattungen bieten sie in meinen Augen dennoch ein hervorragendes Gesamtangebot.

Bei den größeren Bestückungen ist es - wie bei allen Produkten, um die es sich bei CB dreht - einfach nur die Frage, welcher Preis das Gesamtprodukt dem potentiellen Käufer wert ist.
 
Zuletzt bearbeitet: (Typos)
ComputerJunge schrieb:
Bei Notebooks, den Tablets, aber aktuell besonders dem kleinste Mac Mini in den "kleinen" Ausstattungen bieten sie in meinen Augen dennoch ein hervorragendes Gesamtangebot.
Joa, aber sobald du eine komponente änderst, kostet das system drölf milliarden und ist komplett uninteressant
 
  • Gefällt mir
Reaktionen: Bjetre2
Zurück
Oben