News Geekbench: Apple M4 hat die mit Abstand höchste Single-Core-Leistung

JunkScore schrieb:
Das liegt daran, dass die Apple Silicon Prozessoren auf single thread optimiert sind. Es gibt leider immer noch zu viele Programme, die nur auf einem Thread laufen und dafür sind diese Prozessoren hauptsächlich gemacht. Dazu kommt, dass auch ARM nicht zaubern kann. Bei multithread galt schon immer "viel (in dem Fall Strom) hilft viel"
Das wird auch immer so bleiben.

Vor 10 Jahren war es genau so Fakt wie heute.

Du kannst nicht unendlich parallelisieren. Das ist technisch unmöglich.
Deshalb war viele Kerne schon immer Schwachsinn.
Das wurde nur gemacht, weil man nicht fähig war die Einzelkernleistung signifikant zu steigern.

Fakt ist aber, ein schneller Kern ist immer, IMMER schneller und Effizienter als mehrere die die gleiche Aufgabe erledigen.

Wer Programmierer ist, weiß wovon ich spreche.
 
  • Gefällt mir
Reaktionen: Project 2501, gesperrter_User, KlaasKersting und 2 andere
Piktogramm schrieb:
Naja es wurde von Sprachen geschrieben.

Im ursprünglichen Kommentar war die Rede davon, dass es den Rechenwerken egal ist, welche Sprache der Vorbau spricht… und ich habe diesen Kommentar so interpretiert: Vorbau = Decoder… also Sprache = ISA… danach geht es nur noch um uOps.

Und CoolerMaster liest auch nicht richtig, was andere schreiben. 😉
 
  • Gefällt mir
Reaktionen: Flutefox, incurable und Miuwa
Apfels M SOC/CPU sind am Ende nur ARM. Das hat paar Vorteile aber auch viele Nachteile.
Es gibt kaum Treiber, du kannst in ein ARM System nicht einfach so was Erweitern oder Anstecken, wie es beim X86 System mit Bios der Fall ist. Apfel kommt das natürlich gelegen. Du bist gezwungen zum Großteil ihre Komponenten oder besser ein neueres Model zu kaufen, was sehr teuer ist. Dann fehlen einige Instruktionen etc. ARM wird niemals so supportet werden wie x86 und das ist auch gut so.
 
  • Gefällt mir
Reaktionen: Flutefox
75% der Multicoreleistung eines 7950X3D in einem Tablet ist der helle Wahnsinn!
Technologisch extrem beeindruckend, frage ich mich aber ehrlich gesagt wozu man das will?
 
  • Gefällt mir
Reaktionen: RogueSix
Dürfte multicore nun genau so schnell sein wie mein M1 Max :D
 
Hm... also SingleCore-Leistung ist für mich tatsächlich kein relevanter Faktor. Zumal man an dieser Stelle auch genau so hervorheben muss, dass die MultiCore-Leistung 26% hinter einem 7950X3D liegt. Vor allem stört mich aber der Preis. Selbst wenn man nur den M4 haben will in der kleinsten Konfig (also 11", 1TB, Standardglas, Wifi) muss man schon 1.929€ hinlegen. Aus meiner Sicht für ein Tablet völlig überzogen. Von der teuersten Konfig (13", 2TB, Nanoglas, Wifi+Cellular) zum Preis von 3.139€ will ich mal gar nicht reden. Aus meiner Sicht völlig realitätsfremde Preise, die leider bezahlt werden. Es ist halt immernoch nur ein Tablet.

Und ja... ich nutze berufsbedingt (wird mir von der Firma gestellt) selbst auch ein IPad Pro (12,9", 256GB, Wifi+Cellular, 5. Gen) und finde es trotzdem völlig überkandidelt.
 
  • Gefällt mir
Reaktionen: Bänki0815 und MikePayne028
TomH22 schrieb:
Intel scheint auch mit AVX immer noch erhebliche Effizienzprobleme zu haben. Sobald eine Anwendung AVX nutzt (z.B. die Hintergrund Effekte in Teams Videos), geht die Leistungsaufname deutlich hoch.
AVX, AVX2 und AVX512 sind tendenziell sehr effizient. Die Vektoren bzw. bedingt Matritzen mit skalaren Operationen zu berechnen würde ein Vielfaches an Zeit benötigen, bei nur mäßig gesenktem Bedarf an elektrischer Leistung. Der Zeitfaktor wird dabei so groß, dass am Ende der Energiebedarf deutlich höher liegt.

Ansonsten schlägt die Physik einfach zu. 256bit Vektoren fassen z.B. acht 32bit Werte. Das Backend für Skalare Instruktionen schafft 2..4 32bit Instruktionen parallel. Solang diese Steigerung an Durchsatz einen kleineren Faktor an gesteigertem Bedarf elektrischer Leistung bedeutet, ist es ein Gewinn.
 
  • Gefällt mir
Reaktionen: Project 2501, incurable und TomH22
immortuos schrieb:
@nlr genau wegen solchen Leuten, die absolut falsche Schlussfolgerungen ziehen, wäre ein klarer Hinweis auf die Diskrepanz zwischen Geekbench Scores auf unterschiedlichen Plattformen im Vergleich zu Real-world Anwendungen durchaus gut :freak:
Und wer legt fest was die Referenz ist und was nicht, wer legt fest welcher Benchmark Real World Anwendungen am besten abbildet, legst du das fest, ich bezweifle es?! Somit hast du mindestens genauso wenig Ahnung wie ich. Das was du glaubst zu wissen, ist maximal hören sagen. Das natürlich gewisse Leute alles schönreden und nicht wahrhaben wollen das dass böse Apple einfach die etablierten Player alt Aussehen lässt, ist mir schon klar. Aber das passiert wenn man sich jahrelang auf den Lorbeeren ausruht, da brauch ich bloß Richtung Intel und Microsoft schauen, letzteres scheint ARM auch nicht ernst zu nehmen, mal schauen wie weit sie mit dieser Einstellung kommen....
Ergänzung ()

Debian User schrieb:
Meinst du Apple? Die sind doch CPU und GPU Hersteller. Die ARM CPU ist selbst designt.
Ja, aber das ist nicht deren Ursprung, dass kannste wohl kaum mit Intel und AMD vergleichen.
 
  • Gefällt mir
Reaktionen: Project 2501
thuering schrieb:
This.
Und mir geht's ehrlich auf den Sack, dass sobald es um Apples M-CPUs geht, immer von Geekbench Gebrauch gemacht wird und CB dass auch so kommentarlos übernimmt!
Definitiv. Aber ehrlich gesagt fühlt sich der M3 Max im MBP noch viel schneller an als Benchmarks das suggerieren. In Ableton Live 12 mag mein MacBook Pro mehr Spuren handhaben als ein 7950x. Das ist schon beachtlich.
 
  • Gefällt mir
Reaktionen: OldRay89 und GrayMatter
Ich kann diese benches eh nicht für voll nehmen, auch bin ich mir zu 100% sicher das die Apple CPUs mit windows und Linux hoffnungslos verhungern werden. Ach vergessen geht ja nicht wirklich wegen Arm, das macht diesen vergleich für mich noch lächerlicher. Arm und X86 sind zu verschieden um da auch nur im ansatz an einen vergleich denken zu können.
Der einzige Vorteil den ich bei Apple sehe ist das alles aus quasi einer hand kommt und perfekt füreinander abgestimmt ist hard- wie auch software, nicht mehr nicht weniger.
Packt ein windows auf die Apple M teile oder das Apple OS auf X86 Hardware, wobei ersterers aufgrund geschlossener Treiber nicht machbar ist, dann kann man im ansatz einen vergleich ernst nehmen.
 
Philste schrieb:
Der M4 setzt wohl auf ARMv9, damit auf SME, was bei einem der Geekbench Tests einfach mal die doppelte Leistung bringt. Lässt man den Test drin sinds 9% IPC, lässt man ihn weg sind 3% IPC.
https://www.geekbench.com/blog/2024/04/geekbench-63/

  • Introduce support for Arm Scalable Matrix Extensions (SME) instructions. Geekbench 6.3 includes SME implementations of the matrix multiplication kernels used by the Geekbench 6 machine learning workloads.

For systems without SME instructions, Geekbench 6.3 CPU Benchmark scores are comparable with Geekbench 6.1 and Geekbench 6.2 scores. Systems with SME instructions enabled will score higher in Geekbench 6.3 than in earlier Geekbench versions.. Geekbench 6.3 GPU Benchmark scores are compatible with Geekbench 6.2 for all systems.

Geekbench 6.3 is a recommended update for all Geekbench 6 users.

Interessant wären daher Ergebnisse unter Geekbench 6.2. Auf der anderen Seite ist es dem User egal, wie das Ergebnis erreicht wird, solange es überall gleich ist.
 
  • Gefällt mir
Reaktionen: incurable und Piktogramm
tidus1979 schrieb:
Cinebench ist noch dümmer. Der testet ja wirklich nur einen ganz spezifischen Anwendungsfall und ist im Zweifel überhaupt nicht praxisrelevant. Die Geekbench Singlecore Werte lassen sich allerdings meist ganz gut mit den Goldstandards von SPEC nachstellen. Siehe der erste Test von Anandtech zu den M1 APUs, wo die extrem abgeräumt haben.
Das ist falsch. Cinebench ist eine Auskopplung von Cinema4D, einem 3D Rendering Programm und dementsprechend relevanter als Geekbench (zumindest für mich). Die Werte von Cinebench lassen sich auch auf andere CPU Renderer, wie Maya, 3DMax oder Blender (halbwegs) übertragen. Schaut man sich Cinebench an, dann liegen die Ultras von Apple auf gleicher Höhe gegen z.B. einen AMD oder Intel 12 Kerner. Betrachtet man dann auch noch den Preis, wird es vollends desaströs für Apple. Daher sind die Apple Geräte für mich weder Fisch noch Fleisch. Möchte ich Rechenpower, dann interessiert mich nicht die Effizienz, sondern die Geschwindigkeit/Zeit und da ist AMD/Intel schneller und für ein bisschen surfen oder recherchieren sind mir die höheren Macbooks zu teuer. Ich würde nie auf die Idee kommen, mir einen m2/m3 ultra (?) zu kaufen, um darauf rendern zu lassen. Der Kosten / Nutzen Faktor ist einfach zu schlecht.
 
  • Gefällt mir
Reaktionen: Flutefox, coasterblog und Apocalypse
Flyerdommo schrieb:
Hört sich nach einer sehr leistungsstarken mobilen CPU an. Hoffentlich ziehen die anderen Hersteller nach, das würde uns Kunden allen zugutekommen, sofern die Preise stimmen.
Weil die bisher natürlich einfach nur keine Lust hatten etwas ähnliches zu entwickeln.

...seit Intel nicht mehr meilenweit an der Spitze steht, bemühen sich alle wieder der erste zu sein/werden.
 
KlaasKersting schrieb:
Die Ergebnisse waren bei den bisherigen Apple M-CPUs auch weitestgehend reproduzierbar.

Unter Mobilchips gehe ich da ja noch mit - dass die M-SOCs aber einen 7950X3D schlagen ist schlicht lächerlich.

Ja, die Dinger sind wirklich ein großer Wurf von Apple und die Leistung in Relation zum Verbrauch wirklich beeindruckend - aber auch Apple kocht nur mit Wasser (wobei es trotzdem krass ist, dass die Leistung ins iPad-Format gepackt wird ^^)

Und dass Geekbench-Ergebnisse generell sehr ARM-freundlich ausfallen ist ja nicht erst seit den M-Chips ein offenes Geheimnis ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: coasterblog
Leider ohne Angabe der DIE Size kaum vergleichbar.
Es gibt da ja gute Gründe wieso Apple da weniger drauf schauen muss, wenn man den Shop an die Geräte dongelt und dort schön 30% Provision kassieren kann. Wenn die Kunden das tragen ist es ja auch ok.

Daher halte ich es für sehr unwahrscheinlich das andere da nachziehen.
Das kann / will einfach keiner bezahlen.

Technisch ist es aber schön zu sehen das es auch dort weiter geht.
 
  • Gefällt mir
Reaktionen: HageBen
Termy schrieb:
Wenn Geekbench jetzt noch irgend eine Aussagekraft (zwischen Architekturen) hätte, dann wäre das vielleicht interessant :freak:
KlaasKersting schrieb:
Die Ergebnisse waren bei den bisherigen Apple M-CPUs auch weitestgehend reproduzierbar.
Rassnahr schrieb:
Reproduzierbarkeit der Benchmarks und Vergleichbarkeit der Architekturen ist aber nicht das gleiche.
Um das noch etwas auszudetaillieren:
Ja, (Test-Retest-)Reliabilität ist gegeben. Aber das ist eben nur eines der Qualitätskriterien für quantitative Forschung. Klar, Objektivität ist ebenfalls gegeben. Aber bei der Validität hapert es, wie @Rassnahr schon angerissen hat.
Klassisches Beispiel für eine objektive, reliable aber nicht valide Messung ist die der Körpergröße durch das Körpergewicht in Kombination mit einer Referenzwerttabelle. Also man misst einfach 80kg und schaut danach in der Tabelle nach, wie lang ist eine Person mit einem Gewicht von 80kg denn normalerweise. Solange alle Messenden die gleichen Waagen verwenden, ihre Ergebnisse nicht persönlich verfälschen und ähnliches (Objektivität) sowie die Waagen selbst nicht dumm gebaut sind (Reliabilität) und z.B. die gleiche Person beim zweiten Mal auf die Waage steigen immer schwerer gewogen wird, werden die beiden Kriterien schön erfüllt. Und mit einer guten Tabelle zu Durchschnittswerten sind die Abweichungen auch gar nicht so katastrophal. Aber: Es wird halt etwas vollkommen anderes gemessen, als eigentlich verkauft wird!

Um das geht es auch beim Geekbench. Der Geekbench wird gerne angepriesen als das Maß aller Dinge in Punkto Alltagsperformance und so weiter --- aber es gibt wenig, was dafür spricht.
 
  • Gefällt mir
Reaktionen: Flutefox
CDLABSRadonP... schrieb:
Um das geht es auch beim Geekbench. Der Geekbench wird gerne angepriesen als das Maß aller Dinge in Punkto Alltagsperformance und so weiter --- aber es gibt wenig, was dafür spricht.
Der Hauptpunkt hinter der Argumentation ist, dass der Geekbench die ganzen Standard Bibliotheken die überall drinstecken durchtestet. Das macht ihn deutlich allgemeiner als einen rein auf eine Anwendung bezogenen Benchmark, aber eben für die jeweilige Anwendung die man ausführen möchte auch weniger Aussagekräftig ist.

@Termy Warum sollte dies im Single threat Betrieb lächerlich sein?
Apple setzt auf ein deutlich größeres Kern design.

Beim M3 waren es bei den P-Kernen noch 9 Wort Decoder Breite, 8 Int ALUs, 4 FP Pipelines und ein oOo Fenster jenseits von gut und böse. L1 und vor allem L2 Cache sind größer.

Bei Zen 4 sind es 4 Wort Decoder Breite, 4 Int ALUs und 2 FP pipelines, sowie ein halb so großes oOo Fenster für die Sprungvorhersage. Der L3 Cache ist jedoch deutlich größer.

Die großen Vorteile von Zen 4 sind die Kompatibilität für breitere Vektoren und das AVX512 gegenüber Neon mehr kann. Kann für das zu berechnende Problem nicht zufällig ein mindestens 256b großer Vektor oder AVX512 Befehl genutzt werden bleibt der Zen 4 CPU nur der höhere Takt.

Ich finde es gar nicht so überraschend, dass der auf dem Papier deutlich breiter aufgestellte Kern auch besser performt.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Project 2501, incurable und Piktogramm
DomDelux schrieb:
...

Wer Programmierer ist, weiß wovon ich spreche.
Ich bin Programmierer und feiere viele Kerne. Die skalieren bei vielen Aufgaben hervorragend. Aber ich programmiere auch viel mit Nebenläufigkeiten und nutze Parallelisierung. Ist schon nochmal eine Sache für sich. Kann sein, dass viele das nicht brauchen/ wollen.

Ich finde es sehr erstaunlich, was Apple da liefert. Ich hoffe auf AMDs nächste Generation, damit wir ähliche Leistung im geringen Power-Package für Windows/Linux bekommen. Bei Intel sehe ich da bisher noch kein Land, hoffe aber auch.
 
  • Gefällt mir
Reaktionen: Project 2501 und Cmdr_Michael
DomDelux schrieb:
Das wird auch immer so bleiben.

Vor 10 Jahren war es genau so Fakt wie heute.

Du kannst nicht unendlich parallelisieren. Das ist technisch unmöglich.
Ziemlich korrekt.
DomDelux schrieb:
Deshalb war viele Kerne schon immer Schwachsinn.
Inkorrekt.
DomDelux schrieb:
Das wurde nur gemacht, weil man nicht fähig war die Einzelkernleistung signifikant zu steigern.
Ziemlich korrekt.
DomDelux schrieb:
Fakt ist aber, ein schneller Kern ist immer, IMMER schneller und Effizienter als mehrere die die gleiche Aufgabe erledigen.
Inkorrekt.

Um jetzt noch ein wenig ins Details zu gehen: Es gibt manche Workloads, die lassen sich (quasi) unbegrenzt parallelisieren. (manche davon gibt es sogar im RealLife!!! Dann mit Personen, auf die Aufgaben verteilt werden) Für die waren viele Kerne schon immer sinnvoll und auch endprodukteffizienzfördernd. Denn dann kann der Takt all dieser Kerne etwas gesenkt werden und schon arbeiten sie näher am SweetSpot.

Amdahls Law vs Gustafsons Law ist der Startpunkt für weitere Recherchen und insbesondere weitere Überlegungen, wen es interessiert.

Edit; aus einem späteren Beitrag von mir entnommen:
https://de.wikipedia.org/wiki/Amdahlsches_Gesetz
https://upload.wikimedia.org/wikipedia/commons/e/ea/AmdahlsLaw.svg
Selbst wenn das Programm nur 50% parallelisierbar ist, was ein echt miserabler Wert ist, und der maximal mögliche Speedup somit 2 beträgt, landet man durch den zweiten Kern schon bei einem 1,333. Das ist schon eine dolle Leistung. Das erklärt insbesondere, wieso heutzutage quasi in jedem Kontext mindestens auf einen DualCore gesetzt wird. Der Aufwand ist gering, die Ergebnisse sind ziemlich gigantisch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Project 2501, Flutefox und TomH22
Zurück
Oben