Test Apple vs. AMD & Intel im Test: Der M4 Pro im Vergleich zu Ryzen 9000 und Core Ultra 200S

Glendon schrieb:
Kann man so sehen. Aber man kann es auch anders sehen. Es war eine Entscheidung des Herstellers, die CPU so zu begrenzen. Wenn man einen FIAT Panda gegen einen F1 Wagen im Beschleuningunstest antreten lässt, würde wohl auch niemand argumentieren, dass der F1 Wagen eigentlich schneller ist, aber der Panda ja im Vergleich weniger verbraucht und deshalb (in der Beschleunigung) nicht der eindeutige Verlierer sei.
Du hast Probleme…

Wo genau hat Apple die SoC für einen 1:1 Vergleich mit einer Desktop CPU angemeldet?
 
  • Gefällt mir
Reaktionen: Sirhaubinger und Zhan
MadCat[me] schrieb:
ARM ist genauso General Purpose wie x88-64. Apple verbaut zusätzlich spezielle Hardware, um bestimmte Aufgaben wie eben Video-Encoding zu beschleunigen.

Mag sein, trotzdem ist ARM ein RISC (Reduced Instruction Set Computing) und x86 ein CISC (Complex Instruction Set Computing). Er wollte auch keine lange Erklärung sondern es kurz und knapp haben ;)

MadCat[me] schrieb:
Daher ist auch die Aussage von anderen, dass Macs nur für Media Creation taugen, einfach nicht richtig.

Wer das sagt hat keine Ahnung... Kommt alles auf die SW an wenn es eine Version gibt die für ARM optimiert ist wird das gut und in der Regel auch schneller laufen als auf einem Prozessor der erst zig Sachen übersetzen muss weil es kein Befehlssatz gibt der etwas beschleunigen kann.
 
MalWiederIch schrieb:
Leicht vorne sind sie, ja - aber dominieren bei 6% Vorsprung?
Wobei die Desktop CPUs boosten wie blöde. In Sachen Effizienz wird Apple da weiter vorne liegen als im MC.
 
stefan92x schrieb:
CB testet hier ein Mittelklassemodell gegen die Spitzenmodelle der Konkurrenz und es ist nur fair, das auch entsprechend anzumerken.
Solange man dies bei der Effizienz auch tut und nicht dort auf einmal nichts mehr von Wissen will.
 
prof.cain schrieb:
Wieso wird bei Apple eigentlich immer noch schön "Performance pro Watt" angegeben, aber die ebenso interessante "Performance pro Euro" immer ausgelassen. Bei anderen Technikprodukten ist sie sehr oft angegeben.
?

Was willst du denn nehmen? Ein Mac Book pro oder lieber den Mini? Das IPad Pro? Und welche zusätzliche Ausstattung?

Solange du den SoC nicht einzeln kaufen kannst ergibt solch eine Kennzahl doch wenig bis keinen Sinn.
 
  • Gefällt mir
Reaktionen: brauna1, Desmopatrick und kicos018
Dasher schrieb:
Interessant wäre noch zu sehen was mit der Effizienz passiert wenn man nun den 285k und 9950x soweit einschnürt dass sie die gleiche multicore Performance haben wie der M4. Dann wären alle 3 gleich schnell und man könnte die Effizienz noch besser beurteilen. Am Schluss ist es halt schwierig. Man sieht es ja schon am 9700x mit 65 vs 105W. Da braucht der 9700x 59% mehr für 11% mehr Performance.
Apple kann in der Form halt frei entscheiden wie ein Produkt am Markt platziert wird, weil es keine Alternative in Form von AMD oder Intel im MacOS Universum (mehr) gibt und auch kein Apple M irgendwas Modell im Windows/Linux Umfeld. Allerbestenfalls könnte man es weiter fassen und ARM als x86 Gegengewicht versuchen zu bewerten. So oder so vergleicht man aber Umsetzungen und die sind abhängig von der Platzierung durch den Hersteller und vor allem davon, was in dem Moment gerade am Markt los war.

Ein Intel oder AMD Prozessor im direkten Konkurrenzkampf wird fast immer zu einer schlechteren Energieeffizienz neigen, weil man heutzutage mehr Aufmerksamkeit mit dem Gewinnen von Benchmark-Leistungswerten bekommt als mit dem Gewinnen von Effizienz oder Verbrauchsvergleichen.
Apple hingegen muss sich nur gegen sich selbst messen (lassen).

Wie du schon sagtest, den Intel oder AMD Prozessor kann man auch leistungsseitig oder gar verbrauchsseitig einfangen und dann schaut das mit der Effizienz gar nicht mehr sooo schlecht aus. Wenn auch der Vergleich immernoch hinkt, denn schon in der Designphase der CPUs wurde entschieden, wie die groben Rahmebedingungen ausfallen. Wenn man da von teilweise 200W und mehr an Energiebedarf ausgeht, dann ist das eben im Nachgang zwar einkürzbar, aber es ist nicht das Optimum was möglich wäre bei konseqent auf Effizienz getrimmter Technik. -> diese hätte aber eben das Problem, dass man damit keine 200W+ Modelle mehr fahren könnte, man gewinnt dann vielleicht sogar einen Punkt gegen einen Apple M irgendwas im direkten Vergleich, verliert aber im eigentlichen Absatzmarkt komplett alle Vergleiche, weil man langsamer als bisher abliefert -> siehe letzte Intel Modellreihe, wo man etwas die Effizienz angeht und dann obenraus einfach die absolute Power fehlt.
Dasher schrieb:
Wobei man fairerweise wenn man den Gesamtkontext betrachtet auch noch sagen sollte
Ich würde es nichtmal auf die Kosten runter drehen. Sondern würde schon mit dem Punkt im Vergleich beginnen, dass man hier CPU Package Power vergleicht und das bei unterschiedlichen Systemen einfach unterschiedlich viel beinhaltet. Also ein eigentlich unsinniger Vergleich.

Wichtig wäre, an der Steckdose zu vergleichen. Das ist zwar nicht mehr auf die CPU isoliert, aber letztlich muss der PC laufen und nicht die CPU allein. Vielleicht kann man je nach Modell hinterm Netzteil messen. Gängig ist ja Powerdelivery über Typ-C mittlerweile. Also hat man eine gemeinsame Ausgangsbasis für das Gerät und kann Netzteilverluste rausrechnen.

MICH würde viel eher interessieren, ob so ein M Prozessor von Apple da maßgeblich so viel besser dasteht, wenn man das fair vergleicht. Also Board und RAM abseits der TopEnd OC Modelle nutzen und dann den realen Stromverbrauch von so einem sagen wir 370er Ryzen AI Teil ggü. so einem M4 Modell vergleichen, aber eben nicht auf nem 500€ OC Board mit Sockel sondern eben verlötet aus nem Mini PC. So ein Mac Mini ist minimalistisch in sozusagen allem was man da dran klemmen kann. Interconnectivity säuft aber Strom ohne Ende.

Warum auch immer die Redaktionen sowas nicht mittesten - es wäre doch ein Leichtes am Typ-C Netzteil Stromzufuhrstecker ein Messgerät anzuklemmen und das mit zutesten. Gerade auch bei Notebooks, Akku raus oder Kabel ziehen, sofern geht und Display aus -> Verbrauch protokollieren und gegenüberstellen.


Ich persönlich hab nix von Effizienzkurven aus ner CPU Package Power, wenn letztlich diese nicht vergleichbar ist. Und am Ende hab ich weniger oder noch mehr realen Verbrauch als in der Effizienzmessung, weil eben mehr oder halt weniger Komponenten am Strom nuckeln.
 
Cool Master schrieb:
Mag sein, trotzdem ist ARM ein RISC (Reduced Instruction Set Computing) und x86 ein CISC (Complex Instruction Set Computing). Er wollte auch keine lange Erklärung sondern es kurz und knapp haben ;)
Und welche Relevanz soll das für das vorher behauptete haben?
 
fdsonne schrieb:
Wie du schon sagtest, den Intel oder AMD Prozessor kann man auch leistungsseitig oder gar verbrauchsseitig einfangen und dann schaut das mit der Effizienz gar nicht mehr sooo schlecht aus. Wenn auch der Vergleich immernoch hinkt, denn schon in der Designphase der CPUs wurde entschieden, wie die groben Rahmebedingungen ausfallen. Wenn man da von teilweise 200W und mehr an Energiebedarf ausgeht, dann ist das eben im Nachgang zwar einkürzbar, aber es ist nicht das Optimum was möglich wäre bei konseqent auf Effizienz getrimmter Technik. -> diese hätte aber eben das Problem, dass man damit keine 200W+ Modelle mehr fahren könnte, man gewinnt dann vielleicht sogar einen Punkt gegen einen Apple M irgendwas im direkten Vergleich, verliert aber im eigentlichen Absatzmarkt komplett alle Vergleiche, weil man langsamer als bisher abliefert -> siehe letzte Intel Modellreihe, wo man etwas die Effizienz angeht und dann obenraus einfach die absolute Power fehlt.
War auch nie mein Ziel daraus abzuleiten dass AMD/Intel das dann auch so machen sollten die von Anfang an effizienter zu machen. Sache ist aber dass ich als User bei AMD/intel einfach die Wahl habe und viel mehr konfigurieren kann.

Und wie gesagt. Es wäre halt interessant zu wissen wie dann die Effizienz im Vergleich wäre. Wenn man bedenkt was AMD/intel Prozessoren an altlasten mitschleppen müssen (die ja auch zum Kundenvorteil sind) dann wäre eine leicht schlechtere Effizienz bei gleichem Leistungspunkt ja immer noch ein Gewinn aus meiner Sicht. Jetzt ist der Effizienzunterschied zwar groß, der Leistungsunterschied aber auch. Daher schwer zu bewerten.


fdsonne schrieb:
Wichtig wäre, an der Steckdose zu vergleichen.
Ich finde beides Interessant. Einmal das Gesamtsystem und einmal halt isoliert. Mehr Daten ist fast immer besser. :)
 
Wie immer, wenn man Software hat die unter OSX und auch x86 laufen. Bringt mir nichts wenn meine Produktiv Software nur x86 kann...
 
Kann man auf dem Ding auch Linux oder Windows laufen lassen? Falls ja - wie würde dann die Leistung aussehen?
 
  • Gefällt mir
Reaktionen: Tsu
Topflappen schrieb:
Ich sehe diese Entwicklung als Sargnagel für x86, der Tag wird kommen.

Haben sie bei Mainframes auch gesagt ;-) In Rechnezentren wirst Du x86 noch mindestens 20 Jahre sehen
 
Cool Master schrieb:
Mag sein, trotzdem ist ARM ein RISC (Reduced Instruction Set Computing) und x86 ein CISC (Complex Instruction Set Computing). Er wollte auch keine lange Erklärung sondern es kurz und knapp haben ;)

Sorry, wenn ich es nun provokant formuliere, aber wenn Du schon Begriffe wie CISC bzw. RISC verwendest, solltest Du besser auch ihre Bedeutung kennen.

CISC und RISC beziehen sich auf die Komplexität des Instruction Sets. Ein typischer CISC-Befehl kann z.B. gleichzeitig Berechnungen ausführen und auf den Speicher zugreifen. Bei RISC ist das getrennt, daher ist das Instruction Set einfacher gehalten. Das ermöglicht gleichzeitig auch ein simpleres Design des Prozessors selbst, weil eben keine Hardware vorhanden sein muss, um mehrere Dinge mit einem Befehl abfrühstücken zu müssen.

Seit dem Pentium ist x86 übrigens nur noch nach außen hin CISC und intern Superscalar (Pipelines mit Out-of-Order Execution, Speculative Excecution/Branch Prediction usw.). Über die Zeit sind viele Dinge hinzugekommen, z.B. SMT, Multi-Core usw., die genau genommen auch nicht mit der Definition von Superscalar vereinbar sind.

TL;DR: die Komplexität des Instruction Sets sagt nichts darüber aus, ob ein Prozessor General Purpose, spezialisiert oder beides ist (die M-Reihe ist beides, genauso x86 ... AVX, QuickSync anyone?). Außerdem sagt es nichts mehr darüber aus, wie eine CPU intern arbeitet -- gerade bei x86.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ComputerJunge und sioh
Dasher schrieb:
War auch nie mein Ziel daraus abzuleiten dass AMD/Intel das dann auch so machen sollten die von Anfang an effizienter zu machen. Sache ist aber dass ich als User bei AMD/intel einfach die Wahl habe und viel mehr konfigurieren kann.
Ja, du hast mehrere Modelle, aber letztlich ist das halt auch ein Problem. Denn da stecken halt nicht haufenweise verschiedene Designs drin, sondern mehr oder weniger ein großes, was man auf verschiedene Märkte hin dann auslegt. Das hat einen klaren Kostenvorteil, aber eben auch einen klaren Nachteil. Denn es muss skalierbar sein über alle Marktbereiche.

AMD und Intel setzen dabei den Cut nicht an der exakt gleichen Stelle. Während AMD bspw. weiterhin mit gesockelten CPUs MCM für 6 bis 16 Cores bzw. mit TR und Epyc noch mehr fährt, brauchen sie für Mobile eben ein seperates Design.
Intel mixt das historisch bedingt seit bestimmt gut 15 Jahren. Mit dem Tile Ansatz fängt man aber auch da an das etwas aufzuweichen.

Lange Rede, kurzer Sinn, letztlich ist der Vergleich eben bisschen schwierig, wenn A) die beiden x86 Player sich gegenseitig übertreffen wollen bzw. ein Produkt bringen müssen, das im Markt besteht und nicht nur gegen den eigenen Vorgänger und B) den Markt selbst nicht vollends definieren können. Apple kann das für ihr eigenes Universum. Sie definieren exakt wo der Prozessor landen soll und dann bauen die das Ding genau für diesen Punkt.
Damit das fair wird für einen Vergleich bräuchte es die Birnen, die gegen die Apples antreten und dann wahlweise mal schneller, mal günstiger, mal breiter, mal hier und dort was anderes machen, was die Apples dann zu einem Kompromiss zwingt. Heute gibt es den nicht bei Apple, weil sie konkurrenzlos ihr eigenes Universum bedienen.
Dasher schrieb:
Und wie gesagt. Es wäre halt interessant zu wissen wie dann die Effizienz im Vergleich wäre. Wenn man bedenkt was AMD/intel Prozessoren an altlasten mitschleppen müssen (die ja auch zum Kundenvorteil sind) dann wäre eine leicht schlechtere Effizienz bei gleichem Leistungspunkt ja immer noch ein Gewinn aus meiner Sicht. Jetzt ist der Effizienzunterschied zwar groß, der Leistungsunterschied aber auch. Daher schwer zu bewerten.
Du kannst es halt selbst konfigurieren. Ja, in den Tests kann man das natürlich mit abfangen, keine Frage, letztlich bleibt aber am Ende der Punkt, dass das Produkt dann mit angezogener Handbremse läuft, weil es für andere Punkte ursprünglich ausgelegt war.
Das geht schon bei so ganz einfachen Betrachtungen zum Takt los - wenn das Teil angenommen 6GHz takten soll, dann muss das auch irgendwie erreicht werden. Würde man diese CPU aber dann mit angezogener Handbremse fahren bei sagen wir 4GHz oder 4,5GHz könnte man das prozesseitig ganz anders angehen. Siehe bspw. AMDs "C" Cores. Die tauschen dann Takt gegen Packdichte ohne echten Leistungsverlust bei Taktgleichheit.
Dasher schrieb:
Ich finde beides Interessant. Einmal das Gesamtsystem und einmal halt isoliert. Mehr Daten ist fast immer besser. :)
Das allemal. Leider ist es immer so bisschen stochern im dunkeln. Es würde ja sogar schon mehr bringen, wenn man wissen würde, was da noch alles dazu kommt im groben. Die Unterschiede sind leider teilweise sehr extrem.
Ergänzung ()

Cool Master schrieb:
Mag sein, trotzdem ist ARM ein RISC (Reduced Instruction Set Computing) und x86 ein CISC (Complex Instruction Set Computing).
Seit dem Pentium Pro ist x86 bei Intel und AMD btw. ein Zwitter aus CISC Instructions und RISC "like" in der Hardware. Sie zerhackstückeln die großen Komplexen Befehle und Arbeiten mit winzigen µOps um die Vorteile beider "Welten" zu kombinieren.
Man kann schwer bis unmöglich sagen, dass heutige x86 Modelle CISC sind, weil das nur für den äußeren Teil zutreffend wäre.
 
  • Gefällt mir
Reaktionen: kaji-kun
MadCat[me] schrieb:
CISC und RISC beziehen sich auf die Komplexität des Instruction Sets.

Richtig und genau das sagte ich im ursprünglichen Beitrag ja mit:

ARM = Skalpell
x86 = Schweizertaschenmesser

x86 hat viel mehr Erweiterungen und ist daher eben das Schweizertaschenmesser das alles kann wohingegen ARM eben auf die Anwendung zugeschnitten ist.

Edit:

@fdsonne

@ErichH. wollte eine Erklärung die kurz und knapp ist. Das Thema ist natürlich komplexer aber das war nicht die Frage...
 
  • Gefällt mir
Reaktionen: ErichH.
Hucken schrieb:
mehr als Media Anwendungen auch so ziemlich unbrauchbar.
Wo kommt eigentlich diese Laier immer her? Du hast mit Mac OS ein vollwertiges BSD / Unix im Untergrund, inkl Terminal, ZSH, Paketmanager, etc
So ziemlich alles was Linux kann kann auch Mac OS. Hier zu sagen, Mac OS taugt nur für Videos anschauen - zeigt eindeutig das man das OS nicht kennt.
Simonte schrieb:
Wen interessiert der Verbrauch?
Die Stromkosten sind so gering..
Man muss auf mehrere Jahre rechnen, um einen Betrag zu haben, der einen Unterschied im Anschaffungspreis machen würde.
Alle die Unterwegs arbeiten. Die meist verkauften Computer (Abseits von Smartphone und Tablets) sind Notebooks - und das seit Jahren.

Und bei Notebook willst du dennoch gute Leistung haben - aber sehr kleiner Verbraucht. Das hat auch nichts mit Strokosten zu tun sondern mit Akku-Laufzeit.
 
  • Gefällt mir
Reaktionen: prayhe und Cool Master
Cool Master schrieb:
Läuft über Parallels. Native als "Bootcamp"? Wahrscheinlich nie.
ja Windows for ARM, was ist wenn es beim bei der Kunden BH, CRM, CAD Lösung keine ARM oder OSX Version gibt?
 
Glendon schrieb:
Wenn man einen FIAT Panda gegen einen F1 Wagen im Beschleuningunstest antreten lässt, würde wohl auch niemand argumentieren, dass der F1 Wagen eigentlich schneller ist, aber der Panda ja im Vergleich weniger verbraucht und deshalb (in der Beschleunigung) nicht der eindeutige Verlierer sei.
Nicht nur ist der Vergleich mit Autos nicht praktikabel, was wir hier alle schon 100 mal durchgekaut haben, sondern du hast auch den maximal schlechtesten Vergleich rausgesucht, der geht. Weder handelt es sich um ein reines Beschleunigungsrennen noch könnte man im entferntesten von F1 vs Panda reden. Nimm mal lieber zwei F1 Wagen die gegeneinander antreten, der eine ist 30% schneller als der Andere, verbraucht dafür aber auch 4 mal soviel Treibstoff.
In welchem würdest du sitzen wollen, wenn es ins Rennen geht? Hängt wohl stark von der Renndistanz ab oder? Kann man also von einer vollständigen Niederlage des zweiten F1 Wagens sprechen?
Ich denke nicht.

Wer die CPU oft in Limit-Bereich bewegt, kann sich ja mal die Energiekosten ausrechnen. Ich könnte mir vorstellen, dass sich es am Ende eher rechnet, auf ein paar Prozent Leistung zu verzichten, als die vierfachen Stromkosten zu zahlen. Von daher würde ich die Aussage im Test so unterschreiben, verloren ja, aber sicherlich keine Niederlage auf ganzer Linie.
 
User7777 schrieb:
ja Windows for ARM, was ist wenn es beim bei der Kunden BH, CRM, CAD Lösung keine ARM oder OSX Version gibt?

Ich verstehe die Frage nicht so ganz. Wenn es keine ARM oder macOS Lösung gibt kauft man eben Windows und ein entsprechenden x86 Rechner oder auf was wolltest du hinaus?
 
Zurück
Oben