iGameKudan schrieb:
Zum Rest: Ja, die ARM-Geräte waren bisher teils sogar teurer. Muss man nicht verstehen. Ob ARM aber gegenüber x86-CPUs noch effizienter bleibt, wenn die ähnlich performen?
Kommt auf viele Faktoren an, nicht nur Benchmark-Situationen.
Wenn ein x86 Prozessor auf 5 Ghz boostet, nur weil man die Maus bewegt, wird er ineffizienter sein, als er sein könnte.
iGameKudan schrieb:
Ist auch wieder son Ding bei Apple gewesen: Der M1 war definitiv ein Wurf der eingeschlagen hat wie eine Bombe… Aber auch nur durch die Hardwareencoding-/decoding-Fähigkeiten und den fortschrittlicheren Fertigungsprozess.
Die Hardware En-/Decoder haben nicht viel damit zu tun. Schau dir alleine einen reinen CPU Benchmark an, oder mach ganz normale Dinge. Internet seiten öffnen, rumscrollen, zwischen paar Office Dokumenten hin und her. Da gibt's keine encoder dafür, das läuft rein über die CPU.
Der Fertigungsprozess spielt nur wenig mit rein.
Denn ansonsten frag ich mich, warum hat sich die Akkulaufzeit nicht einfach so verdoppelt, als AMD seine Fertigung von 14 bzw 12nm auf 7nm umgestellt hat? Bei der Akkulaufzeit der Geräte, Hitzeausstoß, Lüfterverhalten etc hat sich gefühlt gar nichts getan.
iGameKudan schrieb:
So dolle hinten dran sind die x86-CPUs auch nicht mehr…
Wenn man den Stromverbrauch auf xx Watt deckelt und nen Benchmark mit 100% Laufen lässt, nicht. Ein Ryzen 7 6800u auf 15w gedeckelt muss sich in sachen CPU-Multicore Punkten nicht vor einem M1 oder M2 verstecken lassen, wo der CPU Teil auch auf 15w gedeckelt ist (bzw beim M2 auf 18w oder so).
Aber bei Teillast gibt's noch einen gewaltigen Unterschied, den auch die aktuellen x86 CPUs noch nicht mal am Horizont erblicken können.
Das wird hier deutlich, einer der besten Akkuverrbauchstests die ich je gesehen habe:
Ab 6:00~ Minuten etwa kommt die erklärung.
x86 steigt im Energieverbrauch ENORM an (prozentual deutlich stärker als die Apple chips, verglichen zum Idle-Verbrauch). wenn man nur kleinigkeiten erledigt, wie in seinem Beispiel eine Webseite neu laden. Apple Silicon bleibt hier zurückgelehnt. Warum soll der auch auf 5 Ghz boosten für so etwas? Die P-Cores bleiben bei 1,5 Ghz, weil das für die Aufgabe reicht. Obwohl der Kern auf knapp 3,5 Ghz hoch könnte.
Deswegen sind 15-20 stunden aktive Nutzung bei den Macs plötzlich möglich, während 8-10h bei x86 immer noch erschreckend selten sind.
Als zweites kommt dazu, dass x86 Chips beim "nichts tun" nicht so niedrig runter kommen beim Verbrauch, wie Apple Chips.
Dieses "mit maximaler Brechstange die Task erledigen und schnell zurück in sleep" ist nicht das beste für maximale Energieeffizienz und Akkulaufzeit, auch wenn das theoretisch Sinn ergibt.
x86 könnte aber bedeutend (!) besser dastehen was effizienz angeht, als sie es aktuell tun. Einfach mal nicht mit der Brechstange auf 5 Ghz hoch prügeln für jeden Mist, und das Taktverhalten entsprechend optimieren.