News M1-Prozessor: Apples Notebook-SoC soll die Konkurrenz abhängen

@foo_1337

Lustig finde ich es als Throttling zu bezeichnen denn was soll denn damit verhindert werden?
Throttling kenne ich eher bei Last von Modellen mit unterdimensionierten Kühlsystemen und die gab es mit CPUs beider Hersteller. Na wer erinnert sich noch an die Mac Books bei denen der schnellste Prozessor praktisch nutzlos war weil er bei Last in die Temperatur Drosselung rannte?

Das klingt eher nach der Marketing Nummer für die ich sie halte und der Begriff die Bedeutung vorweg nehmen soll.
 
Wenn der Ryzen tatsächlich* im Batteriebetrieb runtergetaktet wird und dies durch den Benutzer nicht ohne weiteres veränderbar ist, ist das Throttling. Was sonst?

*Wäre schön, wenn das hier jemand mit nem Ryzen 4000 testen könnte.
 
Macbooks machen das generell nicht, egal ob Intel oder ARM. Im Akkubetrieb exakt die selbe Leistung wie am Kabel.
Nur finde ich das bei WIndows grundsätzlich nonsense. Dafür gibt es die Energiepläne. Aber wenn unter "Höchstleistung" im Akkubetrieb gedrosselt wird, ist es meiner Meinung nach ein Fail.

@Wadenbeißer du redest wohl vom Macbook Air 2018 bis mitte 2020.
Die Pros hatten da keine Probleme, und konnten unter Last eine höhere Taktrate halten, als die meisten Windows Kisten. Dafür eben mit höherer erlaubter Temperatur, und nicht zu hoher Fan-Speed.

Wenn aber der Prozessor im Akkubetrieb nicht die maximale Leistung abrufen kann, wie im Netzbetrieb, dann IST das Throttling. Und wie man sieht, muss nicht das Kühlsystem der Grund sein, damit gethrottled wird, sondern auch einfach ne fehlprogrammierung/-einstellung seitens des Herstellers.
 
  • Gefällt mir
Reaktionen: foo_1337
@Darkseth88

Da war auch mindestens ein Pro Modell dabei bei dem der stärkste Prozessor nur Geldverbrennung war weil das Kühlsystem dafür zu schwach war, mal schauen ob ich es noch finde.
Solange der Prozessor innerhalb seiner Specs bleibt sehe ich kein Throttling denn ein geringerer Takt kann auch aus dem (zweitweisen) Abschalten höherer Boost Stufen resultieren. Throttling sehe ich eher beim Drücken des Taktes unter den Grundtakt.

Edit:
Es war sogar das 2018er Modell:
https://www.computerbase.de/2018-07/macbook-pro-2018-thermal-throttling-firmware-update/
 
Wenn Intel das so handhaben würde, würdest du das sicher gänzlich anders sehen.
Wenn es wirklich so ist, dass das Ding im Batteriebetrieb deutlich langsamer ist und der Benutzer daran nichts ändern kann, dann ist das Throttling. Punkt.

Zum Macbook Issue: Das ist nur beim Air ein Problem gewesen. Beim Pro wurde das durch ein Firmware Update behoben.
 
Warum sollte ich?
Ich schrieb ja bereits das ich dieses Verhalten von unterschiedlichen Modellen kenne und diese hatten sowohl AMD, als auch Intel Prozessoren.
 
Nur, dass weder Intel, noch AMD das handhaben, sondern die Hersteller das so in ihren Kisten einstellen.
Sonst würden die Intel CPUs bei Macbooks genau so weniger Leistung haben im Akkubetrieb, war aber nicht so. Nur unter Windows.

Es ist aber auch kein "zeitweise abschalten" höherer Booststufen.
Wenn man im Akkubetrieb direkt mal xx% weniger Leistung abrufen kann als im Netzmodus, dann IST das throttlen. Und das sollte, wenn man Höchstleistung nutzt, nicht vorkommen dürfen.
Beispielsweise bei vielen Gaming Laptops war das der Fall. Steck das Stromkabel ab, und zack brechen die fps ein.

Wenn man eine Drosselung im Akkubetrieb möchte, kann man doch einfach den Energiesparplan dafür auswählen. Keine Ahnung, warum man das unter Höchstleistung auch drosseln muss.

Zumal ich das genau anders rum machen würde, als die Hersteller in dem Link, nämlich die ersten paar Sekunden volle Leistung, und nur auf Dauer dann gedrosselt. So ist das sinnvoller im Alltag.
 
foo_1337 schrieb:
Wäre auch schlimm, wenn die Akkulaufzeit schlechter wäre, wenn gedrosselt wird.
Es gibt eine gewisse Firma, die aktuell in Frankreich Schadensersatz bezahlen muss, weil die Leistung zugunsten der Akkulaufzeit gedrosselt wurde. Wie groß war damals der Shitstorm.. und bei AMD ist es plötzlich ok.

Dieser Firma höhö ging es nicht um eine Steigerung der Akkulaufzeit ihrer firmaPhones, sondern um einen stabilen Betrieb.
Die Prozessoren dieser Firma erreichen bei hoher Last kurzzeitig eine hohe Stromaufnahme und wünschen sich dabei auch bestimmte Spannungen.
Bei einem bereits gealterten Akku, besonders bei Kälte, kann der Akku diese aber mit etwas Pech nicht mehr liefern und die iPhones (oops, verquatscht) haben sich abgeschaltet.
Die Leistung wurde gedrosselt um diesen "Burstmodus" zu verhindern und damit dafür zu sorgen, dass das iPhone nicht mehr in eine Situation kommt in der es mehr Leistung vom Akku verlangt als der noch liefern kann.

Mit der Akkulaufzeit hatte das aber nichts zu tun.
 
  • Gefällt mir
Reaktionen: Darkseth88
foo_1337 schrieb:
Ja schade, wo doch AMD die guten sind... oh wait.
wie bereits vermutet....ein Stromspar Feature um den Akku zu schonen bzw. dessen Laufzeit zu verbessern.
Was Intel allerdings verschweigt: Das ist ein vom Notebook-Hersteller bewusst vorgesehenes Verhalten, um Akku-Energie zu sparen, indem sich die CPUs nicht bei jeder kurzen Last sofort hochtakten.
https://www.heise.de/news/Notebook-...fentlicht-schiefen-AMD-Vergleich-4969797.html
 
  • Gefällt mir
Reaktionen: foo_1337
@foo_1337

Das sind leider die Fallstricke der mobilen Welt aber mal ehrlich, die dort eingesetzte Variante mit dem verzögerten Boost sehe ich im mobilen Einsatz als erheblich sinnvoller an als bei Intels Lösung selbst bei kurzen Lasten voll hoch zu boosten.
Bei kurzen Lastspitzen fällt es ganz einfach nicht auf und mit einem leeren Akku ist das Gerät ganz einfach nutzlos. Das reguläre Boost Verhalten ist eher was für den Netzbetrieb.
 
  • Gefällt mir
Reaktionen: foo_1337
Also wenn man das Internet durchstöbert, findet man viele Gerüchte und Angaben, dass bspw Apple an einer eigenen dezidierten 5nm Grafikkarte für den IMac usw. arbeitet, oder wegen dem glaub erwähnten M1 Nachfolger "M1X".
Ich denke das kann was großes werden, wenn sie es nicht verkacken und sie die Nutzer überzeugen können.
Eine Art Alternative zu den "normalen" Notebooks/Desktop-Rechner.
Bin echt gespannt, was bis Mitte nächsten Jahres wird und vor allem, wie viele Software-Hersteller auf den Zug aufspringen.
Hoffentlich gibts dann nicht weiterhin Probleme wie bspw mit dem Bluetooth etc. .
 
@foo_1337 Erstaunlich, wie schnell es in die Richtung Fortschritte gibt. Hätte eher erwartet, da tut sich bis Frühjahr garnix, bis Parallels und co kommen, und dann irgendwie eine frickellösung anbieten.

Aber wenn Windows for ARM dann klappt, und dort wiederum die emulation ALLER Windows Anwendungen, wär das ja eine brauchbare Lösung.

@conspectumortis Wird halt Apple-only bleiben.. Wer also triple-A Games zocken will, wird um Windows erstmal nicht herum kommen, egal wie die künftigen, größeren Apple Chips werden.
Ich hoffe aber, dass die Entwickler neben Windows auch für Mac (und Linux!!) gleichermaßen entwickeln, so dass man auch als Gamer die freie Wahl hat ohne kompromisse.
 
  • Gefällt mir
Reaktionen: conspectumortis
Darkseth88 schrieb:
Erstaunlich, wie schnell es in die Richtung Fortschritte gibt.
Ja, die Dinger haben zum Glück auch bei vielen Devs und Hackern (Geeks) Eindruck hinterlassen und wurden schnell gekauft. Gut für die "normalos", denn so geht's schnell voran :)
 
Ein sehr sehr interessanter Beitrag:


Ich kann nur nicht alles bestätigen, weil das über meinen Horizont hinaus geht. Aber wenn ich das so verstehe, ist da ein krasser Prozessor entwickelt worden, gegenüber den AMD und Intel Chips und dass diere Art Technologie noch enorm viel Potential hat und Intel und AMD da womöglich erstmal Jahre nicht hinterherkommen werden. Und mehrere Dinge nicht unter der ARM Linzenz laufen, sondern Eigenentwicklung von Apple sind.
 
Es sind völlig verschiedene Architekturen. ARM ungleich x86.
 
@conspectumortis
Das Video erklärt zwar Dinge, ist aber an vielen Stellen unterkomplex. Vor allem könnte man die ersten 20 Minuten und die ganzen Autovergleiche einfach wegschmeißen und das Ganze würde sogar besser werden..

Vieles im Video zeugt da von Halbwissen. Da wird hervorgehoben, dass der M1 8 Decoder hat und damit sehr breit ist. Es wird aber ignoriert, dass X84 Decoder 1-4 µOps auf einen Schlag verarbeiten können und gleichzeitig µOps auch noch aus einem µOps Cache kömmen können. Sowohl Intels SunnyCove und AMDs Zen2 setzen deswegen auch nicht 4 µOps je Takt um sondern 6 µOps. Wobei es noch einen wesentlichen Unterschied gibt, dass Intel derzeit je µOps bis zu 512bit breite Register und AMD bis 256bit Register ansprechen kann, wo Apples M1 bei 128bit Registern aufhört.

Dann wird einfach behauptet, dass die Decoder von x86 CPUs komplexer sind und deswegen nicht einfach mehr Decoder verwendet werden können und das ARM das Problem nicht hat. Das stimmt mehrfach nicht.
1. ARM nutzt je nach ISA Erweiterung auch keine einheitlichen Befehlslängen mehr
2. X86 Decoder + µOp Cache funktionieren etwas anders. Es braucht für den Durchsatz vieler, paralleler µOps nicht je einen Decoder
3. Bei RISC wird es dafür an anderer Stelle komplizierter (weiter lesen ;) )

Dann wird der Reorderbuffer mit ~600 Einträgen gelobt. Das ist der Unterschied zwischen X86 und ARM. Bei den CISC Befehlen lassen sich Abhänigkeiten für OoO (Out of Order) leichter ermitteln, da sie Teil eines Befehles sind, bei RISC muss man sich zwangsweise mehrere Befehle anschauen um Abhänigkeiten zu ermitteln. Tendenziell braucht man für RISC damit einfach größere Buffer um gescheites OoO Scheduling zu betreiben.

Und nicht zuletzt, schön und gut das der M1 so breit ist, es bringt ja wirklich ordentlich Geschwindigkeit. Bei alltäglicher Software hatten aber schon vor Jahren X86 CPUs das Problem, dass sie die Breite (der früher noch schmaleren Architekturen) gar nicht immer voll nutzen konnten. Weswegen ja solche Sachen wie HyperThreading (heute SMT) aufkamen. Einfach nur breitere CPU-Designs für sich bedeuten nicht zwangsweise einen besseren Durchsatz.

Die rote Linie der Argumentation, dass ARM besser sei als x86 halte ich für Unsinn, welcher auf Unverständnis fußt. Das Apple mit dem M1 jedoch ein grundsolides Design abgeliefert hat, gehe ich jedoch mit. Wobei ich immer noch vermute, dass Apple auch viel auf Seiten der Softwareoptimierung gemacht hat. Bei allem was die ARM-Plattform gerade als Ziel hat, kann ja wirklich jede Optimierung mitgenommen werden. Apple muss ja keinerlei Rücksicht auf CPU-Modelle von vor 10Jahren nehmen.
 
  • Gefällt mir
Reaktionen: Relict, Xul, yummycandy und eine weitere Person
Zurück
Oben