mytosh schrieb:
Komisch, dass Apple erst kommen musste und plötzlich funktioniert es auch bei AMD und Intel mit der Akkulaufzeit. Ein Schelm, wer böses denkt.
Wird sich zeigen, ob die 29h realistisch sind, oder eine Fantasiezahl.
Ich behaupte letzteres, so wie die Angabe bei Windows Geräten bisher immer war.
Ein T480s wird laut Geizhals mit 15,7 Stunden angegeben.
Ich wäre froh, wenn ich damit zuverlässig 8h schaffen könnte. Häufig sind es 6-7,5h bei basic Office kram von der Arbeit. so gute knapp 15% pro stunde Akkuverlust.
2h heute mit dem neuen T14 G2 (i7 Tiger Lake) haben nicht den anschein gemacht, dass die Akkulaufzeit höher ist. Immerhin wird nur noch 10,7h angegeben.
owned139 schrieb:
Apple gibt beim M1 eine Video playback time von 20h an und AMD will 29h erreichen? Ich bezweifle es.
Dazu kommt, dass die Angaben von Apple bisher immer recht realistisch waren, bei den Windows Geräten kann man fast durch die Bank weg 30-50% von der Akkulaufzeit abziehen, die im Datenblatt angegeben werden.
Mein M1 Macbook Pro wird beim Videoplayback in Apple TV (also Streaming, aber eigene optimierte Plattform) mit 20h angegeben.
Die 20h schaffe ich sogar mit Office (40% verlust in 8h dauer-office).
Bei einem 1080p Youtube Video genehmigt sich der M1 zwischen 0,2w bis spikes auf 1w~.
Ned Flanders schrieb:
Technisch ist der M1 durchaus gut, aber eben kein Überflieger. Das wirst du sehen wenn x86 auch in 5nm raus kommt. Die werden voraussichtlich alle besser sein als M1, sowohl was die Performance als auch die Effizienz angeht.
Ich behaupte das gegenteil - bookmarke dir diesen Post gerne.
Der Node Shrink alleine macht fast gar nichts aus. Bei AMD hat sich beim Sprung von 12nm auf 7nm fast garnichts getan. Etwas mehr Leistung, aber beim Energieverbrauch gefühlt absolut null komma gar nichts. Die Laptops werden weiterhin laut, weiterhin heiß, und die Akkulaufzeit ist identisch zu vorher.
M1 hat aber hier ein bis dato nicht erreichbares Level gebracht. Wenn du die M1 nicht als "Überflieger" bezeichnen willst, sind sie dennoch sowohl AMD als auch Intel ganz weit voraus was Effizienz angeht. Und ich meine nicht nur Benchmarkpunkte/TDP, sondern vor allem in teillast/Idle. Oder eine so niedrige Hitzeentwicklung, dass man den Lüfter niemals hören wird. Und mit niemals meine ich zu 100% zuverlässig niemals. Kein lächerliches "bleibt meistens aus, geht nur 3 mal die stunde an" oder so.
Bei Intel hab ich die Hoffnung für Effizienz aufgegeben. Trotz Effizienz-Kerne hat Intel sowas von dermaßen reingeschissen, dass sie gefühlt noch schlechter dastehen als vorher.
Bei AMD hab ich Hoffnung, die scheinen am Chipdesign tatsächlich etwas verbessert haben, was zumindest beim Videoplayback den Energieverbrauch schön unten lässt.
Die 29h call ich aber als unrealistisch. Aber wenn da 15-18h Videostreaming rumkommen bei Ultrabooks, wäre das schon ein sehr ordentliches Level.
Und glaub mir, ich hätte es auch gerne, dass x86 an den M1 rankommt (vom Idle, über die Tatsache wie niedrig der Stormverbrauch bleibt bei kleinkram, über Volllast). Stand heute haben die Macbooks gerade bei Akkulaufzeit und zuverlässig fehlende Lüfterlautstärke ein Level, wo kein Windows Notebook rankommt. Ausnahmslos jedes einzelne Windows Notebook wäre für mich privat ein Schritt zurück. Und das ist traurig.
Dabei ist Konkurrenz für alle gut. Auch wenn sich die Zielgruppen kaum überschneiden.
Edit: Etwas um meine Hypothese zu unterstützen:
https://www.computerbase.de/2022-04...nitt_lautstaerke_unter_windows_und_in_spielen
Intel Alder Lake, "10nm" fertigung, Intel nennt es ja "Intel 7", angelehnt an TSMCs 7nm, was damit eher vergleichbar sein soll, laut Intel.
14" Notebook, nur Full HD Auflösung, RIESIGER 80 Wh Akku für die Größe.
Youtube mit reduzierter 720p Auflösung, und der Akku reicht gerade mal für 7,5h.
Effizienz tot geknüppelt für maximale Leistung. Hier CBr23: 13900 Punkte bei 115 Watt.
Ein 14" Macbook Pro schafft hier "nur" 12400 Punkte, dafür aber mit nur 30-35w~. (Intel schafft also 10% mehr Leistung bei 3 1/2-fachem Stromverbrauch. Effizienz unter Last ist also um den Faktor 3 schlechter.
Dennoch hält es bei Youtube streaming doppelt so lange durch, obwohl das Display 3x so viele Pixel hat.
Dabei ist noch gar nicht die Tatsache mit drin, dass der Alienware hier selbst im Desktop die Lüfter nicht still halten kann, während du das Macbook wohl das ganze Jahr über nicht hören wirst.
Oder die Tatsache, dass der Alienware im Akkubetrieb zusätzlich noch gedrosselt wird von Windows.
Wenn wir mal bei Youtube den Stromverbrauch des Chips selbst (ohne Display und Co) kennen würden, wäre der Unterschied in der Effizienz sicherlich mindestens Faktor 3.
Ein Node Shrink wäre hier nur ein Tropfen in der Wüste, das kann man nicht mit dem Node Shrink ausgleichen. Da muss im Chipdesign mehr passieren und vor allem in der Firmware vom Chip.
z.B., die CPU muss nicht auf 1,4v / 4,5 Ghz boosten, weil ich die Maus im Kreis bewege. Der muss keine 10 Kerne benutzen, weil ein Video abgespielt wrid.
Und er sollte auch nicht mehr Energie verbrauchen müssen für eine Task XY, als ein 8 jahre alter Dual Core.