Das muss man halt real mal abwarten. Vielleicht lassen sich andere halt auch eher von Zahlen blenden?TMII schrieb:Die Internationale Presse ist witzigerweise nicht so pessimistisch wie die Deutsche und die Kommentarsektion hier. Wenn ich mir die Benchmarks anschaue, wie der Chip in den Benchmarks in der obersten Liga spielt (realistisch würde ich mir maximal einen i7 oder R7 holen, niemals einen R9) und im Youtube Test auch auf eine beachtliche Akkulaufzeit von 16h kommt ist das schon beeindruckend.
Ich mein, du sprichst den Akku Test an. Das ist halt einfach genau genommen ein total sinnloser Test, denn er zeigt exakt gar nix, was mit dem CPU Teil selbst zu tun hat.
Der YT-Laufzeit Test bewertet in erster Linie den Verbrauch des gesamt Systems beim Video Streaming, was maßgeblich durch die Effizienz der GPU Beschleunigung abgehandelt wird.
Real praktisch hab ich davon gar nix. Es reicht schon den Traffic zusätzlich über nen VPN Tunnel zu schicken und von der ach so tollen Laufzeit bleibt die Hälfte über oder sowas im Dreh, weil eben nicht nur Video Encoding + Display Verbrauch gemessen wird, sondern die CPU auch was zu tun hat.
Würde ich so nicht sagen. Mit 28W und 2GHz Baseclock ist das als 10 oder 12C Design für so manche Anwendungsbereiche die auf nen Kompromiss aus Lautzeit pro Thread und Effizienz setzen, aber schon ein gewisser Rückschritt. Die 8000er kommen mit 8C auf 3,3GHz bei 28W. Das sind mal eben 60%! mehr Bumms.blackiwid schrieb:Ryzen AI 9 wird spannender, erstens früher da, 2. mehr AI Leistung, 3. billiger in der Produktion, 4. genug speed für 99% der User 5. schnellere GPU.
Ich hätte da lieber anstatt 4+6 oder 4+8 ein 4+4 Design gesehen und dann 3 Komma GHz Baseclock. Davon hat man im Alltag mehr als von nem max Boost mit 5GHz und 10 oder 12C in nem 28W Modell.
Es geht eher darum, die Tür zu öffnen für alternative Produkt in einem Markt, wo es eben Sinn ergibt, die zu nutzen.Kxlo67 schrieb:Ich verstehe also nicht was Windows und Qualcomm mir hier verkaufen wollen. Alle Nachteile der aktuellen Windows Geräte gepaart mit, verständlicherweise in der Anfangszeit vorhandenen, Softwareproblemen. Der erste und wichtige Eindruck ist also 'meh'.
Der Test hier ist mMn wenig wert, weil es dem alten Muster nach entweder 1T oder nT Last bencht. Das ist aber in aller Regel nicht der reale Nutzeralltag. Auch die Verbrauchsmessung, siehe oben, ist nichts wert.
Normal müsste man einem Redakteur das Teil mal für ne Woche hinstellen und er müsste seinen Arbeitsalltag damit begleichen. Und dann vergleichen, ob das ggü. nem x86 oder M-Apple Gerät mehr oder weniger gut abschneidet.
Das gleiche gilt bei der Leistung - was bringt mir bspw. CB-2024 nT mit native ARM, wenn ich bspw. Blender rendern will, wo das einfach deutliche Differenzen zeigt? Und dann noch mit ner Performance, die nur an der Strippe im großen Energieprofil mit 80W oder so aus der Steckdose anliegt?
Wäre aber nicht gerade das aktuelle Testaufkommen gut für nen anständigen Test bspw. in Sachen Effizienz? Im Artikel steht, ihr wollt warten auf Tools, die den SoC gesondert betrachten. -> MICH als Endnutzer interessiert der isolierte SoC doch ncith im geringsten? Ich will doch wissen, was kann das Gerät, was ich da in den Händen habe?Volker schrieb:Der Chip kann was, das steht fest, aber dafür muss auch der Lüfter so nervig laut aufdrehen, so krass effizient wie mal behauptet ist es dann nämlich auch nicht. Klar, die Laufzeit stimmt, aber ragt nun wiederum auch nicht heraus als großer Leuchtturm. Unterm Strich nüchtern betrachtet ist es für 1.399 Euro nur ein weiteres Notebook unter 100erten anderen und kann sich durch Nichts hervortun. Ein guter Ansatzpunkt um es in Gen2 besser zu machen.
-> um den Akku (also Ladestrom) und das Display raus zu nehmen bzw. zu separieren, kann man es ja raus rechnen und dediziert angeben. Der Rest ist sozusagen eine fixe Einheit. Die GPU funktioniert ja auch nur so, wenn genug schneller Speicher dran klemmt. Es bringt also nix, da was rauszurechnen!? Gerade ggü. den x86 Modellen, wo es durchaus nen Unterschied macht, ob das jetzt LP-DDR irgendwas ist oder steckbarer SO-Dimm in langsam.
Man könnte hier bspw. Test mit Verbrauchsmessungen dediziert über die Ladestrippe machen. Vielleicht sogar, wenn ihr euch analog dem dGPU Test Setup was baut um am USB-C Port hinter dem NT zu messen. Also der Wirkungsgrad nicht inbegriffe ist.
Bei Geräten wie den Apple mit M SoC ist das durchaus interessant, weil ja mehr Ausstattung auch mehr RAM und mehr Bandbreite und damit möglicherweise andere Verbrauchswerte bedeutet.
-> das kann man ja auch dann visuell in einer Kurve ggü. der Benchmark Laufzeit legen. Analog den Diagrammen mit Takt und Software-Ausgelesenem Verbrauch.
Ein weiterer Vorteil ist, dass auch das Kühlsystem mit einfließt. Einzig der Mehrverbrauch durch Ausstattung wird ggf. zu Inkonsistenzen führen. Aber das dürfte sich in Grenzen halten, wenn man die gleiche Kategorie Gerät jeweils betrachtet. Also kein fettest Desktop Eisenschwein mit OC Board ggü. nem 15W Ultrabook testet.