Test Vivobook mit Snapdragon X Elite im Test: Benchmarks & Eindrücke zum Reboot von Windows on Arm

TMII schrieb:
Die Internationale Presse ist witzigerweise nicht so pessimistisch wie die Deutsche und die Kommentarsektion hier. Wenn ich mir die Benchmarks anschaue, wie der Chip in den Benchmarks in der obersten Liga spielt (realistisch würde ich mir maximal einen i7 oder R7 holen, niemals einen R9) und im Youtube Test auch auf eine beachtliche Akkulaufzeit von 16h kommt ist das schon beeindruckend.
Das muss man halt real mal abwarten. Vielleicht lassen sich andere halt auch eher von Zahlen blenden?
Ich mein, du sprichst den Akku Test an. Das ist halt einfach genau genommen ein total sinnloser Test, denn er zeigt exakt gar nix, was mit dem CPU Teil selbst zu tun hat.
Der YT-Laufzeit Test bewertet in erster Linie den Verbrauch des gesamt Systems beim Video Streaming, was maßgeblich durch die Effizienz der GPU Beschleunigung abgehandelt wird.

Real praktisch hab ich davon gar nix. Es reicht schon den Traffic zusätzlich über nen VPN Tunnel zu schicken und von der ach so tollen Laufzeit bleibt die Hälfte über oder sowas im Dreh, weil eben nicht nur Video Encoding + Display Verbrauch gemessen wird, sondern die CPU auch was zu tun hat.
blackiwid schrieb:
Ryzen AI 9 wird spannender, erstens früher da, 2. mehr AI Leistung, 3. billiger in der Produktion, 4. genug speed für 99% der User 5. schnellere GPU.
Würde ich so nicht sagen. Mit 28W und 2GHz Baseclock ist das als 10 oder 12C Design für so manche Anwendungsbereiche die auf nen Kompromiss aus Lautzeit pro Thread und Effizienz setzen, aber schon ein gewisser Rückschritt. Die 8000er kommen mit 8C auf 3,3GHz bei 28W. Das sind mal eben 60%! mehr Bumms.

Ich hätte da lieber anstatt 4+6 oder 4+8 ein 4+4 Design gesehen und dann 3 Komma GHz Baseclock. Davon hat man im Alltag mehr als von nem max Boost mit 5GHz und 10 oder 12C in nem 28W Modell.
Kxlo67 schrieb:
Ich verstehe also nicht was Windows und Qualcomm mir hier verkaufen wollen. Alle Nachteile der aktuellen Windows Geräte gepaart mit, verständlicherweise in der Anfangszeit vorhandenen, Softwareproblemen. Der erste und wichtige Eindruck ist also 'meh'.
Es geht eher darum, die Tür zu öffnen für alternative Produkt in einem Markt, wo es eben Sinn ergibt, die zu nutzen.
Der Test hier ist mMn wenig wert, weil es dem alten Muster nach entweder 1T oder nT Last bencht. Das ist aber in aller Regel nicht der reale Nutzeralltag. Auch die Verbrauchsmessung, siehe oben, ist nichts wert.

Normal müsste man einem Redakteur das Teil mal für ne Woche hinstellen und er müsste seinen Arbeitsalltag damit begleichen. Und dann vergleichen, ob das ggü. nem x86 oder M-Apple Gerät mehr oder weniger gut abschneidet.

Das gleiche gilt bei der Leistung - was bringt mir bspw. CB-2024 nT mit native ARM, wenn ich bspw. Blender rendern will, wo das einfach deutliche Differenzen zeigt? Und dann noch mit ner Performance, die nur an der Strippe im großen Energieprofil mit 80W oder so aus der Steckdose anliegt?
Volker schrieb:
Der Chip kann was, das steht fest, aber dafür muss auch der Lüfter so nervig laut aufdrehen, so krass effizient wie mal behauptet ist es dann nämlich auch nicht. Klar, die Laufzeit stimmt, aber ragt nun wiederum auch nicht heraus als großer Leuchtturm. Unterm Strich nüchtern betrachtet ist es für 1.399 Euro nur ein weiteres Notebook unter 100erten anderen und kann sich durch Nichts hervortun. Ein guter Ansatzpunkt um es in Gen2 besser zu machen.
Wäre aber nicht gerade das aktuelle Testaufkommen gut für nen anständigen Test bspw. in Sachen Effizienz? Im Artikel steht, ihr wollt warten auf Tools, die den SoC gesondert betrachten. -> MICH als Endnutzer interessiert der isolierte SoC doch ncith im geringsten? Ich will doch wissen, was kann das Gerät, was ich da in den Händen habe?
-> um den Akku (also Ladestrom) und das Display raus zu nehmen bzw. zu separieren, kann man es ja raus rechnen und dediziert angeben. Der Rest ist sozusagen eine fixe Einheit. Die GPU funktioniert ja auch nur so, wenn genug schneller Speicher dran klemmt. Es bringt also nix, da was rauszurechnen!? Gerade ggü. den x86 Modellen, wo es durchaus nen Unterschied macht, ob das jetzt LP-DDR irgendwas ist oder steckbarer SO-Dimm in langsam.

Man könnte hier bspw. Test mit Verbrauchsmessungen dediziert über die Ladestrippe machen. Vielleicht sogar, wenn ihr euch analog dem dGPU Test Setup was baut um am USB-C Port hinter dem NT zu messen. Also der Wirkungsgrad nicht inbegriffe ist.
Bei Geräten wie den Apple mit M SoC ist das durchaus interessant, weil ja mehr Ausstattung auch mehr RAM und mehr Bandbreite und damit möglicherweise andere Verbrauchswerte bedeutet.
-> das kann man ja auch dann visuell in einer Kurve ggü. der Benchmark Laufzeit legen. Analog den Diagrammen mit Takt und Software-Ausgelesenem Verbrauch.
Ein weiterer Vorteil ist, dass auch das Kühlsystem mit einfließt. Einzig der Mehrverbrauch durch Ausstattung wird ggf. zu Inkonsistenzen führen. Aber das dürfte sich in Grenzen halten, wenn man die gleiche Kategorie Gerät jeweils betrachtet. Also kein fettest Desktop Eisenschwein mit OC Board ggü. nem 15W Ultrabook testet.
 
TMII schrieb:
Die Internationale Presse ist witzigerweise nicht so pessimistisch wie die Deutsche und die Kommentarsektion hier.
Naja Amerikaner verdienen mehr Geld und die kaufen sich lieber jedes Jahr für 10.000 Euro neue Tech statt Krankenversicherung. Wenn der deutsche AN auch 80% der Krankenversicherung am Ende des Jahres ausgezahlt bekähm und er nur so ne schlechte Teilkaskokrankenversicherung Krankenversicherung hätte und es keine MwSt gäbe würde der eine oder andere auch lockerer mit Unsummen um sich schmeißen.

Warum ist Apple in USA erfolgreicher, weil dort paar Tausend Euro pro Jahr an Handykosten egal sind, deshalb kostet dort ein Handyvertrag auch 50-100 Euro im Monat.
Ergänzung ()

fdsonne schrieb:
Die 8000er kommen mit 8C auf 3,3GHz bei 28W. Das sind mal eben 60%! mehr Bumms.
was ist das denn für ne komische Mathematik? Du vergleichst nur Takt aber nicht Core zahl? Und wieso vergleichst du nur den Baseclock, wenn Last an liegt wird wohl primär der Turbotakt relevant sein, vielleicht taktet er dann nach ner weile jeh nach Kühlleistung bisschen zurück aber nicht zum Baseclock.

Dazu kommt das das die TDP ist, das heißt bei den neuen müssen die 100% Auslastung der NPU mit einrechnen. Ohne das dort Last drauf liegt wird das Max ein paar Watt niedriger sein.
 
Zuletzt bearbeitet:
Jan schrieb:
Wer das gut findet: bitte nutze CB ohne Adblocker oder unterstütze uns mit ComputerBase Pro, damit sich so ein Tiefgang lohnt.
Prinzipiell stimme ich zu. Also habe ich auf dem Testbericht uBlock Origin ganz ausgeschaltet und in uMatrix cdn.singleweb.com und cdn-a.yieldlove.com erlaubt, denn das waren die einzigen aufgelisteten Domains abseits google. Seite neu geladen, es erschienen die "Bitte schalte Werbung aus"-Banner sowie eine neue Domain im uMatrix, cdn.adpushup.com. Dieser Domain erlaubt. Die Banner blieben unverändert. Alles für yieldlove erlaubt -- keine Änderung außer dass "literarisch" über ein Dutzend neuer Domains in meiner uMatrix-Liste aufgetaucht sind. Manche wollen Frames einblenden, aber die meisten natürlich Skripte ausführen. An der Stelle hab ich die Lust verloren, die richtige Domain rauszufinden. Dieses Nachladen von Domains, die Domains nachladen, die Frames einbetten, die weitere Domains nachladen ... das ist by design, um das alles maximal undurchdringlich und möglichst wenig nachvollziehbar zu machen. Ein hypothetisches ad.computerbase.de, das alles bündelt, würde ich sofort erlauben.

Nachtrag: selbst nachdem ich beide Blocker aus hatte, kamen nur die "Bitte ausschalten"-Banner und hellgraue Platzhalter für die "Anzeige"-Inhalte im Artikel. Keine Ahnung, wieso das so ist, denn das hier ist mein Arbeitslaptop, noch dazu im Firmennetz statt dem heimischen WLAN mit pihole.

Nikon71 schrieb:
Wer soll die Zielgruppe von Windows on Arm-Geräten sein?
Ich hätte wahnsinnig Lust auf ein passives Gerät mit möglichst wenig Idle-Verbrauch. Das muss auch kein Leistungskracher sein -- bei mobilen Geräten gilt Laufzeit und Kühle über Bumms. Das Niveau meiner ZBox mit Intel N5100 würde unterwegs voll ausreichen, um Fotos zu verwalten, Mails zu lesen, zu surfen, Filme zu gucken oder sogar mal für ein wenig Programmierung zu machen. Für die anspruchsvollen Dinge gibt es ja noch nen PC zu Hause.

flaphoschi schrieb:
Betriebssystem mit nativen Ports? Also Linux
+1. Beim Lesen dachte ich mir auch, ob man eine Leistungssteigerung sehen würde, wenn man das OS und die Software wie bei Gentoo auf die CPU optimieren würde, statt ein generisches OS für den kleinsten gemeinsamen Nenner zu nutzen. Im Alltag würde man vielleicht mess- aber nicht spürbare Änderungen haben, aber bei Benchmarks oder rechenintensiven Anwendungen wie Packern könnte das signifikant werden.
 
  • Gefällt mir
Reaktionen: flaphoschi
hm, überzeugt mich jetzt nicht... dachte arm ist das ultimative heilmittel und alles ist dann viel viel besser? ;) /s
 
@Donnerkind dann bleibt dir ja noch ComputerBase Pro. Ich kann verstehen, wenn man die Anzeigen nicht will oder das, was damit zusammenhängt. Aber ich kann mir von "dann eben doch ohne Anzeigen" weder das eigene, noch das Leben meiner Familie, noch das Leben der angestellten oder freien Redakteure finanzieren. :)
 
  • Gefällt mir
Reaktionen: Smartbomb, kim88, Vendetta192 und 2 andere
wenn es jetzt noch lüfterlose Geräte gibt, schlage ich zu. Sehr interessanter Testbericht. Schönes Gerät.
 
blackiwid schrieb:
was ist das denn für ne komische Mathematik? Du vergleichst nur Takt aber nicht Core zahl?
Ich vergleiche das, was ich nach dem "Boostoverdrive" sehe, sozusagen das, was ich bei Belastung im Worst Case in einer Langzeitmessung habe. Ich benötige dafür bei weitem keine nT Volllast. Also die Corezahl ist dabei nebensächlich, da bei 28W Powerbudget 1-2 Cores reichen unter Last um dieses Limit auszufahren. Geht man davon aus, dass alle 10 oder 12C in Use sind, bleibt es am Ende beim von mir genannten. Die pro Thread Performance liegt beim Äquivalent von ~2GHz, je nachdem wie weit er einregelt. Während der Andere bei um die 3,3GHz liegt. Wäre das deutlich über 2GHz, dann hätten sie mehr Baseclock angegeben. Das muss also einen Grund haben.

Wie gesagt, wenn man nur 1T oder nT kennt, ist das natürlich irrelevant. Aber es gibt eine Menge Szenarien dazwischen ;)
blackiwid schrieb:
Und wieso vergleichst du nur den Baseclock, wenn Last an liegt wird wohl primär der Turbotakt relevant sein, vielleicht taktet er dann nach ner weile jeh nach Kühlleistung bisschen zurück aber nicht zum Baseclock.
Nö, weil der Boostclock nur für kurze Zeit und auch nicht Dauerhaft anliegt. Ein Notebook ist doch kein NUC oder ähnliches Gerät, wo ein Übertritt der Powerlimits Dauerhaft möglicherweise geduldet bzw. erlaubt ist. Normal pegelt sich das bei Belastung irgendwann im Rahmen der Powerlimits ein. Sprich bei anhandelder Belastung muss das mit 28W möglich sein. -> da ist dann nix mit 5GHz. Das siehst du, wenn überhaupt, bei kurzen Last Peaks.
blackiwid schrieb:
Dazu kommt das das die TDP ist, das heißt bei den neuen müssen die 100% Auslastung der NPU mit einrechnen. Ohne das dort Last drauf liegt wird das Max ein paar Watt niedriger sein.
Müssen sie? Wo steht das?
Der Baseclock wird normal bei CPU Load ermittelt. Genau so wie davon die GPU unbeeindruckt ist. Fahre ich die 780M meines 7840HS voll aus, bliebt CPU seitig auch nicht viel über. Oder andersherum, wenn die CPU in einem Game viel zu tun hat, dann bleibt für die GPU auch wenig übrig.

Die NPU ist davon genau so losgelößt.


Mich dünkt, dass die Rechnung eher die ist, dass 50% mehr Cores = 1/3tel weniger Baseclock ausmacht. Weil in er Basis eben dort unten dann ~1/2 mehr Last drauf kommt bei 12 anstatt 8C. Das ist halt ein Problem.
Wahrscheinlich kann man mit manuellem deaktivieren von 4 der 8 "C" Cores ähnliche Effekte für bei den Zen4 Modellen erreichen, sofern die anderen 4 "C" Cores 3GHz+ schaffen ohne stark ineffizient zu werden. Lässt man das OS einfach machen, wird das eher breit geschoben, sodass die Laufzeit pro Thread durch mehr Parallelbetrieb sinken wird. Wie gesagt, für manche Szenarien ist das ein Problem. Zocken + Background Rendering wäre bspw. stark mit Leistungsverlust beim Gaming einhergehend, da dort die Threadlaufzeit eine größere Rolle spielt. Beim Rendern hingegen ist das bumms egal, ob das 16T in schneller pro Thread oder 24T in langsamer pro Thread bedeutet.

Btw. ist das aber schon reichlich OT ;)
 
Maxminator schrieb:
auch unter 15 Watt
wo hast du das mit den 15watt her. ersetzt lunar lake smeteo lake welche bis 28watt gehen?
Ergänzung ()

fdsonne schrieb:
Würde ich so nicht sagen. Mit 28W und 2GHz Baseclock ist das als 10 oder 12C Design für so manche Anwendungsbereiche die auf nen Kompromiss aus Lautzeit pro Thread und Effizienz setzen, aber schon ein gewisser Rückschritt. Die 8000er kommen mit 8C auf 3,3GHz bei 28W. Das sind mal eben 60%! mehr Bumms.
du kannst noch nicht sagen wie die ghz bei 16threads auslastung aussehen , dazu kommt der Ipc gewinn der einzelnen cores.
Dazu kommt das der Boost clock der C kerne noch nicht angegeben ist.

und 28tdp zen4 vs 28tdp zen5 muss nicht den gleichen strom verbrauchen.
 
Zuletzt bearbeitet:
Northstar2710 schrieb:
und 28tdp zen4 vs 28tdp zen5 muss nicht den gleichen strom verbrauchen.
Das stimmt natürlich - aber es hat ja mit Sicherheit einen Grund warum der Baseclock so deutlich niedriger ausfällt. Insofern ist es einfach erstmal eine Überlegung, die einen gewissen Beigeschmack hat. Natürlich ist der IPC Vorteil bei 2GHz mit Zen5 weiterhin vorhanden. Aber wie viel waren das, 15% oder so? Das gleicht die riesen Lücke nicht aus.

Bei den Vorgängern hat das in aller Regel zumindest innerhalb einer Generation schon gestimmt. Also wenn du mit dem Powerbudget runter bist, der Baseclock entsprechend niedriger ausgefallen ist und das auch unter entsprechender Belastung dann die Grenze war mit der man im Worst Case rechnen konnte. Real bei nicht ganz so hoher Last wars es meist etwas drüber - aber das gilt halt auch für alle beteiligten. Sodass sich das Verhältnis selten nennenswert geändert hat. Ob es dann 2 vs. 3,3 oder 2,2 vs. 3,5 sind - Anyway. Das macht den Kohl nicht fett. Ich sehe da nur keine 3, GHz, sonst würden die das entsprechend angeben... Einzige Unbekannte ist, ob das vielleicht den "C" Cores geschuldet ist, weil es generell zu einer ungleichen Taktverteilung kommt. Wie bei Intel - nur weniger schlimm, weil die Basis wenigstens gleich ist.

Wie gesagt, bei Benchmarks ist das weniger ein reales Problem. Da dort meist nT oder 1T getestet wird. Im Alltag kann das ein Thema sein, wo Threadlaufzeiten mancher Anwendungen eben entscheiden.
Der im Test genante ARM Prozessor hat auch 3,4GHz - was auch ne andere Hausnummer ist, vor allem wenn dann native ARM compiliert wurde.
Das kann am Ende schon alles funktionieren, wenn die Software mitspielt. Der Trend, CPUs immer breiter zu bauen, gerade bei Mobile, ist mMn nicht der richtige Weg. Zumindest noch nicht heute.
 
fdsonne schrieb:
Nö, weil der Boostclock nur für kurze Zeit und auch nicht Dauerhaft anliegt.
Hab ich auch nicht behauptet ich sagte er wird zurück takten aber eben nicht auf Basistakt.
Ergänzung ()

fdsonne schrieb:
Mich dünkt, dass die Rechnung eher die ist, dass 50% mehr Cores = 1/3tel weniger Baseclock ausmacht.
Selbst wenn das stimmen sollte ist Takt != Geschwindigkeit, die IPC ist ja auch höher.
 
blackiwid schrieb:
Hab ich auch nicht behauptet ich sagte er wird zurück takten aber eben nicht auf Basistakt.
Schau halt doch in die aktuell verfügbaren Produkte - das Verhältnis stimmt meist im groben überein. Wenn da 2 Komma GHz irgendwas Baseclock bei nem niedrig Powerbudget Prozessor stehen, dann erreicht der die Werte der hoch Powerbudget CPUs nicht unter entsprechender Last.

Da muss man keine Magie erwarten, weil das simple Physik ist.
blackiwid schrieb:
Selbst wenn das stimmen sollte ist Takt != Geschwindigkeit, die IPC ist ja auch höher.
Das ist jetzt aber irgendwie Käse. Natürlich ist Takt = Geschwindigkeit. Wenn du 1/3tel weniger Takt hast bei gleichem Unterbau, dann ist das 1/3tel weniger Leistung. Ein etwaiger IPC Vorteil wird das nicht aufwiegen, vor allem, da dieser auch gegeben wäre, wenn es ein 4+4 Design wäre, wie ich es für Alltagslasten (abseits Review Relevanten nT Benches) gern gesehen hätte.
20-24 Threads sind 20-24 Threads - das ist toll, wenn man es auslasten kann. Aber die Masse der User wird sich mit 8 Threads schon schwer tun. Zudem in einem Notebook mit ner 28W CPU.


Hier punktet der ARM based Prozessor allerdings genau so wenig. Bzw. doch, ein Stück weit, da er wohl nur 12 Threads hat. Sprich er braucht nur die halbe Threadlast wie ein 12C Ryzen oder Intel Prozessor. Wobei man das nochmal genauer beleuchten muss ob alle Cores 3,4GHz (oder mehr) takten oder nur manche...
 
fdsonne schrieb:
Das ist jetzt aber irgendwie Käse.
Ich warte dann mal lieber auf Benchmarks und verlass mich nicht auf deine Spekulationen.

Die Vorstellung das sie eine schlechtere CPU releasen würden als der Vorgänger was wohl deine These ist halte ich für leicht abwägig, dann könnten sie die Gen auch skippen oder das alte Design nehmen und die NPU dran kleben fertig.
Meistens kann 1 Core sehr wohl den Turbotakt dauerhaft halten, und das ist bei vielen Anwendungen ja relevant die nicht auf Multicore optimiert sind, der SINGLE-core takt nicht der 4core takt oder was auch immer dazwischen entweder skalieren die apps mit unendlich cores oder sie skalieren gar nicht, die einzigen Anwendungen wo da bisher nur so zwischendrin skalieren sind Spiele, da ist aber eh die GPU in 99,999% der Flaschenhals.
 
Wie entlarvend der Artikel eigentlich für die Intel Meteor Lake-iGPU in tatsächlichen Games ist, überrascht mich mehr als die miserable iGPU-Leistung des Snapdragon X. Die Ryzen APU-iGPU hat praktisch keine Konkurrenz, zumindest unter Windows.
 
Das liegt halt einfach daran, dass Intel Arc immer noch grottig scheisse ist. Die Desktop-Grafikkarten willst auch nichtmal geschenkt wenn es ums Thema Games geht, es vergeht kein Tag, wenn die mal im Büro im Einsatz sind, wo nicht geflucht wird. Nicht einer! Die Teile sind nur zum wegrennen, garniert mit nem Treiber der oft auch hit or miss ist. Deshalb bringen die ja aktuell gefühlt alle 3 Tage nen neuen, viel hilft aber nicht pauschal viel.

Also Ja, Radeon hat hier keine Konkurrenz. Und mit Strix Point dann wohl noch weniger. Lunar Lakes theoretische deutlich bessere Leistung der neuen iGPU wird vermutlich auch wieder sehr oft verpuffen, sodass overall AMD vorn bleibt.
 
Ich weiß nicht wie sinnvoll es ist, wenn Leistungstests mit maximal aufgedrehten Begrenzern und Laufzeittests mit erheblichen Leistungsbremsen in einem Artikel landen.

Wo landet die Laufzeit, wenn die Begrenzer aufgedreht sind? (Ach, das lässt der Hersteller völlig überraschend gar nicht zu?)

Und wo landet die Leistung, wenn die Geräte nicht durch Netzstecker und Einstellungen aufgepumpt werden?
 
blackiwid schrieb:
Komischer Vergleich, das waren von Anfang an vollwertige PCs, ein guter Vergleich wären eher die Netbooks, dort gehört Arm hin, nicht bei 18" Monster Desktop Replacements...
Ergänzung ()
Hm, also ist mein Surface Pro X kein vollwertiger PC? Wieder was gelernt.

Und nein, es kein komischer Vergleich. Oder anders gefragt: Welchen Centrino-Laptop hattest du so 2004-2005? Also ich hatte einen von Samsung mit Wechselakku (mit größerer Kapazität), relativ großer Laufzeit, WLAN und Geforce4 MX (im Ernst). Ein eher langsameres Gerät, aber mobil und ausdauernd für die damalige Zeit.
 
Donnerkind schrieb:
Prinzipiell stimme ich zu. Also habe ich auf dem Testbericht uBlock Origin ganz ausgeschaltet und in uMatrix cdn.singleweb.com und cdn-a.yieldlove.com erlaubt, denn das waren die einzigen aufgelisteten Domains abseits google. Seite neu geladen, es erschienen die "Bitte schalte Werbung aus"-Banner sowie eine neue Domain im uMatrix, cdn.adpushup.com. Dieser Domain erlaubt. Die Banner blieben unverändert. Alles für yieldlove erlaubt -- keine Änderung außer dass "literarisch" über ein Dutzend neuer Domains in meiner uMatrix-Liste aufgetaucht sind. Manche wollen Frames einblenden, aber die meisten natürlich Skripte ausführen. An der Stelle hab ich die Lust verloren, die richtige Domain rauszufinden. Dieses Nachladen von Domains, die Domains nachladen, die Frames einbetten, die weitere Domains nachladen ... das ist by design, um das alles maximal undurchdringlich und möglichst wenig nachvollziehbar zu machen. Ein hypothetisches ad.computerbase.de, das alles bündelt, würde ich sofort erlauben.

Nachtrag: selbst nachdem ich beide Blocker aus hatte, kamen nur die "Bitte ausschalten"-Banner und hellgraue Platzhalter für die "Anzeige"-Inhalte im Artikel. Keine Ahnung, wieso das so ist, denn das hier ist mein Arbeitslaptop, noch dazu im Firmennetz statt dem heimischen WLAN mit pihole.

Schöne Beschreibung warum man Werbung zu blockieren hat. Es ist Sicherheitsrisiko, so lange sich Betreiber weigern Ihre Werbung selbst auszuliefern.

Die Krankheiten des Internet:
Zertifikate, Werbung ausgespielt durch Dritte, JavaScript Missbrauch und Cookiebanner.

Wenn ich eine Zeitung aufschlage lädt die nicht langsamer wegen der Werbung. Niemand trackt was ich lese. Und die Inhalte verschieben sich auch nicht, weil ein lahmes JavaScript doch noch ein Banner ins DOM einfügt - 5 Sekunden nachdem die Seite geladen wurde.

Donnerkind schrieb:
+1. Beim Lesen dachte ich mir auch, ob man eine Leistungssteigerung sehen würde, wenn man das OS und die Software wie bei Gentoo auf die CPU optimieren würde, statt ein generisches OS für den kleinsten gemeinsamen Nenner zu nutzen. Im Alltag würde man vielleicht mess- aber nicht spürbare Änderungen haben, aber bei Benchmarks oder rechenintensiven Anwendungen wie Packern könnte das signifikant werden.

So weit zu gehen lohnt sich selten. Einfach nur native Ports für GNU/Linux Arch ARM64 als ELf. Das Zeug für Windows ist halt zu 90% Arch X86_64 (oder sogar X86_32) und das auf einer ARM64-CPU :freak:

Offener Quellcode zum Neukompilieren? Haben sie ja nicht. Und wenn dann linkt das gegen zwei zugekaufte andere Bibliotheken.
 
Ich wundere mich auch, warum ausgerechnet diese Geräteklasse (reguläre bzw größere Laptops) hier als Launch Modelle gewählt wurden. IMHO ist doch das logische Biotop einer (angeblich) sehr sparsamen SoC mit trotzdem brauchbarer Leistung und langer Akkulaufzeit die "thin and light" Subnotebooks, also maximal 15 Zoll und um die oder leichter als 1 kg.
 
  • Gefällt mir
Reaktionen: Erenxbo
eastcoast_pete schrieb:
IMHO ist doch das logische Biotop einer (angeblich) sehr sparsamen SoC mit trotzdem brauchbarer Leistung und langer Akkulaufzeit
Wie Du siehst brauchen diesen Qualcomm-Prozessoren völlig überraschend große Mengen rarer Energie um die gewünschten Balkengrößen auch nur annähernd produzieren zu können.

Wie Du schon schreibst, angeblich.
 
deekey777 schrieb:
Ein eher langsameres Gerät, aber mobil und ausdauernd für die damalige Zeit.
Was gabs vor Centrino Pentium 4 im Notebook? heute ist jeder Notebookprozessor Stromsparend gegenüber dem was vor Centrino raus kam... ob man dann 6000 statt 5000 Stunden laufzeit hat ist doch nur noch für wenige Relevant... wie auch immer für mich erinnert das eher an Atom, da die Nachteile teils massiv sind grad bei x86 Ausführung, dagegen war Centrino fast 1:1 gleich schnell wie damalige Desktop Pcs. Und was bring

Und das war ja auf was du reagiert hast:
Ich sehe die Technik eher in Einsteiger Notebooks bis 400€ zum arbeiten. Was soll ich mit so einem teuren Gerät, wenn nichts richtig läuft.
Dann meintest du das haben wir bei Centrino auch gedacht, nein bei Centrino dachten wir nie "da läuft nichts richtig" da lief von Anfang an alles Richtig nichts stürzte ab, nicht zig % der Software lief irgendwie emuliert extrem langsam... daher kann man für einen vollwertigen Prozessor auch hohe Preise verlangen, zumal es Centrino Laptops auch recht schnell recht günstig gab.
 
Zurück
Oben