Test Vivobook mit Snapdragon X Elite im Test: Benchmarks & Eindrücke zum Reboot von Windows on Arm

deekey777 schrieb:
Ist das nicht offensichtlich?
Nein. Denn all das, was du schreibst...
deekey777 schrieb:
Bei Centrino-Geräten ging es nie um die pure Leistung, sondern um de Mobilität (auch wenn Pentium-M schon ein Kracher war).

Es geht nicht immer um die pure Leistung, sondern auch wie lange man das Gerät mobil nutzen will. Und es geht auch darum, dass viele hier falsche Vorstellungen haben (bestimmt reine Desktopnutzer).
...ist zwar richtig. Aber was hat das damit zu tun?
leckerbier1 schrieb:
Ich sehe die Technik eher in Einsteiger Notebooks bis 400€ zum arbeiten. Was soll ich mit so einem teuren Gerät, wenn nichts richtig läuft.
deekey777 schrieb:
Das dachten sich vor gut 20 Jahren die Käufer eines Centrino-Laptops auch.
Sprich, die Frage bleibt bestehen:
CDLABSRadonP... schrieb:
Was meinst du damit im Kontext?
Wo besteht der Bezug zum Kommentar von @leckerbier1 ?
 
Sehr vielversprechende erste Tests.

Ich habe in Erinnerung dass es auch möglich sein soll, andere GPUs mit dem Snapdragon X zu verbauen.

Sind da schon Geräte in Planung, weiß das jemand?
 
Innocience schrieb:
Bin schwer unbeeindruckt von dem Chip und ARM. Aber wenn es hilft, diese blöden CISC und RISC Debatten ad acta zu legen:
Die Diskussion um CISC und RISC kann man heute sowieso vollkommen ausblenden, weil die Vorteile von CISC - höhere Lesbarkeit - und RISC - atomare Operationen - heute verschwommen sind.

Bei heute modernen Prozessoren, werden quasi alle Instruktionen durch einen Decoder geschleust und in µOPs zerlegt, egal ob jetzt ARM (RISC) oder x86 (CISC).

RISC und CISC sind Philosophien dahinter, wie man die ISA entwirft. Bei RISC versucht man sich auf elementare Operatoren zu beschränken, während man bei CISC auf Grund der Lesbarkeit halt auch komplexere Operatoren zulässt. Wenn man es mal extrem vergleichen will: Brainfuck gegen Basic.

Mein Professor in theoretischer Informatik sagte uns mal sehr deutlich, dass man jeden Beweis mit nur 2 grundlegenden Operatoren führen kann und damit sind nicht "+" und "-" gemeint, sondern "erhöhe um 1" und "verringere um 1". Entsprechend fies waren auchs eine Klausuren, weil man erst mal +/-/*/: beweisen musste.
Herdware schrieb:
Und auch wenn diese Kompatibilitätsschicht etwas Leistung kostet, fällt das bei den komplexen, modernen SoCs, die viel mehr als nur CPUs sind (große Cache-Speicher, iGPU, Speicher- und PCIe-Controller usw.), in Sachen Effizienz kaum noch ins Gewicht.
In ARM sind heute CISC ähnliche Anweisungen, in x86 heute RISC ähnliche. Auf einen Decoder, der damit umgehen kann, sind quasi heute alle µArchs angeweisen. Reihn theoertisch könnte man durch einen "programmierbaren" Decoder sogar ARM und x86 in der gleichen µArch laufen lassen.

RISC ist eine Entwicklung der immer besseren Compiler der 70er und 80er, deutlich effizienteren Code auch mit C und C++ sowie Konsorten erzeugen konnte. Entsprechend hat die Lesbarkeit von Assembler stark abgenommen.

Bereits damals hat x86 mit einen Decoder gearbeitet und manche komplexe Instrukltion in µOPS zerlegt. Geschwindigkeit gab es damals oft dann, wenn besonders langwierige Instruktionen in Hardware gegossen wurde.
Herdware schrieb:
in Sachen Effizienz kaum noch ins Gewicht.
Stimmt, CISC oder RISC ist heute für die Effizienz kaum von Bedeutung. Leider wird x86 und ARM immer mit CISC und RISC gleichgesetzt, was so aber nicht stimmt. Leider hält sich auch bis heute - selbst bei Menschen die es theoretisch besser wissen müssten - die Mär, dass RISC sich nur für effiziente und langsame "CPUs" eigenet, während CISC (wegen dem Wort "Complex") ineffizienter wäre, dafür aber deutlich schneller. Oft ist das sogar die Begründung dafür.

Was in Sachen "Effizienz" damals als auch heute noch ins Gewicht fällt, sind eher die Rahmenbedienungen der ISA, die unabhängig von CISC oder RISC sind. Bis heute wird von vielen unterschätzt, welche Auswirkungen die Anzahl der Register, die der Compiler nutzen kann, auf die Effizienz hat, weil damit bestimmt wird, wann man auf den "Cache/RAM" zugreifen muss oder ob man es sich sparen kann.

Ja, ich weiß, dass es Schattenregister und Registerrenaming gibt, die verhindern aber die Zugriffe auf den Cache/RAM nicht. Schattenregister sind vorhanden, damit jede ALU/ST/LD-Einheit sich entsprechend austoben kann und keine Wartezeit entsteht. Die Store-Einheiten können aus einem bearbeitete Register die Daten wegsichern, die LD-Einheit in ein Register die Daten schreiben, die ALUs wiederum können mit anderen Registern rechnen. Ändert am Ende aber nichts daran, dass der Compiler bei 8 Registern öfter ein LD/ST benötigt, als bei 16 und eben bei 32. Intel beschreibt das ganze bei APX sehr gut. Wichtig ist dabei der Satz: "Register accesses are not only faster, but they also consume significantly less dynamic power than complex load and store operations." Würden die Schattenregister ausreichen, dann hätte sich Intel APX auch sparen können.

Und Register-Renaming ist für OoO eine Grundvoraussetzung, da Operatoren unabhängig sein könnten, aber durch Verwendung gleicher Register, sich dennoch blockieren können. Entsprechend wird diese Abhängigkeit damit aufgelöst.
MrTony schrieb:
Das ist halt was, was mich beim SnapdragonX Elite gerade wundert. Apple gatte damals erklärt, dass die Leistung bei geringerem Energieverbrauch nur dank des durch ARM reduzierten Instruction Sets möglich ist.
Hast du dazu einen Link und sicher, dass hier wirklich "RISC" und "CISC" gemeint war, oder die ISA allgemein?

Weil bei der ISA (allgemein) hat Apple durchaus einen Punkt, wobei es halt darauf an kommt, was genau gemeint ist.
 
  • Gefällt mir
Reaktionen: Smartbomb, trb85, Bill McGyverGat und 2 andere
Volker schrieb:
AMDs Lösung kommt in genau vier Wochen, auch in einem Asus-Notebook wie die Listungen heute zeigen. Und zum gleichen Preis wie das heute!
Und genau das wundert mich stark und lässt mich auch an dem eigenen Glauben von Microsoft an die Plattform zweifeln. Wenn Microsoft Windows on Arm wirklich den Markt durchdringen lassen wollen würde, müssten Sie am Preis schrauben, und das mit Qualcomm Hand in Hand. Beide Hersteller müssten auf Lizenzgebühren und Gewinn-Marge verzichten um P/L-Jäger und die breite Masse an die Geräte zu kriegen. Erst mit einem gewissen Anteil an Usern lohnt sich die Plattform für Microsoft.
 
  • Gefällt mir
Reaktionen: Smartbomb und blackiwid
Wie schaut's den mit Linux auf diesen Laptops aus? Klar will das MS nicht wirklich, aber wenn sie wollen, dass diese Laptops Erfolg haben, sollten sie sich da keine Bloesse geben.

Zum Test selbst: Copilot+ interessiert mich nicht im geringsten, der Test ist durch die Verspaetung von Copilot+ fuer mich interessanter geworden, das Chaos mit dem Embargo ist natuerlich nicht so toll.
 
Fazit: So nicht!

Das ARM Gerät bietet keinen akzeptablen Mehrwert:

Es fehlt ein KO Feature um die Leute zum Umstieg zu bewegen.

Me too reicht nicht für eine komplett neue Technologie.
 
  • Gefällt mir
Reaktionen: blackiwid
Das wird nichts. Microsoft hat mit Arm und auch Smartphones bisher noch nie Erfolg gehabt.

Übrigens spricht man auf PCs von "Programmen". "Apps" gibt es nur auf Smartphones und Tablets.
 
  • Gefällt mir
Reaktionen: Smartbomb
j-d-s schrieb:
Übrigens spricht man auf PCs von "Programmen". "Apps" gibt es nur auf Smartphones und Tablets.
Aber auch nur umgangssprachlich.
 
  • Gefällt mir
Reaktionen: MeisterOek
Na ja…mich hätte der Vergleich zum Apple M3 Pro (12 Core) interessiert und verstand erst überhaupt nicht, wieso dieser nicht als Vergleich herangezogen wurde. Sondern nen oller M1 und nen einfacher M3 (Einsteigermodell).

Zumal Qualcomm so Welle mit der angeblichen höheren Leistung gemacht hatte.

Wurde dieser Test von Qualcomm finanziert?
Oder warum wird hier künstlich beschönigt?

Deutet darauf hin. Denn der echte Konkurrent (Apple M3 Pro 12-Core) oder auch der Apple M4 (Basis) knüppeln den X Elite zu Brei. Siehe unabhängige Benchmarks bei Notebookcheck.com usw.

Für mich wird das Ding nur an Bedeutung gewinnen, wenn die den X Elite in nen Barebone pressen und ich damit einen sparsamen Debianserver für Homebridge und Time Machine in irgendeiner Ecke im Keller betreiben kann.
 
@DevPandi was für ein geiler Post von dir! Sehr viel gelernt. Danke dafür und bitte mehr davon.
 
  • Gefällt mir
Reaktionen: Smartbomb
Kurzfristig weiß Microsoft, dass es noch weiterer Argumente bedarf, Nutzer trotz der weiterhin vorhandenen, individuell potentiell erfahrbaren Nachteile auf die neue Plattform zu bringen. Das eine ist der Preis, das andere der Copilot+.

Genau das, für sagen wir den halben des aktuell veranschlagten Marktpreises dieser Notebooks. also bspw. 700 Euro für das ASUS Vivo in der besseren (32 GB, 1TB) Ausstattungsvariante, könnte man vielleicht noch über all die Defizite mit den Snapdragon SoCs bzw. Windows on ARM hinweg sehen, aber so kann man das Gebotene zu dem Preis m.E. vergessen.

Natürlich hätte man preislich die erste Generation dieser ARM-CPU Notebooks seitens QualComm (und evt. auch Microsoft) preislich mehr subventionieren müssen, um wirklich attraktiv zu sein und ggf. zum Umstieg zu motivieren, so wird das höchstwahrscheinlich nichts.

Bei einem Preis ab 600 bis 700 Euro könnte man für ein Gerät vorwiegend zum Arbeiten und für Medienkonsum - Spiele wegen der schwachen Adreno iGPU und teilweisen Inkompatibilität nicht inbegriffen - noch akzeptieren, aber dann würden sich OLED Display, u.a. wohl nicht mehr rechnen oder es müsste alles - wie das Trackpad und Keyboard - auf möglichst billig gestrickt sein.

Eventuell wurde aber auch vorausblickend der Preis all dieser Notebooks so hoch angesetzt, dass man möglichst viel Spielraum zur Absenkung der Preise haben wird, denn ich sehe - spätestens mit den kommenden AMD Strix Point und Intel Lunar Lake Notebooks - nicht, dass man mit diesen Snapdragon Notebooks preislich annähernd auf Augenhöhe wird liegen können (um sich als Produkt halbwegs akzeptabel zu verkaufen).

Der CoPilot+ ist natürlich das andere Dilemma, denn da dürfte die ambitionierte Recall Funktion (mit den innewohnenden und kritikwürdigen Defiziten, was Privatsphäre/Datensicherheit angeht) den ganzen Start seitens Microsoft mitbombadiert haben (auch für deren Sparte von neuen ARM Surface Geräten, die im Gegensatz zu ASUS erwartungsgemäß wenigstens bei Trackpad und Keyboard überzeugen dürften).

Für mich kämen evt. Strix Point oder auch Lunar Lake bei einem Ultrabook Kauf in Frage (je nachdem was diese bieten und kosten sollen, wobei NPU und (AI oder Core Ultra) 9er-Klasse High End Aufpreis da eher abschreckend sein dürfte in Erstgeneration, da mehr als 7er Klasse für mich i.d.R. bei CPUs/APUs nicht Sinn macht (preis-leistungstechnisch)), aber bei der aktuellen Vorstellung (auch wenn das Test-Bild nicht komplett unstimmig ist und Potential zeigt) von ARM/Snapdragon Notebooks (noch) nicht wirklich (bei den dafür abgerufenen Mondpreisen).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MeisterOek
Interessant ist, dass die Gesamtleistungsaufnahme mit maximal 44 Watt in Cyberpunk 2077 deutlich unter den maximal 85 Watt in Cinebench 2024 liegt.

Dann schaut euch mal die Effizienzergebnisse von PCGH-Dave an, der hat seinen 7800X3D optimiert mit nur 24 Watt betrieben, dabei aber massiv höherer Werte bei Cyberpunk erhalten, insgesamt nur 10% langsamer als bei Standardeinstellung.
Das ein "Smartphone"prozessor nur 16FPS schafft und dabei 44 Watt verbraucht, ist eigentlich nicht wirklich außergewöhnlich.
Die CPU hat da absolut nichts zu tun, das ist quasi schon Niedriglast.
 
@Jan und alle die dahinter stehen, erstmal DANKE für die Infos und die Tests, immer wieder beeindruckend was ihr in der Kürze der Zeit hinbekommt.

Nun ist es soweit Windows on ARM … quasi hat man ein halbes Leben darauf "gewartet" ... es ist grandios wie man so ein Start verbocken kann, wirklich unverständlich ...
Es wäre so einfach gewesen mit einem Partner ein Gerät zu bauen, das angestrebt unter 1000€ bleibt und mit Microsoft an der Hand ein Betriebssystem entwickelt, das vielleicht Ecken und Kanten hat, aber eine solide Basis für die Zukunft darstellt, man muss nur ehrlich sein. Ich denke niemand hätte es ASUS oder Microsoft "krumm" genommen, wenn sie ein pompösen Auftritt veranstaltet hätten, den es ja verdient, aber im gleichen Atemzug gezeigt hätten: "Das ist noch nicht das was wir uns vorstellen ... aber wir sind auf dem Weg." Aber so hat das alles wieder ein faden Beigeschmack und wirkt sich ehr negativ aus ... Software "murks" und ein Notebook mit so einem Touchpad und Tastatur ... geht mal gar nicht, da hilft auch kein OLED.
Sehr sehr schade ... naja hoffen wir das die Zeit da noch ein paar Wellen glatt bügelt.

Bin weiterhin "Fan" von ARM, aber gerade lieber Arm ab, als ARM on Windows. ☺️
 
j-d-s schrieb:
Übrigens spricht man auf PCs von "Programmen". "Apps" gibt es nur auf Smartphones und Tablets.
Man vielleicht, ich nicht. Effiziente, verständliche Sprache mag ich. App wie Application wie Desktop oder Mobile Application ist schon okay, solange die Verständlichkeit nicht zu sehr leidet. Imho.
Du darfst natürlich auch Schreibtisch und Mobiltelefon Programm als beschreibende Begriffe verwenden, wirkt etwas aus der Zeit gefallen auf mich, aber hey, Sprache ist kein feststehendes Konstrukt. 🙂
 
Lunar Lake Jungs, Lunar Lake - ich sage es euch...
Das wird der Grabstein auf dem ARM+WINDOWS Kuscheln werden.
 
MrTony schrieb:
Apple gatte damals erklärt, dass die Leistung bei geringerem Energieverbrauch nur dank des durch ARM reduzierten Instruction Sets möglich ist.

Da ist Apple wohl nicht ganz ehrlich, bzw. handelt es sich um vereinfachte Marketing-Aussagen.

Wenn RISC so viel effizienter ist als CISC, dass es allein den entscheidenden Unterschied ausmacht, warum musste Apple damals dann überhaupt vom PowerPC (RISC) zu Intels x86ern wechseln? Da waren es ja die G5, die zu schlimmen Stromschluckern geworden waren und Intels Core-CPU rannten bei einem Bruchteil des Verbrauchs Kreise darum.

Der Befehlssatz ist nur einer von vielen Faktoren, die beeinflussen können wie effizient eine CPU ist, und längst nicht mehr der wichtigste, da moderne CPU sich die Instruktionen intern eh so zurechtmachen (aufteilen, zusammenfassen, umsortieren usw.), wie sie am effizientesten abgearbeitet werden können.

Was Apple bei Silicon (Mx) so geholfen hat, dürfte viel mehr der Umstand sein, dass sie nicht mehr auf Intels "von der Stange"-Modelle angewiesen waren, sondern sich unbeschränkt genau das maßschneidern konnten, was sie brauchen. Nicht nur was die CPU-Cores selbst angeht, sondern vor allem auch Speicheranbindung, hardwarebeschleunigte Zusatzfunktionen usw., alles maßgeschneidert auf ihr eigenes OS, eigene Treiber usw.
 
  • Gefällt mir
Reaktionen: Smartbomb und trb85
Zurück
Oben