Test Vivobook mit Snapdragon X Elite im Test: Benchmarks & Eindrücke zum Reboot von Windows on Arm

eastcoast_pete schrieb:
thin and light" Subnotebooks, also maximal 15 Zoll und um die oder leichter als 1 kg.
Dachte ich auch, so ein Surface Pro oder ähnliches wäre ja super. Leider ist dem ja nicht so... Ich frage mich wie viel Leistung in Windows untergeht, bei Smartphones bekommt es Qualcomm ja eigentlich ganz gut hin mit der Effizienz. Vielleicht bekommen wir antworten, wenn die Kerne dann auch in die Snapdragons wandern. Wäre ja schon interessant, wenn das ganze unter Android deutlich effizienter wäre, dann wüsste man zumindest dass das Laufzeitproblem an MS und nicht unbedingt Intel und AMD liegen würde.
Ergänzung ()

blackiwid schrieb:
ob man dann 6000 statt 5000 Stunden laufzeit hat ist doch nur noch für wenige Relevant...
Da schau dir mal an wie sich die Surface Pro Besitzer in der Uni an ihre Ladegeräte klammern😂😂
Die Ipads halten deutlich länger durch und die Besitzer sehen entspannter aus, während ich zum Beispiel gar schon bis zu 30% Verbrauch nur durchs mitschreiben bei geringer Helligkeit habe.
Klar hat man das Problem normalerweise weniger, aber ab und zu erleben das bestimmt viele mal in irgendeiner Form.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eastcoast_pete
flaphoschi schrieb:
Wenn ich eine Zeitung aufschlage lädt die nicht langsamer wegen der Werbung. Niemand trackt was ich lese. Und die Inhalte verschieben sich auch nicht, (…)
Ist schon ne Weile her, dass ich mir eine Zeitung gekauft habe. Frühertm waren bei Wochenzeitungen Werbebeilagen, zusätzliche Magazine und dergleichen normal. Getrackt as in realtime wurde nicht, Verkaufszahlen waren aber schon bekannt und so auch, neben Leserbriefen als Feedback, wie gut sich das Druckerzeugnis verkauft. Verschobene und unterbrochene Inhalte gab es, nicht wegen Javascript sondern wegen (groß-)flächiger Anzeigen.

Computerbase bemüht sich in Hinblick auf Werbung mehr als andere, finde ich.
 
Diablokiller999 schrieb:
Als Entwickler wären Compile-Zeiten aktueller Open Source Projekte im Test Mal ganz spannend, wie lange benötigt ein SoC für Qt6.7.1 mit der selben Config auf allen Rechnern z.B.
Ist zwar auch von der Kühlung abhängig, aber dennoch fände ich das Mal ganz spannend, wie sich die Teile mit Clang und GCC so schlagen.
Müsste man denke ich auch mit einer Ramdisk testen oder zumindest mit derselben SSD und am besten auf Linux. Nebst der CPU hat hier I/O einen guten Einfluss.
Ergänzung ()

Kadett_Pirx schrieb:
So sieht eine passende Artikelüberschrift aus, zumal nach all der Werbung durch M$ und den Vorschusslorbeeren nun der Copilot+ noch nicht mal wie geplant läuft. Wie peinlich ist das denn bitte?
Ich bin kein Fan von Apple. Aber was diese wirklich gut machen, sie kündigen an und dann ist es normalerweise auch direkt da und nutzbar.
Ergänzung ()

TMII schrieb:
Die Internationale Presse ist witzigerweise nicht so pessimistisch wie die Deutsche und die Kommentarsektion hier.
Ich war als ich gestern auf Youtube war auch erstaunt wie positiv die Youtuber berichten. Konnte aber nicht wirklich nachvollziehen warum.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Diablokiller999
KlaasKersting schrieb:
Die meisten Reviewer testen die Leistung mit dem Höchstleistungsprofil am Strom, aber die Laufzeit unter ausgeglichen oder gar Energiesparen, logischerweise nicht am Strom.
Wie will man das auch anders machen? Es ist relativ sinnlos, die Laufzeit bei Vollast zu testen, weil das in der Praxis irrelevant ist. Unter Dauervollast wird auch ein MacBook Pro nur 2-3 Stunden (oder gar weniger) Laufzeit schaffen. Worüber man sich streiten kann ist, ob die Laufzeittests wirklich immer mit niedriger Helligkeit gemacht werden müssen. Das ist ähnlich realistisch wie Verbrauchstests von Autos mit ausgeschalteter Klimaanlage/Heizung.


DevPandi schrieb:
Bei RISC versucht man sich auf elementare Operatoren zu beschränken, während man bei CISC auf Grund der Lesbarkeit halt auch komplexere Operatoren zulässt.
Wenn Du mit "Lesbarkeit" "Komfort bei der Programmierung in Assembler" meinst, dann stimmt das. In den 70/80ern wurde tatsächlich noch viel Assembler programmiert, und da war der Komfort der ISA tatsächlich ein Argument. Ich erinnere mich noch gut daran, wie die Atari und Amiga Fans den im Vergleich zum 8086 komfortablen Befehlssatz des 68000 hervorgehoben haben. Natürlich haben sie dann trotzdem meist in Basic programmiert ;)
Ein anderer Grund war durchaus auch Codegröße. Damals war Speicher noch knapp und teuer. Deswegen hatte man auch Zwei-Address oder sogar Ein-Address (Akkumulator) Befehle, das sparte Instruction Bits.

Der dritte Grund war das Fehlen leistungsfähiger EDA Tools, das machte den Control Path schwierig zu entwickeln und zu debuggen. Mit Microcode konnte man ein Teil des CPU Designs in Software verlagern, den Microcode konnte man einfach im Simulator debuggen.
Manche Prozessoren wie der Z8000 oder die NS32 Serie hatte vermutlich auch deswegen mit vielen Bugs zu kämpfen, weil man die Design Methoden aus der 8 Bit Zeit auf komplexe 16 und 32 Bit CPUs anwenden wollte.

Eigentlich wäre es richtiger zu sagen, das die ersten RISC CPUs nicht wegen, sondern trotz des reduzierten Befehlssatzes und der fixen Befehlslänge schnell waren.
Man konnte die Chip Fläche, die man sonst für das Microcode ROM und komplexe Befehlsdecoder verwenden musste, für sinnvollere Dinge wie ein großes Register File, Barrel Shifter, usw. einsetzen.
Obendrein waren die CPUs viel einfacher zu designen. Man darf nicht vergessen, das das Team, dass den ARM1 entworfen hat, eigentlich total unerfahren im Prozessordesign war.

DevPandi schrieb:
Leider hält sich auch bis heute - selbst bei Menschen die es theoretisch besser wissen müssten - die Mär, dass RISC sich nur für effiziente und langsame "CPUs" eigenet, während CISC (wegen dem Wort "Complex") ineffizienter wäre, dafür aber deutlich schneller. Oft ist das sogar die Begründung dafür.
Als Seiteneffekt war ARM sehr klein und sparsam, und hat dann, nach zunächst mangelnden Erfolg im Desktop Bereich seinen Sweet Spot in Mobilgeräten gefunden. Daher haftet ARM immer noch der historische Ruf an, zwar sparsam, aber verhältnismäßig langsam zu sein.

Grundsätzlich waren die ersten RISC CPUs massiv schneller als vergleichbare CISC Designs aus der gleichen Zeit (z.B. Motorola 6800xx vs. SPARC/MIPS/PA-RISC/PowerPC). Deswegen sind damals ja die Workstation Hersteller und Apple sehr schnell von Motorola auf die genannten RISC Architekturen gewechselt.

Intel hat dann aber in Folge einfach durch die Unsummen an Geld, dass sie durch die großen Stückzahlen im PC Bereich verdient haben, alle anderen Architekturen überholt.

Apple hat nun bewiesen, dass es grundsätzlich anders geht, und ich denke auch die Snapdragons sind jetzt durchaus nicht schlecht. Ich würde jetzt erst mal abwarten, anscheinend sind sowohl die Geräte, die Software und nun auch die ersten Tests mit der heißen Nadel gestrickt. Ist natürlich schade, dass es scheinbar so "verkackt" wurde, damit wird viel Vertrauen zerstört.

DevPandi schrieb:
Weil bei der ISA (allgemein) hat Apple durchaus einen Punkt, wobei es halt darauf an kommt, was genau gemeint ist.
Soweit ich weiß, unterstützt Apple Silicon nur die 64Bit ARMv8/9 ISA, ARMv7 mit seinen ganzen etwas vermurkst historischen Erweiterungen wurde entfernt. Das kann schon etwas Energie und Chipfläche im Frontend sparen und außerdem erleichtert es die Verifikation, sodass man schneller neue Generationen entwickeln kann.
 
Zuletzt bearbeitet: (Diverse Fehler korrigiert)
abgesehen von dem cpu teil der APU bin ich gespannt wie sich Adreno gpu noch so entwickelt mit treibern und neueren Entwicklung wenn qualcomm weiter macht, wo von ich ausgehe.
 
Nach 7 Monaten mit Windows ARM64 hab ich heute den ersten Roadblock erreicht. Die haben einfach die Treiber für USB-Floppy Laufwerke rausgestrichen! Kann man nach heutigem Stand nicht empfehlen, wie soll ich jetzt mein Win98 Boot Floppy Image schreiben? Muss ich den Shyzen anwerfen..
 
Da wird qualcommtypisch nichts passieren. Schliesslich muss man den heutigen Kunden schon morgen wieder was Neues andrehen und die dort übliche Mobilfunkkarotte zieht bei Leuten, die sich für Grafikleistung interessieren, in der Regel nicht.
 
sedot schrieb:
Computerbase bemüht sich in Hinblick auf Werbung mehr als andere, finde ich.
Korrekt.

Phoronix ist dagegen ein Negativbeispiel.

Computerbase scheint auch nichts mit der Cookieterrorbande vom Münchner „Startup“ UserCentrics GmbH zu tun zu haben.
 
Zuletzt bearbeitet:
Also noch nicht wirklich aufregend das ganze. Wird wohl noch einiges an Software optimierugen brauchen und bis dahin werden dann auch schon die ersten AI-PCs von Intel und AMD verfügbar sein. Ich bin mir sicher, die werden Snapdragon in puncto Performance ohne Probleme schlagen, und wenn die von der Effizienz dann auch noch mithalten können, gibt es eigentlich keinen Grund mehr sich für ARM zu entscheiden. Hoffentlich hat Microsoft da nicht aufs falsche Pferd gesetzt.
 
flaphoschi schrieb:
Phoronix ist dagegen ein Negativbeispiel.
Naja, auch er will von irgendwas leben. Außerdem Phoronix Premium, alternativ PayPal oder Stripe.
Ohne Phoronix würde der Linux-Medien-Welt ein wichtiger Player fehlen.
 
  • Gefällt mir
Reaktionen: flaphoschi
Ja. Nein.

Ein überzeugter wiegt mehr als zehn gezwungen.

Ohne AdBlocker ist die Seite lahm und lädt Werbung nach. Und dann nochmal und nochmal. Eigentlich lädt es nicht nach, es ist eine Schleife.

Mit Epiphany und AdBlocker (ist da Default) wunderbar. Mit Firefox und Chrome (beide bei mir ohne Blocker) rufe ich die Seite nicht mehr auf. Wenn das Konzept Leute zu Premium führen soll, sollte er sie vorher nicht foltern.
 
Wird mal Zeit das NVIDIA mal wieder ne aktuelle GPU (5060) mit ARM verheiratet für eben dieses Szenario

Dürfte die Spieleperformance ordentlich pushen
 
Brrr schrieb:
Müsste man denke ich auch mit einer Ramdisk testen oder zumindest mit derselben SSD und am besten auf Linux. Nebst der CPU hat hier I/O einen guten Einfluss.
Wenn ich mit der -j Option von make/cmake usw. gcc builds laufen lasse, habe ich unter Windows, Linux, macOS immer nahezu 100% Auslastung auf allen Kernen. Zumindest mit SSDs kann man I/O in der Regel vernachlässigen.

Im übrigen ist mein Macbook Air mit M2 tendenziell schneller als mein Desktop mit Ryzen 5 3600 beim compilieren. Das gilt sowohl unter macOS nativ, als auch mit einer Debian @ ARM VM.

Man muss auch schon ziemlich große Builds haben, damit das Air drosselt.

Für die Einschätzung von Compiler Laufzeiten kann man den Cinebench Multi gut als Anhaltspunkt verwenden.
 
Wäre cool wenn ihr auch rin Galaxy Book4 edge testen könntet und es evtl. gegen das Asus antreten lassen könntet...
 
sedot schrieb:
Windows ist keine Referenz im mobilen Segment für mich. Web-Apps bzw. dann selbstverständlich responsive Apps gibt es für iOS, macOS und Linux-Systeme – es wird einfach auch der Tatsache Rechnung getragen, dass User unterschiedliche Geräte(-Klassen) nutzen aber gern ihre bevorzugten Anwendungen überall verwenden können.
Rein funktional unterscheidet sich zum Beispiel Signal nicht, egal ob iOS, macOS oder Linux-Desktop. Ähnlich bei VLC, zumindest aus meiner subjektiven Sicht.

Anwendungen die explizit „nur“ für ein Segment optimiert sind halte ich für Dinosaurier. Ausnahme sehr komplexe Software, die aber durchschnittliche User seltenst nutzen (müssen).

Ich spreche hier doch auch vom "weniger mobilen" Segment (Desktop+Laptop), wo Windows dominiert.

Dass da in großem Umfang Apps für Dinge verwendet werden, die genauso gut im Browser laufen, wäre mir neu.
Daher eben die Bezeichnung "Programm" - die nicht nur einen Einsatzzweck haben (wie eben eine App eines Unternehmens zur Verwaltung eines eigenen Dienstes), sondern vielseitig verwendbar sind. Ein Browser ist dafür ein gutes Beispiel, der zwar vom Grundsatz her nicht notwendigerweise besonders umfangreich sein muss, aber eben einer für sehr viele Einsatzzwecke reicht.

sedot schrieb:
Dann ist es Zeit etwa andere Anwendungen zu nutzen, den Akku zu tauschen oder mal das Gerät zu erneuern. Fehler gibt es bei fast jeder komplexen Software, egal ob online only oder offline – die Möglichkeit Bugs zu melden allerdings auch.

Es dürfte bei nahezu allen Betriebssystemen besser sein, wenn man statt 300 installierter Anwendungen nur 100 hat. Auch wenn alle Anwendungen an sich problemlos funktionieren.
 
Wirklich interessant finde ich solche Vergleiche aktuell noch nicht.
Im Vorweihnachtsgeschäft, was dann auf dem Markt ist an "AI PCs", das wird spannend!
Persönlich werde ich die Produkte erst Mal reifen lassen, sich die Preise einpendeln lassen und mich dann in 2-3 Jahren nach was jungen gebrauchten im Bereich von 500-600 Euro umsehen.
Bis dahin hab ich kürzlich erstmal ein Lenovo Ideapad mit 5800H für 420€ erstanden um dem Windows 10 Support Ende nächstes Jahr zuvor zu kommen und aus dem alten Asus noch einen Restwert heraus zu holen. Sonst hätte das für mich noch 2-3 Jahre gereicht :rolleyes:
 
Zum Thema Lunar Lake:
"TSMC kicks off 3nm chip production for Intel, say sources" Quelle: https://www.digitimes.com/news/a20240617PD217.html
Also, Großserienfertigung hat begonnen. Intel ist über ihren Schatten gesprungen und die Fertigung von Lunar Lake wird in der Tat bei TSMC in 3 nm gemacht.

Zusammen mit den Strix von AMD gibt's dann bald gleich zwei interessante Antworten aus dem x86 Lager.
 
Conqi schrieb:
Fairerweise muss man sagen, dass die Konkurrenz sowohl von Intel als auch AMD damals deutlich schwächer war und Apple auch nicht gerade die performantesten Intel-Notebooks seiner Zeit gebaut hat mit Blick auf Kühlung etc. Ein M3 liegt heute zwar sehr gut im Rennen, aber enteilt der Konkurrenz auch nicht im Ansatz so wie es der M1 damals tat.
Auch das stimmt nur bedingt. Ein 4750u war damals z.B. Intel derart überlegen in allen Aspekten - doch wurde dieser nie zum Vergleich herangezogen, sondern nur den wirklich schlechten Intels gegenübergestellt. Es war auch das festhalten Apples und kein Umstieg hin zu AMD was viele sehr verwunderte. Und die große Ankündigung damals. Viele rechneten mit AMD als neuen Partner und nicht mit einer eigenen CPU. Aber das ist Geschichte.
Im Nachhinein betrachtet, sieht es für mich aus, dass zur Gewinnmaximierung und auch noch stärkeren Abgrenzung (kein Hackintosh mehr möglich) dies so geplant war, x86 möglichst schlecht aussehen zu lassen und damit auf Intel fixiert zu bleiben, um einen möglichst großen Unterschied ins positive zeigen zu können. Mit AMD Hardware zum Vergleich hätte es bei weitem keinen so großen Unterschied gemacht. Natürlich gab es keine Chips mit noch größerer Leistung direkt - also für Pro/Max aber Custom Lösungen bietet ja auch AMD an - siehe Konsolen, da hätte es sicher entsprechndes geben können, wenn gewünscht.
 
FYI:

Nachdem das erforderliche Update nicht installiert werden konnte und die Wiederherstellung des Musters in einer Dauerschleife endete, habe ich jetzt die (bisher nur inoffiziell verfügbare) Arm-ISO von Windows 11 26100.863 installiert (FAT32 zwingend vorausgesetzt, also erstmal die 4,x GB große Install-Datei gesplittet etc. pp.) und siehe da, jetzt zeigt sich auch der Paint Cocreator (Auto SR ging ja vorher schon, Recall ist generell verschoben).

3-Den-Microsoft-Cocreator-als-neue-Funktion-in-Paint-erhalten-nur-Copilot-plus-PCs-Vorerst-sin...png


Grundsätzlich finde ich das aber alles sehr verwirrend: den Copilot bekommen alle Windows-10- und Windows-11-PCs (in Zukunft basierend auf GPT-4o), Copilot+ Features hingegen nur die Copilot+ PCs (erst Snapdragon X, später Lunar Lake und Ryzen AI 300). Auch dort heißt der Copilot aber Copilot, die +-Features sind über das System verstreut. Not so easy! Oder?
 
  • Gefällt mir
Reaktionen: s1ave77 und eastcoast_pete
Jan schrieb:
Mit Notebooks samt Qualcomm Snapdragon X Elite und X Plus ist ab sofort eine neue Generation Windows-PCs mit Arm- statt x86-Prozessor verfügbar. Microsoft spendiert zeitlich exklusiv Windows 11 24H2 „on Arm“ mit Copilot+. ComputerBase hat erste Erfahrungen, Messwerte und Benchmarks mit dem Asus Vivobook S 15 (S5507) gesammelt.

Zum Test: Vivobook mit Snapdragon X Elite im Test: Benchmarks & Eindrücke zum Reboot von Windows on Arm
Arbeitet ihr zufällig an einem AutoSR-Test oder ist das für euch nicht so wichtig?
 
Zurück
Oben