Test Intel Lunar Lake im Test: Core Ultra 200V im Asus Zenbook S 14 kann was

Und jetzt bitte Lunar Lake in kleine PCs, am besten passiv, oder zumindest beim Surfen und Video schauen lautlos. Kann doch nicht so schwer so sein.
Aber wie ich die unflexiblen Hersteller kenne, wird das wieder nix. Ein paar Mini PC, 13x13cm, schrottige, laute Lüfter usw. Und das bei dieser 17W CPU.
Ich versteh es nicht. Ich kann doch nicht der einzige Mensch auf der Welt sein, der einen nahezu lautlosen PC wünscht.
 
  • Gefällt mir
Reaktionen: GoGoGadget, Thomaswww, konkretor und 2 andere
UNRUHEHERD schrieb:
Ein Test mit langsamen Speichersticks wäre dennoch spannend.
RAM ist Teil vom Package. Genau um Energieeffizienter zu sein.
BigManda schrieb:
Der Standbyverbrauch setzt sich hauptsächlich aus den aktiven Teilen der CPU (MemoryController, ggf. Wifi etc) und dem Verbrauch des Arbeitsspeichers zusammen,
Wir reden von Standby. Da wird alles so weit wie möglich abgeschaltet. Wenn die CPU noch signifikant Strom verbraucht, wenn sie schlafen soll geht was massiv schief.

RAM, der braucht Strom für sein Self-Refreshing, ja. Auch wenn wir leider nicht ansatzweise gute Zahlen haben, wie der aussieht auch im Verhältnis zur restlichen Platform.
Mit Framework haben gerade ein paar Kunden zB gemessen dass die Phoenix Framework gewaltig mehr Standby-Stromverbrauch mit 48 GiB Modulen haben als allem anderen. Auch noch nicht so 100% klar ob die Schuld bei AMD liegt, die die nicht offiziell unterstützten auf der CPU oder bei den eigentlichen RAM Modulen.
Aber zB zwischen 1 oder 2 16 GiB DDR4 Modulen geht der Unterschied im restlichen Verbrauch der Platform unter.

Sehr wahrscheinlich dass das Board, Embedded Controller, sämtliche Komponenten die das Gerät wieder aufwecken können und wie sie angeschlossen sind den Standby Verbrauch dominieren. Abgesehen von Windows das viel zu viel und oft aufzuwachen scheint (was aber auch von der Hardware beeinflusst werden kann).
modena.ch schrieb:
ARM ist eigentlich ein schlanker, entschlackter Kern mit schmalen Befehlssatz.
Nicht wie das funktioniert. Der Unterschied RISC zu CISC ist schon eklatant. Und x86 ist extrem aufwendig zu handhaben. Das ist ein Haufen Ballast den man eigentlich nicht haben will.

Wie viel das jetzt zum Stromverbrauch beiträgt ist schwer zu sagen. Es limitiert auf jedenfall / macht es wesentlich schlechter skalierend einen sehr breiten Core zu bauen. Und der Stromverbrauch würde vom Dekoder / Front-End kommen. Für den Rest danach spielt es dann quasi keine Rolle mehr. Ob das ein Limit für Intel / AMD in der Praxis ist? Für Energieeffizienz auf kleinen Kernen, absolut. Aber die kleinsten Kerne in Desktop-CPUs sind nicht wirklich klein im Vergleich dazu...


Sowohl ARM als auch x86 hatten ganz simple Anfänge und haben viele Erweiterungen erhalten um die Bandbreite von kleinen, schwachen Embedded Cores bis hin zu High-Performance Cores abzudecken.
Das invalidiert nicht dass die Struktur von x86 abgrundtief hässlich und suboptimal ist und wir nur wegen Legacy Code und etablierten Firmen daran festhalten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 12nebur27 und UNRUHEHERD
BigManda schrieb:
Also das widerspricht so ziemlich dem was ich in Rechnerarchitekturen gelernt habe. Der Standbyverbrauch setzt sich hauptsächlich aus den aktiven Teilen der CPU (MemoryController, ggf. Wifi etc) und dem Verbrauch des Arbeitsspeichers zusammen, welcher unter Spannung gehalten werden muss um die Daten nicht zu verlieren. Diese Komponenten verbrauchen DEUTLICH mehr Strom als irgendwelche Wandler dazwischen.
Ich hatte in Rechnerarchitekturen keine brauchbare Betrachtung der Effizienzverläufe von mehrphasigen Schaltwandlern.. Aus der realen Erfahrung kann ich dir aber sagen, dass ein einzelner Srambaustein <1mA im Selfrefresh ziehen kann[1]. Ein Spannungswandler der jedoch 1..2A liefern können muss, bei diesem Leerlaufstrom meist selber 10..50mA braucht.
Man kann da schon gescheit was bauen, im Zweifelsfall halt ein Schaltwandler, der intern auf einen LDO zurückfällt bei geringen Strömen. Das kostet Geld, erschwert die Entwicklung und ist damit nicht immer zu finden.
Das Spiel für mehere Wandler für den SoC, PCIe, Display, USB und sonstige PHYs und die Wandler allein ziehen >100mA und damit locker zwei Größenordnungen als ein moderner SoC im Deepsleep.

[1]https://www.mouser.com/datasheet/2/671/z4bm_embedded_lpddr4x_lpddr4-3193428.pdf
 
Tja, wenig überraschend. Mit professioneller Fertigung bei TSMC -statt dem hauseigenen Rumgemurkse- läuft es auf einmal wie geschmiert. Lunar Lake = eine weitere schallende Ohrfeige für IFS.
 
zeedy schrieb:
Aber sobald man ein bisschen Videobearbeitung u.ä. macht, spielen ja AMD und Snapdragon in einer anderen Liga.
Übertreib nicht. Du tust so, als das sei das ein Pentium 4 mit 1x Core. Über 600 Punkte in Cinebench entsprechen einem Ryzen 5600X Desktop oder 5900HX Laptop und sind schneller als damals der "krasse MT-Hero" 2700X - alles CPUs, die ich hatte/habe und damit mache ich immer noch ab und zu Videobearbeitung - null Probleme.

Calid schrieb:
Grafik ist deswegen so "gut" weil die mit 8533MT/s läuft... kein Kunststück.
Bei AMD anscheinend schon. Denen sind die Gamer wohl egal, sonst würden die das irgendwie zur Pflicht machen.

Calid schrieb:
Und die Paar Spiele die getestet wurden sind cherry picked. Baldurs Gate und Cyberpunk. LOL sehr aussagekräftig.
PCGH hat ein paar Games mehr getestet -> Link
Auch die Konkurrenz von AMD wird richtig unter Druck gesetzt und in nicht wenigen Spielen "überflügelt". Insgesamt operieren Xe² und RDNA 3+ auf Augenhöhe, jedoch mit vergleichsweise leichten Leistungsvorteilen für Intels brandneue IGP.

Calid schrieb:
Und 90% der spiele läuft trotzdem nicht ordentlich oder überhaupt nicht...
Kannst du ein paar Quellen liefern, damit die Redaktion die unzähligen Treiberprobleme mit Xe2 im Artikel noch updaten kann?
 
  • Gefällt mir
Reaktionen: GoGoGadget und DefconDev
Sieht doch ganz gut aus. Aber wenn man nach den vielen Kommentaren hier im Vorfeld geht von einigen Usern besonders einem bestimmten 😉, hätte ich mehr erwartet. Da wurde einem ja quasi der heilige Gral der CPUs vorausgesagt. Der Aha moment der x86 CPUs 😂

Sind gute CPUs aber im multicore 66% hinter und im Singlecore 13% vor AMD mit besserer Fertigung, ist jetzt nicht sooo krass.
 
  • Gefällt mir
Reaktionen: janer77 und blackiwid
Mit Lunar Lake hat Intel gezeigt, warum sie noch lange nicht am Ende sind; x86 Designs können sie, und das zu zeigen war nicht nur wichtig, sondern essentiell. Die Entscheidung, Lunar Lake weitgehend bei TSMC fertigen zu lassen, war korrekt, denn der Notebook Markt ist für Intel zentral, sie mussten eine überzeugende Antwort auf Qualcomms Snapdragon und AMDs Strix bis Q4 2024 bringen, und etwaige Verspätungen im Launch durch zu wenig EUV Kapazität in ihren eigenen fabs wären katastrophal gewesen. So kostet es sie zwar viel Geld, aber sie behalten ihre Position in ihrem zZ überlebenswichtigen Markt (Notebooks).
Lunar Lake hat auch wieder mal gezeigt, daß Intel (und, bis zu einem bestimmten Grad, auch AMD) das "light and thin" Segment der Subnotebooks besser verstehen als Qualcomm. Denn das will man (ich) doch in einem Subnotebook, das ca. 1- 1.2 kg wiegt: gute Leistung und Schwupdizität bei Produktivanwendungen, trotzdem lange Laufzeit auf Akku, nicht nur MS Office Software läuft ohne Schluckauf, und etwas spielen geht auch. Wenn Qualcomm und Launch-Partner sowas schon beim Start der Snapdragons geliefert hätten, wären sie der Platzhirsch gewesen, den man erst mal wieder vom Platz verdrängen muß. Aber das hat Qualcomm halt nicht. Der Fokus auf "wir sind schneller/besser als die M SoCs in MacBook Pros" war daneben, hat sowieso nicht geklappt, und war v.a. am Markt vorbei.
Für uns Notebook User die nicht in MacOS unterwegs sind, sind die Lunar Lakes sehr positiv, denn so wird auch AMD sich noch mehr reinknien (müssen), und die Entwicklung geht flott weiter. Um die Schlussfolgerung des Reviews anders auszudrücken: rumors of the certain demise of x86 have been greatly exaggerated. Jetzt bin ich (am anderen Ende des Leistungsspektrums) auf die Strix Halo APUs gespannt.
Ergänzung ()

DocAimless schrieb:
Die Leistung und dann der Preis der Geräte ab 1500€ mit 32GB & 1TB ist jetzt nicht so toll da es ja x86 ist. Finde da zurzeit die Snapdragon Teile um 1000€ mit gleicher Hardware doch ansprechender. Habe extra mit dem Kauf gewartet aber so wird es wohl mal ein ARM statt x86.
Wo findest Du (man) ein Snapdragon 13-14" Notebook das nicht mehr als das Lunar Lake Zenbook hier wiegt, 32 GB RAM hat, mit gutem OLED Display für ~ € 1000?
Wenn es sowas gibt oder gäbe, würden es sich wie warme Semmeln verkaufen!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GoGoGadget, Sherman789 und Jan
NguyenV3 schrieb:
Kannst du ein paar Quellen liefern, damit die Redaktion die unzähligen Treiberprobleme mit Xe2 im Artikel noch updaten kann?
lol guter witz. schau dir die foren durch und unzählige youtube videos an... hab jetzt echt keine lust irgendwas zusammenzusuchen. das ist allgemein bekannt. warum glaubst du, kauft kein schwein eine ARC grafikkarte? warum haben die einen sales anteil von unter 1% bei mindfactorty? sicher weil sie so TOLL sind, oder?
 
eastcoast_pete schrieb:
Wo findest Du (man) ein Snapdragon 13-14" Notebook das nicht mehr als das Lunar Lake Zenbook hier wiegt, 32 GB RAM hat, mit gutem OLED Display für ~ € 1000?
Wenn es sowas gibt oder gäbe, würden es sich wie warme Semmeln verkaufen!
NBB bin am Überlegen mir den zu holen.
 
Calid schrieb:
Grafik ist deswegen so "gut" weil die mit 8533MT/s läuft... kein Kunststück. Und die Paar Spiele die getestet wurden sind cherry picked. Baldurs Gate und Cyberpunk. LOL sehr aussagekräftig. Und 90% der spiele läuft trotzdem nicht ordentlich oder überhaupt nicht. über den preis reg ich mich gar nicht auf - der ist ein scherz

Auch wen Intel GPU Treiber sich oft nicht mit Ruhm bekleckern, wage ich zu bezweifeln das 90% der Spiele auf dem CPU nicht laufen. Wohl eher umgekehrt. Vermutlich für 10%+ braucht man wohl eine dezidierte GPU.

Nicht jedes Spiel ist eine Grafiktapete. Wokung wird vermutlich nicht darauf laufen. Aber man dürfte auf Steam wirklich keine schwierigkeiten haben genügend Spiele zu finden die auf dieser Kiste laufen und den Flug oder die Zugfahr verkürzen. Die Zeiten sind zum Glück vorbei.

Ich mein das ist ne ultrabook igpu und hat pie mal daumen 30% der leistung von ner 4070?! Und damit schneller als der Unterbau von wieviel % der Steam nutzer?! Und nochmal, das ding ist keine Konsole! Dennoch wird sich das Ding wohl bei 90% meine Wishlist zu tode langweilen...
1727195368121.png

1727195229324.png
 
Zuletzt bearbeitet:
Scheint eine recht gute Generation zu sein. Endlich kommt wieder Konkurrenz auf. Durch den doppelten Druck von Qualcomm/Apple(ARM) und AMD geht endlich etwas weiter.
 
NguyenV3 schrieb:
Übertreib nicht. Du tust so, als das sei das ein Pentium 4 mit 1x Core. Über 600 Punkte in Cinebench entsprechen einem Ryzen 5600X Desktop oder 5900HX Laptop und sind schneller als damals der "krasse MT-Hero" 2700X - alles CPUs, die ich hatte/habe und damit mache ich immer noch ab und zu Videobearbeitung - null Probleme.

Ich untertreibe. 62% in Cinebench sind nämlich 2 Ligen Unterschied, nicht eine. Bei gleicher Package Power und Fertigungsvorteil für Intel ist das schon echt krass.

Deine Erfahrungen mit älteren CPUs sind hier völlig irrelevant. Es geht hier um neueste Spitzentechnologie im Laptopmarkt. Und da ist Intel bei Multicore Anwendungen absolut nicht konkurrenzfähig.
 
  • Gefällt mir
Reaktionen: lynx007
Das ist die auf Effizienz getrimmte Version. Für die Leistungsfreaks will Intel ja auch eine Arrowlake Mobil Serie nachlegen.Man kann ja AMD nicht allein den Performance Sektor überlassen.😜
 
  • Gefällt mir
Reaktionen: danyundsahne
Spiele wären hier tatsächclich das Letzte was mich interessiert. Für ein Office Notebook ist da Multicore- Anwendungsleistung schon erheblich wichtiger imo. Für Spiele kommt eher dann Strix Halo in Betracht wenn man nicht auf eine d-GPU setzen will, aber evtl ist das eher eine mobile Workstation.

Also ich sehe hier den Vergleich Intel/AMD nur bedingt, da sie verschiedene Leistungsklassen bedienen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: zeedy
Sron schrieb:
Sehr spannendes Fazit. Der Abgesang auf x86 ist vielleicht doch zu früh erfolgt, ARMs Leistung war aber der Arschtritt den x86 gebraucht hat.
Welcher Abgesang an x86? Das kommt doch immer nur von uninformierten Leuten...
Ach, könnte man mal einen echten Experten dazu interviewen, etwa Ian Cutress... oder Jim Keller.
Hmm
 
  • Gefällt mir
Reaktionen: konkretor
Der Unterschied zwischen N3B (Lunar Lake/Arrow Lake) und N4P (ZEN5) ist halt auch nicht halb so groß wie viele hier auch aufgrund des Namens annehmen. TSMC selbst sagt:

-N4P: 11% schneller oder 22% effizienter als N5
-N3B: 10-15% schneller oder 25-30% effizienter als N5.


Wie man sieht, ist N3B im direkten Vergleich mit N4P im niedrigen einstelligen Bereich besser. Der einzige wirkliche Unterschied ist die theoretisch erreichbare Dichte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Innocience, Tzk und BAR86
Eben, ARL-HX wird kommen und der wird sich dann mit dem 16-Kerner Strix Halo messen müssen.
Und so wie es aussieht wird ARL in SC ne Ecke schneller als Zen5.

Jetzt muss sich halt bei den Topmodellen zeigen wer besser Effizienz kann. Entsprechend wird auch das MC Ergebnis ausfallen.
Und ARL ist eben kein auf Effizienz getrimmter LNL.
Von daher abwarten

Aber schlcht sind die Lunar Lake Dinger nicht. Nur eben teuer.
 
Zuletzt bearbeitet:
Zurück
Oben