Bericht Intel Lunar Lake im Detail: Die neuen E-Cores schlagen die alten P-Cores, Xe2 löst Xe ab

@janer77 Das wird ja immer über den Chipsatz realisiert auch bei Intel. USB 4 hat X870E ja. Wlan 7 wird halt von den Boardhersteller geboten über Extra Controller von Intel/Realtek etc.
 
v_ossi schrieb:
Bin spät dran, aber ein paar Fragen hätte ich dann doch noch:

Die Lion Cove Kerne haben kein HT, habe ich verstanden, aber die Skymont Kerne schon, richtig?

Würde sich nämlich trotz offensichtlicher Steigerungen bei IPC und Takt merkwürdig anfühlen von 6K/12T (Coffee Lake) auf 8K/8T Lunar Lake 'aufzurüsten'.
Und wie viel schneller ist der RAM (32 GB LPDDR5 @ 8.533 MT/s) auf dem Package im Vergleich zu meinem betagten 16 GBDDR4 @ 2600Mhz?

Der ArrowLake Core 7 hat 8P + 12E, also 20 Threads.

https://wccftech.com/intel-arrow-la...ltra-200-series-lower-power-than-raptor-lake/

LunarLake und PantherLake sind wie MeteorLake nur für Notebooks vorgesehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: v_ossi und Nooblander
Die E-Cores hören sich gut an. Vielleicht kommt ja ein Nachfolger des N100 mit der neuen Architektur, nett für Mini PCs oder eine günstige Serverbasis
 
  • Gefällt mir
Reaktionen: woidmoasta
guggi4 schrieb:
AMD hat Zen 4c im Consumer Bereich NICHT beim Cache beschnitten, sowohl Phoenix als auch Phoenix2 haben jeweils 16MB L3.

Du vergleichst hier aber Äpfel mit Birnen. Phoenix ist in 4nm gefertigt während der original Zen4c in 5nm kam. Und ein CCX hatte in Summe 32MB aber doppelt so viel CPU Kerne wie das ursprüngliche Zen4-Die...
Und wurde bei Phoenix nicht sogar Zen4 mit Zen 4c Kernen gemixt?

Und bitte lasst uns genau das hier für die Zukunft Zen 5 erst mal betrachten.

Für Desktop und Server macht dieser Ansatz nämlich am meisten Sinn.
Was AMD für etwaige APUs macht ist noch deutlich mehr Zukunftsmusik...
 
Novasun schrieb:
Du vergleichst hier aber Äpfel mit Birnen.
Ich vergleiche hier Äpfel mit Birnen?
Ich vergleiche hier in einem Thread zu mobilen APUs mit Trommelwirbel einer mobilen APU.
Das ist auch der einzige Bereich in dem Consumer in Kontakt mit Zen 4c kommen und genau da wurde der L3 gegenüber der Version mit reinen Zen 4 Kernen eben nicht beschnitten.
Dass das im Serverbereich wieder anders ist streite ich nicht ab, aber für die Diskussion hier nicht relevant.
Viele Leute behaupten einfach immer noch, dass Zen 4c grundsätzlich im L3 beschnitten ist aufgrund der ursprünglichen Implementierung im Server
 
Kann mir bitte irgendjemand erklären welchen Vorteil das haben soll Hyper-Threading zu deaktivieren? (Habe den Text gelesen, aber es erschließt sich mir nicht) Mal davon abgesehen, Intel deaktiviert es für mich? Ich kann im 13400 z.B. selbst wenn ich möchte, für welchen Grund auch immer, Hyper Threading deaktivieren. Jetzt ist es im Prozessor, aber Intel deaktiviert es für mich komplett? Ja vielen Dank für den Murks Intel.
 
Es ist ineffizient im Vergleich zu echtem SMP und sicherheitstechnisch eine Katastrophe. Es stammt aus einer Zeit in der die Pipes der CPUs immer länger wurden.

Also nichts mit Murks, sondern Evolution.
 
Liest sich schon sehr interessant, allerdings frage auch ich mit ob und wann Betriebssystem(e) und Software für jedermann erhältlich werden die alle Resources dieser SOCs voll ausnützen. Ich fürchte das könnte sehr lange dauern könnte - zu lange.

Und in einem Punkt hat Intel m.E. auch bei der integrierten I/O Hardware geschlafen: Gigabit LAN ist heute wirklich nicht mehr zeitgemäß. Für diese anderweitig so fortschrittliche Architektur hätte es schon 10GBE sein sollen.

Oder wurde das im Artikel nur unvollständig berichtet?
 
aquahaubitze schrieb:
Kann mir bitte irgendjemand erklären welchen Vorteil das haben soll Hyper-Threading zu deaktivieren? (Habe den Text gelesen, aber es erschließt sich mir nicht) Mal davon abgesehen, Intel deaktiviert es für mich? Ich kann im 13400 z.B. selbst wenn ich möchte, für welchen Grund auch immer, Hyper Threading deaktivieren. Jetzt ist es im Prozessor, aber Intel deaktiviert es für mich komplett?
Zumindest in Lunar Lake sollen die Einheiten komplett entfernt sein.
Im Notebook limitiert eh die TDP die Gesamt-Leistung und nicht so sehr die Thread-Anzahl.

Für Arrow Lake / Desktop, gilt wohl, dass bei genug (E-)Cores der Vorteil von HT kaum/nicht vorhanden ist. Ist zumindest eine Theorie. Es macht zudem das Scheduling komplizierter. Singlethread Leistung könnte deswegen etwas höher ausfallen.
Ergänzung ()

GR Supra schrieb:
Es ist ineffizient im Vergleich zu echtem SMP und sicherheitstechnisch eine Katastrophe.
Die Sicherheitsprobleme sind im Desktop absolut irrelevant.
 
Zuletzt bearbeitet:
wus schrieb:
Und in einem Punkt hat Intel m.E. auch bei der integrierten I/O Hardware geschlafen: Gigabit LAN ist heute wirklich nicht mehr zeitgemäß. Für diese anderweitig so fortschrittliche Architektur hätte es schon 10GBE sein sollen.
Einerseits ja, anderseits ist Lunar Lake ja auf (ultra)mobile ausgerichtet. Es wird nur wenige Produkte damit geben, die überhaupt noch LAN-Anschlüsse haben. Da ist 10GBE dann auch irgendwo Verschwendung. Bei Arrow Lake sollte es aber auch meiner Meinung nach definitiv dabei sein, sonst hätte Intel wirklich geschlafen.
 
wus schrieb:
Liest sich schon sehr interessant, allerdings frage auch ich mit ob und wann Betriebssystem(e) und Software für jedermann erhältlich werden die alle Resources dieser SOCs voll ausnützen. Ich fürchte das könnte sehr lange dauern könnte - zu lange.

Und in einem Punkt hat Intel m.E. auch bei der integrierten I/O Hardware geschlafen: Gigabit LAN ist heute wirklich nicht mehr zeitgemäß. Für diese anderweitig so fortschrittliche Architektur hätte es schon 10GBE sein sollen.

Oder wurde das im Artikel nur unvollständig berichtet?
Ja, wer kennt sie nicht. Die Ultrabooks und Handhelds mit 10 GBit.
Cr4y schrieb:
Zumindest in Lunar Lake sollen die Einheiten komplett entfernt sein.
Im Notebook limitiert eh die TDP die Gesamt-Leistung und nicht so sehr die Thread-Anzahl.

Für Arrow Lake / Desktop, gilt wohl, dass bei genug (E-)Cores der Vorteil von HT kaum/nicht vorhanden ist. Ist zumindest eine Theorie. Es macht zudem das Scheduling komplizierter. Singlethread Leistung könnte deswegen etwas höher ausfallen.
Ergänzung ()


Die Sicherheitsprobleme sind im Desktop absolut irrelevant.

Ja, absolut. Und irrelevant.🧠
 
GR Supra schrieb:
Ja, absolut. Und irrelevant.🧠
Ein Angriff auf Daten eines anderen Threads kann auf einem PC doch direkt über den Account des angemeldeten Users laufen. Da musst du dich nicht mit den paar kb/s Abmühen, die man über die Ausnutzung von HT-Lücken erreichen kann.
In der Cloud ist das natürlich was anderes, wenn ich aus meiner VM-Umgebung Daten aus einer anderen VM per HT-Lücke auslesen kann. Aber selbst da ist es extrem mühselig / langwierig, weil eben nur sehr geringe Datenraten erreicht werden, und auch nicht gezielt ausgelesen werden kann, soweit ich weiß. Mit Glück ließt du Zugriffsdaten / nen Token aus, und weißt, wofür das gut ist. Eintrittswahrscheinlichkeit ist also gering, aber Auswirkung bei Eintritt ist potentiell immens.
 
Zuletzt bearbeitet:
stefan92x schrieb:
Einerseits ja, anderseits ist Lunar Lake ja auf (ultra)mobile ausgerichtet. Es wird nur wenige Produkte damit geben, die überhaupt noch LAN-Anschlüsse haben.
Stimmt, habe ich nicht bedacht weil mein altes Lenovo Notebook halt noch eine LAN Buchse hat.

Ich suche schon länger nach Ersatz, für den Einsatz zu Hause will ich zukünftig auf alle Fälle schnelleres LAN. Da muss ich wohl drauf achten dass die dann fällige TB4 Dockingstation einen 10 GBE Anschluss hat.
 
  • Gefällt mir
Reaktionen: stefan92x
Cr4y schrieb:
Ein Angriff auf Daten eines anderen Threads kann auf einem PC doch direkt über den Account des angemeldeten Users laufen. Da musst du dich nicht mit den paar kb/s Abmühen, die man über die Ausnutzung von HT-Lücken erreichen kann.
In der Cloud ist das natürlich was anderes, wenn ich aus meiner VM-Umgebung Daten aus einer anderen VM per HT-Lücke auslesen kann. Aber selbst da ist es extrem mühselig / langwierig, weil eben nur sehr geringe Datenraten erreicht werden, und auch nicht gezielt ausgelesen werden kann, soweit ich weiß. Mit Glück ließt du Zugriffsdaten / nen Token aus, und weißt, wofür das gut ist. Eintrittswahrscheinlichkeit ist also gering, aber Auswirkung bei Eintritt ist potentiell immens.
Das ist eine sehr einseitige Sichtweise die nicht im Ansatz die Realität wieder spiegelt.
Ergänzung ()

wus schrieb:
Stimmt, habe ich nicht bedacht weil mein altes Lenovo Notebook halt noch eine LAN Buchse hat.

Ich suche schon länger nach Ersatz, für den Einsatz zu Hause will ich zukünftig auf alle Fälle schnelleres LAN. Da muss ich wohl drauf achten dass die dann fällige TB4 Dockingstation einen 10 GBE Anschluss hat.
TB Dock mit 10GBit die auch anliegen?
WiFi 7 solltest Du dir mal ansehen. Ist wirklich gut.
 
Zuletzt bearbeitet:
GR Supra schrieb:
Das ist eine sehr einseitige Sichtweise die nicht im Ansatz die Realität wieder spiegelt.
Dann erleuchte mich doch!?
 
GR Supra schrieb:
WiFi 7 solltest Du dir mal ansehen. Ist wirklich gut.
Natürlich habe ich WiFi im Haus, aktuell ac. Seit ich in jedem Stockwerk einen (per LAN angeschlossenen!) Ubiquity AP habe funktioniert es auch "meistens" recht gut.

Aber "meistens" reicht mir nicht aus. Es kommt nicht so selten vor dass es mal kurzzeitig hakt, seltener auch mal länger. Das neue leistungsfähige Notebook soll mal auch meinen Tower ersetzen, da möchte ich von Einflüssen der WLANs in den Nachbarwohnungen unabhängig sein. Und da kein Notebook genug Speicher hat um alle meine Daten zu speichern brauche ich eine schnelle und zuverlässige Anbindungs ans NAS, das im Nebenraum steht, und damit leider zu weit entfernt für direkten Anschluss per TB4.
 
ich finde die E Cores etwas irreführend. Sie sind effizient was ihre Fläche angeht, nicht aber was Performance / W angeht.

Wenn ich meinem 13900K auf "ausbalanciert" betreibe (imho Windows 11 Standard) dann lastet er bei Vollast nur die E Cores aus, also z.B. bei einem 100W Limit und FFMPEG (auf allen Threads) takten die E Cores dann hoch, die Performance Cores sind bei nahe 0%.

1718784931288.png


wechselt man auf Beste Leistung hat man nach wie vor 100% Verbrauch, aber wesentlich mehr Performance. Einfach auch weil alle Kerne deutlich besser am Sweet Spot takten.
Das ist einfach total wirr, es gibt keinerlei Benefit hier auf "Ausbalanciert" zu setzen... weder was Verbrauch noch Effizienz angeht. Das kommt in keinem Test so wirklich raus @ComputerBase @SVΞN

Es sind min 30% Effizienzunterschied wenn die Perf Cores mitarbeiten...

1718784986536.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: herculesgott
Zurück
Oben