Bericht Intel Lunar Lake im Detail: Die neuen E-Cores schlagen die alten P-Cores, Xe2 löst Xe ab

Sehr spannend, definitiv mehr und interessanter als der Kram von AMD. Nur kommt das jetzt auch in den Desktop in diesem Jahr?
 
Gamers Nexus (wo man bekanntermaßen auch eine gute Beziehung zu Intels Tom Petersen hat) hat in deren Video Xe2/Battlemage im Detail noch einmal schön aufgebröselt (Xe und Xe2 vergleichend), wen es interessiert:

 
  • Gefällt mir
Reaktionen: Trony, Scie und konkretor
projectneo schrieb:
Sehr spannend, definitiv mehr und interessanter als der Kram von AMD. Nur kommt das jetzt auch in den Desktop in diesem Jahr?
Lunar Lake ist nicht für den Desktop gedacht, dafür wird im Herbst Arrow Lake kommen. Und ja, mit den gleichen Cores.
 
  • Gefällt mir
Reaktionen: Teckler
Brrr schrieb:
Ich persönlich hege schon die Hoffnung dass Intel auch bei der Fertigung wieder aufholen wird.
Das hoffe ich auch. Allein schon um nicht so wahnsinnig abhängig von einem Unternehmen zu sein und ne vernünftige Kapazität bereitstellen zu können.
Ergänzung ()

stefan92x schrieb:
dafür wird im Herbst Arrow Lake kommen. Und ja, mit den gleichen Cores.
Heißt also auch komplett via TSMC? Crazy shit.
 
KurzGedacht schrieb:
Im Prinzip wollte ich darauf hinaus, ja. Es ist egal auf welchem Weg die Kerne schnell an ihre Daten kommen. Hauptsache es passiert.
Das Ding ist halt, "schnell" ist halt nicht gleich "schnell".
Speicher hat den Nachteil, dass Signallaufzeiten dafür sorgen, dass die Zugriffslatenzen steigen. Egal bei welchem Typ Speicher.
Um so größer, desto länger die Laufzeiten, weil die notwendige Siliziumfläche dafür steigt. Das ist einer, wenn nicht der Hauptgrund dafür, warum man eben verschiedene Cachestufen nutzt.

Weiter ist es halt technisch bedingt so, dass Bandbreite nicht gleich Bandbreite ist. Denn es hängt stark davon ab, wie man die Daten am Ende überträgt und was man an Daten benötigt. Vereinfacht gesagt, es macht einen heiden Unterschied, wenn bspw. Bandbreite auf dem Papier durch Prefretching entsteht, wo Daten "übertragen" werden, die man aber gar nicht benötigt.

Für Gaming wie gesagt zählt, wie schnell mal ein immer ähnliches Rechenergebnis pro Zeiteinheit durchgeschoben bekommt. -> Das ist ganz klassisch eine Frage nach dem Durchsatz. Aber nicht nach dem Durchsatz im Sinne von Bandbreite, sondern im Sinne von Anzahl.

Du wirst wahrscheinlich mit keinem Speicher der Welt auch nur im Ansatz heute an die Möglichkeiten kommen, die aktuell so eine 96MB Huckepack L3 Cache Geschichte von AMD bietet. Denn A) ist der Cache offenbar groß genug, dass es stark ins Gewicht fällt und B) ist die Latenz zum Zugriff und die Bandbreite so passend, dass es skaliert. Egal ob du da jetzt Memory näher an die CPU dran bringst oder nicht. Wahlweise Bandbreite, Zugriffslatenz oder Größe wird schlechter ausfallen ggü. dem X3D Cache. Größe kann man wahrscheinlich von ausgehen, ist es nicht... Der Rest MUSS technisch bei der viel größeren Memory Größe Nachteilbehaftet sein.

Was theoretisch noch aufgehen könnte wäre ein X3D Cache als Memory zu nutzen. Also anstatt drei Lagen zu 32MB eben bspw. 256 davon. Macht 24GB "Speicher" nah am Core. Allerdings dürfte das von der Kühlung her nicht (mehr) aufgehen mit aktuellen Mitteln.
KurzGedacht schrieb:
Dazu kommen dann nochmal eventuelle System interne Latenzen (z.b. Teil der Threads läuft auf CCD1, der andere auf CCD2 ). Da geht es nicht unbedingt um Durchsatz sondern hauptsächlich um die Latenz. Das Gesamtergebnis muss halt von allen Komponenten fertig gestellt werden und da bestimmt die langsamste Komponente eben, ob du Zwischendrin mit garstigen Lags leben musst.
Ich denke du mussverstehst "Durchsatz" als Wort in dem Zusammenhang. Durchsatz meint dabei die Anzahl von einer Sache. Das ist ein Produkt aus Latenzen (also Zugriffsverzögerungen) und Bandbreite (also Datenmenge je Zeiteinheit). Die Latenz ist Teil der Durchsatz Thematik. Aber eben nur Teil. Von einer niedrigen Latenz kann man sich nichts kaufen, wenn die Bandbreite nicht hoch genug ist um die notwendigen Daten übertragen zu bekommen.

In deinen Beispielen zu bspw. dem CCD 1/2 Thema ist das bspw. klar ersichtlich. Rennt ein Thread auf CCD2 und muss umständlich Daten über die IF übertragen, dann sinkt der Durchsatz. Bei einem Game bedeutet dass, die Zeit die ein Frame benötigt, steigt. -> Im Resultat zu der Zeit die ein Frame benötigt, gibt es weniger Anzahl (also weniger Durchsatz) in der komulierten Zeiteinheit (meist 1sec)
 
modena.ch schrieb:
Ich seh hier ein Core und 1 Thread, wies auch oben angeschrieben steht, nix MT
Hä? Das ist ja das was ich geschrieben habe. Dein Vergleich von Gracemont Vs raptor Cove in Raptor Lake ist MT.
 
Zen 4c/5c mit selber IPC wie die großen Kerne, aber weniger Takt: Was soll die Scheiße, ich will den vollen Takt und keine Krüppelkerne!
Skymont mit IPC der letzten Gen P Cores, aber weniger Takt und kein HT: MEGA GOIL!:love:

:rolleyes:

@Volker :
Der Absatz stimmt so nicht:
Die neuen Lion-Cove-Kerne bieten im Neuaufbau in den Lunar-Lake-Prozessoren durchweg einen zweistelligen IPC-Zuwachs gegenüber Redwood Cove in Meteor Lake. Im Bereich geringer Leistungsaufnahme liegt dieser mit „>18 Prozent“ auf dem höchsten Niveau, fällt dann mit steigender Leistungsaufnahme stetig etwas ab. Im Durchschnitt nennt Intel +14 Prozent.

nur die erste Grafik bezieht sich auf IPC, die zweite ist Leistung bei selben Verbrauch, nicht IPC
 
KurzGedacht schrieb:
Ich nehme an, du arbeitest seit >10 Jahren bei irgendeiner großen CPU schmiede?

Denn wenn nicht, google vielleicht mal Dunning-Kruger-Effekt.

HTT war/ist hauptsächlich ein Workaround, um die Effektive Auslastung von etwas sehr komplex geratenen CPUs zu erhöhen. Es ist aber bei weitem nicht immer geeignet, um tatsächlich mehr Leistung rauszuholen.
Ich nehme mal an du arbeitest schon über 10 Jahre bei einer großen CPU schmiede
Daher weist du sicher auch warum INTEL Im Server Bereich weiterhin HTT einsetzen wird. Also ich kann es mir zumindest denken warum obwohl ich bei keiner CPU schmiede arbeite ;)
 
bensen schrieb:
Dein Vergleich von Gracemont Vs raptor Cove in Raptor Lake ist MT.
1717508262859.png



Wo siehst du hier MT oder Gracemont?
 
Im Titel steht 1 Core 1 Thread, weiss nicht wie du auf einen 4 Kern Cluster oder MT kommst.
Auch steht gross und fett Single thread performance drüber. Also MT?


Du meinst wahrscheinlich den hier
1717509082089.png



Aber auch da, 2x Crestmont VS 4X Skymont im MT.
Bei gleicher Leistung 1/3 Verbrauch, sehr gut,
bei gleichem Verbrauch 2.9X Performance, klasse,
aber dann max 4x Performance mit ? 3 fachen Verbrauch?
Also wenn die Dinger ausgefahren werden, scheinen sie zu saufen.

Und kriegst dann auch doppelt soviele E-Kerne? Nicht? doof der Vergleich.

Im ursprünglichen Alder Lake Test hier auf CB war ein E-Core bei 5-6W und ein P-Core bei 21W.
Wir können also so 3-4 E Cores laufen lassen, bis wir den Verbrauch eines P-Core haben.
Das ist wie der ST Vergleich mit dem Raptor Cove P-Core oben nahelegt so gar nicht mehr gegeben.
 
Zuletzt bearbeitet:
IronAngel schrieb:
WoW liest sich gut. Krass das Intel fast alles fremd fertigt. Gut mit der 3 NM Fertigung sollte das ja kein Problem sein mit Apple mit zu halten, sofern das Design so greift wie versprochen.
Auf Anandtech spöttelt man deshalb in den Kommentaren, warum denn Intel allerlei staatliche Subventionen für Fabriken einstreicht, um dann letztendlich nur bei TSMC in Taiwan fertigen zu lassen 😅.
 
  • Gefällt mir
Reaktionen: IronAngel und Floppes
stefan92x schrieb:
da wird auch was in Intel 20A gefertigt.
Weißt du welcher Teil? Also kommen die eigentliche P Cores immer von TSMC?
 
Lunar Lake a.k.a die erste komplette Bankrotterklärung von Intels Fertigungssparte und vielleicht die erste einer sehr langen Serie von Intel TSMC CPUs, wenn nächstes Jahr die Fertigungssparte von Intel nach dem Scheitern von 18A endgültig komplett implodiert. Da wird auch kein Chips Act mehr etwas retten...
 
4BitDitherBayer schrieb:
Daher weist du sicher auch warum INTEL Im Server Bereich weiterhin HTT einsetzen wird.
Mir ist (denke ich) hinreichend klar wieso welche Hersteller SMT einsetzen. Da spricht auch wenig gegen.
Mir stößt nur die Haltung auf eine Entscheidung für oder gegen so eine Technologie pauschal als Fehler zu beurteilen, wenn man mit recht hoher Wahrscheinlichkeit doch nicht wirklich genau weiß wovon man da redet. Zumindest im Vergleich mit den Chip Designern.
Wenn man die Dinger vor sich hat und für sich relevante Benchmarks machen kann ist das nochmal was anderes....
Aber allein auf Basis der Ankündigung würde ich mir persönlich und >99,999% aller Menschen keine qualifizierte Meinung zutrauen.
 
@RogueSix
Arrow Lake soll ja zum Teil wieder in Intel 20A kommen und das ist ja nur ein paar Monate entfernt.

Und für den Panther Lake nächstes Jahr wollen sie ja ziemlich alles in 18A bringen.
Tönen sie ja jetzt schon rum, dass sie zum Teil damit besser sind als das was TSMC bis dahin auch immer hat.

1717510286176.png



Daher jetzt für den Lunar Lake, haben sie halt nix was anstinken kann und darum ziemlich alles TSMC.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Rockstar85
modena.ch schrieb:
Drittens braucht es für den Verbrauch von 1x P-Core bei Raptor 4x E-Core, jetzt bei Lunar hat 1x E-Core 60% Verbrauch eines Raptor P-Cores, die Leistung ist also massiv gestiegen aber auch der Verbrauch.
modena.ch schrieb:
Im Titel steht 1 Core 1 Thread, weiss nicht wie du auf einen 4 Kern Cluster oder MT kommst.
Du schreibst von 4 Gracemont Kernen und vergleichst mit dem Diagramm wo nur ein Skymont antritt.
Der Raptorcove liegt da aber bei völlig anderen Betriebspunkten auf der Kurve.

Jetzt hab ich dir das drei mal erklärt. Lies die Posts einfach durch. So bräsig kann man gar nicht sein.
Ich habe nie geschrieben, dass in dem Diagramm MT dargestellt ist.
 
Lauter interessante Neuigkeiten in letzter Zeit.
Im Herbst wird dann Notebookcheck öfters besucht.
Helmut Kohl wusste ja schon daß zählt was hinten raus kommt.
Da mir egal ist was drin steckt wird dann anhand der standardisierten Tests entschieden was her kommt.
Zum Glück sind die so vielfältig daß ich die wichtigsten Eigenschaften für mich suchen und hoffentlich finden kann.
Möge der Bessere gewinnen...
 
Northstar2710 schrieb:
das ist mir bisher nicht aufgefallen. Manchmal kommt es aber auch auf die Presentation an, wie die reaktion darauf ist. Hier wurde ja nicht einfach ein chip presentiert mit x benches. Es wurde sachlich die Architektur erklärt. So das einige gute rückschlüsse auf die eventuelle Leistung zu machen sind.
Ich sag nur 4096W Modus und die Updates der BIOSe weil Intel die CPU reihenweise abrauchen.
Eher glaube ich Apple ihre Folien als Intel auch nur eine. Bisher hat sich keine der Folien als 100% bewahrheitet und Intel hat immer gestrickst, jüngst mit dem 350W Modus der ja angeblich nicht von Intel kommt (aber auf Intel Folien stand) Papier ist geduldig und das egal ob AMD (RX 7000) , Intel oder nvidia.
 
Zurück
Oben