News Intel: Lunar Lake mit Memory on Package abgelichtet

nlr

Redakteur
Teammitglied
Registriert
Sep. 2005
Beiträge
10.387
Intels für den stromsparenden Markt ausgelegte SoC-Lösung Lunar Lake sei definitiv noch für dieses Jahr geplant, erklärte Michelle Johnston Holthaus zur CES 2024. Die General Managerin der Client Computing Group gab zudem einen ersten Ausblick auf die zu erwartende Leistung, die bei der NPU bis zu dreimal höher ausfallen soll.

Zur News: Intel: Lunar Lake mit Memory on Package abgelichtet
 
  • Gefällt mir
Reaktionen: flo.murr, aid0nex, Mr Peanutbutter und 9 andere
"Lunar Lake mit dreifacher NPU-Leistung noch dieses Jahr"

Keine Panik INTEL, ihr habt noch 50 Wochen Zeit ... :D
 
  • Gefällt mir
Reaktionen: Gringoli, flo.murr, aid0nex und 10 andere
Achje, die Überschriften.. :schaf:

Und dann korrekt im Text: -> die bei der NPU bis zu dreimal höher ausfallen soll
 
  • Gefällt mir
Reaktionen: aid0nex, bad_sign, Nagilum99 und 4 andere
Sherman789 schrieb:
Jetzt 4x langsamer als die Konkurrenz

Stimmt das so und wenn ja welche sczenarien ? Jaja manchmal ist der eine schneller manchmal eben der andere aber bei Hersteller bei Standart CPUs nehmen sich nicht und kann man jeweils vernachlässigen .....

Frage mich immer warum man den einen hasst und den anderen auf einen Sockel stellt ...... Beide schenken keinem was

Zum Thema npu dreimal schneller als was ? Im Vergleich zu was es vorher nicht gab und was soll es denn schönes dreifach beschleunigen ?
 
  • Gefällt mir
Reaktionen: MalWiederIch
Die NPU ist doch unwichtig und hat eh keine Verwendung. Interessant ist der RAM und die Bandbreite. Da sind massive Verbesserungen bei Verbrauch und Leistung möglich.
 
  • Gefällt mir
Reaktionen: cbtestarossa, Nagilum99 und Brrr
Was ist und macht diese NPU? Den Begriff höre ich heute zum ersten mal. Ist es eine Neurophysiologische Untersuchung oder irgendwas mit Neural Processing Unit um irgendwas mit KI zu machen?
Neuheiten sollten schon irgendwie kurz angesprochen werden um auch die abzuholen die nicht jeden Tag Fachmagazine lesen.
 
  • Gefällt mir
Reaktionen: LamaMitHut, M11E, Ned Flanders und 3 andere
Sie beschleunigt KI-Modelle, die vorher auf Hochleistungsrechnern trainiert wurden. Das ist schneller und energieeffizienter.
 
  • Gefällt mir
Reaktionen: Bigfoot29, MalWiederIch, SweetOhm und eine weitere Person
Haldi schrieb:
Das ist nicht Memory on Die wie es für HSA notwendig wäre sondern lediglich Memory on Package was ein Alter Hut ist ja?
Wie neu oder alt der Hut ist, ist doch völlig egal, würde man soviel Speicher auf eine DIE packen, wäre der Chip in einem Preissegment jenseits aller Servervarianten und völlig unbezahlbar - die SiP Lösung ist vollkommen ausreichend, selbst ein M2 oder M3 im Vollausbau hat nichts anderes.
 
  • Gefällt mir
Reaktionen: Deinorius, uia-User und Haldi
Nachdem Meteor Lake eher lauwarm war und bei der Single Core Leistung sogar Rückschritte gemacht hat, hätte ich mir deutlich mehr Fokus auf die CPU-Kerne gewünscht.

Der aktuelle AI Hype kommt Intel natürlich gelegen, so fällt die wenig Gutes verheißende Totenstille über das eigentliche Kerngeschäft weniger auf.
 
  • Gefällt mir
Reaktionen: Deinorius, woodmen, Rikimaru und 6 andere
KlaasKersting schrieb:
Nachdem Meteor Lake eher lauwarm war und bei der Single Core Leistung sogar Rückschritte gemacht hat, hätte ich mir deutlich mehr Fokus auf die CPU-Kerne gewünscht.
Die Frage ist, wie viele PC-Nutzer von immer mehr und schnelleren Kernen wirklich noch profitieren. Schon heute muss man die Nutzer mit der Lupe suchen, denen 16-Kerner nicht ausreichen. Warum also die Chipfläche nicht in mehr Grafikleistung und KI investieren, dort profitieren die Nutzer noch von Mehrleistung.
 
  • Gefällt mir
Reaktionen: Deinorius, MalWiederIch, Chismon und eine weitere Person
Bin gespannt was letztendlich bei rumkommen wird. Ich kann mir aber nicht vorstellen, dass sie gegen einen Snapdragon X Elite oder M Chip eine Chance haben.
 
Haldi schrieb:
Das gleiche wie die ganzen Einsteiger Laptops mit verlötetem RAM ja?
Ne. Eben nicht das Gleiche. Hier hast du wenigstens einen echten Vorteil, weil der RAM eben auf dem Package direkt an den Chip angebunden ist. Das ist halt auch einer der Gewinne bei Apple Silicon. Der Nachteil ist natürlich, dass du halt nicht mehr (ohne Weiteres) aufrüsten kannst. Wobei da mit entsprechenden Löt-Skills sicher noch immer etwas geht. Zumindest zur SSD habe ich schon entsprechende Videos auf YouTube gesehen.

Sei es drum: Der modulare Aufbau hat halt einfach seine Nachteile. Im mobilen Sektor gefühlt ja noch mehr, weil du dadurch einfach eine gewisse Kompaktheit aufgibst. Aber eben auch im Bereich der Leistung. Das zeigt nicht nur Apple Silicon, welchen Vorteil es hat, den RAM direkt an die CPU/den SoC anzubinden, sondern defacto zeigt das ja auch AMD mit dem 3D-Cache (klar, der Cache ist wirklich quasi "Memory on Die").
 
  • Gefällt mir
Reaktionen: Deinorius, Plage, schneeland und 5 andere
efferman schrieb:
Was ist und macht diese NPU?
Neural Processing Unit.
Soll KI beschleunig.
Wie genau, was genau und wo genau ist immer noch nicht fix definiert. Liegt aber auch daran das jede Technologie "KI" anders einsetzt somit kann man damit spezifische Berechnungen die momentan gerade benutzt werden weil wir noch keine bessere Berechnungsmethode gefunden haben wesentlich schneller durchführen.

Kann gut sein das in 3 Jahren anderes Zeugs verwendet wird und diese Hardware Einheit nutzlos wird.
Genau so wie man heutzutage seltens noch h264 verwendet sondern viel mehr h265, vp9 oder av1.

Aber hei. AI Hardware ist wichtig!
Weiss nur niemand Was und noch niemand Wieso.

The_waron schrieb:
die SiP Lösung ist vollkommen ausreichend, selbst ein M2 oder M3 im Vollausbau hat nichts anderes.
Mich interessiert eigentlich eher ob nun GPU und CPU auf den gleichen Speicherbereich zugreifen können oder ob eine Flexible Speicherzuteilung fixiert wird. Oder wird einfach Statisch X GB davon der GPU zugeschrieben?
Wie das halt für HSA mal gedacht war.
On Die oder on Package machen da viel Performance unterschied aus?

nöörd schrieb:
Warum also die Chipfläche nicht in mehr Grafikleistung und KI investieren
Warum etwas verbauen das 99% nicht benötigen?
Wofür Grafikleistung wenn nicht gezockt wird?
 
  • Gefällt mir
Reaktionen: eastcoast_pete, Rikimaru, coxon und eine weitere Person
Haldi schrieb:
Warum etwas verbauen das 99% nicht benötigen?
Also wenn du glaubst, dass 99% keine KI-Beschleunigung brauchen, dann lebst du hinterm Stein. Aber das wird den meisten erst im Laufe des Jahres klar werden, wenn Windows 12 erscheint und alle dann merken, dass es doch nicht so nutzlos war.
 
  • Gefällt mir
Reaktionen: LamaMitHut, MalWiederIch und ReptexPro
SweetOhm schrieb:
"Lunar Lake mit dreifacher NPU-Leistung noch dieses Jahr"

Keine Panik INTEL, ihr habt noch 50 Wochen Zeit ... :D
Reicht das? Bisher hängt Intel den Plänen immer weit zurück..
 
  • Gefällt mir
Reaktionen: SweetOhm
Nach wie vor merkwürdig an LunarLake ist, dass die bei Low-Power-E-Cores im SoC-Tile, die bei MeteorLake eingeführt wurden, nicht weiter zum Einsatz kommen.
 
Haldi schrieb:
Mich interessiert eigentlich eher ob nun GPU und CPU auf den gleichen Speicherbereich zugreifen können oder ob eine Flexible Speicherzuteilung fixiert wird.
Das ging schon früher per direct memory access. Auch bei externer GPU. Das Betriebssystem muss das nur auch unterstützen.
 
Haldi schrieb:
Das gleiche wie die ganzen Einsteiger Laptops mit verlötetem RAM ja?
Nicht unbedingt.
1. Es ermöglicht PCB (motherboard) mit weniger Schichten zu benutzen. Ist also billiger für den PC Hersteller.

2. Man kann den RAM höher takten (da die Chips sehr nahe am CPU sind)
 
  • Gefällt mir
Reaktionen: eastcoast_pete, Bigfoot29 und Haldi
Zurück
Oben