News Intel: Lunar Lake mit Memory on Package abgelichtet

scryed schrieb:
nein. Intel-Rant halt, beim Versuch witzig zu sein. Du findest zwar sicher Szenarien wo Intel 3x langsamer ist, dafür findest du bei ebensolanger Suche auch Positivbeispiele
 
CDLABSRadonP... schrieb:
Nach wie vor merkwürdig an LunarLake ist, dass die bei Low-Power-E-Cores im SoC-Tile, die bei MeteorLake eingeführt wurden, nicht weiter zum Einsatz kommen.
anderes Konzept.
Meteor Lake ist für ganz andere Märkte ausgelegt und deshalb hat man da Chips für mehrere Szenarien zusammengestöpselt. Es wirkt auch mehr wie eine Notlösung, die gleichzeitig alles können will aber bei nix wirklich gut ust(Eierlegende Wollmilchsau) während Lunar Lake zielgerichteter ist.
LL ist außerdem schon due halbwegs pünktliche Evolution, während MTL ja schon vor Jahren auf den Markt kommen wollte, aber die Produktion noch nicht so weit war das in Massen hinzukriegen.

MTL ist quasi eine massengefertigte Designstudie, Lunar Lake schon, was man daraus gelernt hat. Spannend wird, was Intl daraus (aus den Konzepten) in Zukunft macht
Ergänzung ()

Engaged schrieb:
Wird RAM jetzt schon mit der CPU verlötet?
Wurde hier nicht letztens eine neue ramstecktechnik gezeigt welche mehr Platz sparen soll in Notebooks und alles einfacher machen soll? 🤷🏻
ja, das schließt sich nicht aus, beides ist möglich und hat Vor- und Nachteile
 
  • Gefällt mir
Reaktionen: LamaMitHut und Engaged
BAR86 schrieb:
anderes Konzept.
Meteor Lake ist für ganz andere Märkte ausgelegt und deshalb hat man da Chips für mehrere Szenarien zusammengestöpselt. Es wirkt auch mehr wie eine Notlösung, die gleichzeitig alles können will aber bei nix wirklich gut ust(Eierlegende Wollmilchsau) während Lunar Lake zielgerichteter ist.
LL ist außerdem schon due halbwegs pünktliche Evolution, während MTL ja schon vor Jahren auf den Markt kommen wollte, aber die Produktion noch nicht so weit war das in Massen hinzukriegen.

MTL ist quasi eine massengefertigte Designstudie, Lunar Lake schon, was man daraus gelernt hat. Spannend wird, was Intl daraus (aus den Konzepten) in Zukunft macht
All das würde ich unterschreiben --- nichts desto trotz ist die Fähigkeit, DIE(s) schlafen zu legen, doch etwas starkes. Und das geht halt nur mit Kernen im SOC-Tile...
 
  • Gefällt mir
Reaktionen: BAR86
nöörd schrieb:
Aber das wird den meisten erst im Laufe des Jahres klar werden, wenn Windows 12 erscheint und alle dann merken, dass es doch nicht so nutzlos war.
Wärst du eventuell so nett, hier zu elaborieren?
 
nöörd schrieb:
Also wenn du glaubst, dass 99% keine KI-Beschleunigung brauchen, dann lebst du hinterm Stein. Aber das wird den meisten erst im Laufe des Jahres klar werden, wenn Windows 12 erscheint und alle dann merken, dass es doch nicht so nutzlos war.
Top die Wette gilt.
Einer von uns beiden muss sich bei Release von Windows 12 an diesen Post erinnern.
Ich nutze bis dahin weiterhin die Cuda Kerne meiner 4090 oder die reine rechnenleistung der CPU um meine Bildchen zu generieren oder ChatGPT zu befragen.
Ab Windows 12 schmeiss ich dann meinen PC weg und Kauf mir eine AMD APU welche ja auch AI Einheiten drin haben.

Das ist alles so einen riesen Marketing Hype. Die wissen ja noch nicht mal was sie machen wollen, geschweige denn wie.

Beitrag schrieb:
Das halte ich dür einen Trugschluss. H264 ist immer noch das Videoformat schlechthin und extrem weit verbreitet.
Wo? Auf einem Camcorder? Oder deiner Video Sammlung auf dem NAS?
Sämtliche Streaming Anbieter nutzen VP9 oder z.t schon AV1.
H264 gibt's nur noch als fallback für uralt TV deren CPU Leistung nicht für AV1 decoding reicht.
Smartphones nehmen auch schon seit ein par Generationen h265 Videos auf.
 
  • Gefällt mir
Reaktionen: Asghan, ergibt Sinn und Zoba
CDLABSRadonP... schrieb:
Nach wie vor merkwürdig an LunarLake ist, dass die bei Low-Power-E-Cores im SoC-Tile, die bei MeteorLake eingeführt wurden, nicht weiter zum Einsatz kommen.
Die kommen zum Einsatz, sogar direkt 4 Stück. Sind halt nur auf dem Main Die jetzt. Haben aber keinen Zugriff auf den Ringbus und wachen die P-Kerne also nicht auf.
 
Haldi schrieb:
Ich nutze bis dahin weiterhin die Cuda Kerne meiner 4090 oder die reine rechnenleistung der CPU um meine Bildchen zu generieren oder ChatGPT zu befragen.
Zum einen hat das nichts mit ChatGPT zu tun und zum anderen hat nicht jeder eine 4090.
 
Araska schrieb:
Wärst du eventuell so nett, hier zu elaborieren?
Aber gerne:
Noch eine Anmerkung zu den TOPS. Unter 40 TOPS sind für die nächste Generation von Windows respektive bereits für den vollen Copilot beispielsweise sogar noch zu wenig – das haben AMD und Intel hier gemein. AMD warb deshalb bereits mit der nächsten Gen Strix Point, auch Intel dürfte hier in der nächsten Runde deutlich zulegen.
Quelle

https://www.computerbase.de/2023-12...t-aufgeruestetem-copilot-zur-sprachsteuerung/
 
nöörd schrieb:
Zum einen hat das nichts mit ChatGPT zu tun und zum anderen hat nicht jeder eine 4090.
ChatGPT läuft in der Wolke
Ergänzung ()

nöörd schrieb:
Microsoft versucht seit bald 20 Jahren Sprachsteuerung am PC zu etablieren. Such qm Handy tun sich das die wenigsten an.
Was ich neulich msl gemacht have bei einer langen einsamen Aut8fahrt ist mich mit ChatGPT mittels Sprachein/ausgabe zu unterhalten und da was zu lernen. Sei es Faktenwissen, oder meine Sprachkenntnisse aufzubessern.
Das läuft aber auch quf meinem 5 Jahre alten Billigtelefon, für KI Assistenten brauchen wir keine extra KI, wenn sie in der Cloud laufen
 
  • Gefällt mir
Reaktionen: Rikimaru
BAR86 schrieb:
Das läuft aber auch quf meinem 5 Jahre alten Billigtelefon, für KI Assistenten brauchen wir keine extra KI, wenn sie in der Cloud laufen
Richtig, wenn. Will man alle seine Geschäftsgeheimnisse der "Cloud" anvertrauen? Der Trend geht zu offline.
 
Looks like "zusammengeklebt"😂
 
Der Zukunft gehört auf jeden Fall der NPU. Wie bei GPUs haben diese Prozessoren eben Teile die spezifisch extra für bestimmte Anwendungen gedacht sind. Diese werden in Zukunft den alten Prozessoren die nur einfache Performance-Kerne haben, den Rang ablaufen. Man kann es sich heute vielleicht nur schwer vorstellen, aber die Vorteile werden definitiv kommen. Alle bereiten sich darauf vor, Windows, Anwendungen. Spiele werden sicher auf den Zug mit aufspringen.
 
  • Gefällt mir
Reaktionen: Corpus Delicti und nöörd
nöörd schrieb:
Also wenn du glaubst, dass 99% keine KI-Beschleunigung brauchen, dann lebst du hinterm Stein. Aber das wird den meisten erst im Laufe des Jahres klar werden, wenn Windows 12 erscheint und alle dann merken, dass es doch nicht so nutzlos war.
Nicht nur was Windows 12 angeht, da geht bei nVidia sowie einigen Spielentwicklern hinsichtlich NPC K.I. (wofür die NPU auch in Teilen in Frage kommen könnte) und der von Meta, IBM und u.a. nicht wenigen Top-Unis zusammen geführten Allianz für sichere, offene K.I. die NPUs wohl auch mit einbinden dürften, noch deutlich mehr in Zukunft ab, so daß K.I. Beschleunigung auch per CPU (nicht nur per GPU) zunehmend relevanter werden dürfte als einigen aktuell wohl bewusst ist.

Ich denke da wird sich einiges im Hintergrund tun, wovon wir aktuell noch keine Kenntnis (oder nur ansatzweise welche) haben.
 
  • Gefällt mir
Reaktionen: Javeran
nöörd schrieb:
Die Frage ist, wie viele PC-Nutzer von immer mehr und schnelleren Kernen wirklich noch profitieren.
Stimme Dir voll zu in Bezug auf die Anzahl der Kerne. Mehr als 6 braucht kein "normaler" PC User. Wer ab und an Videos auf der CPU bearbeitet, was ich mir als Worst Case für einen Normalo noch vorstellen könnte, hat mit einem 12-Kerner mehr als genug Leistung. Daher halten die CPUs ja auch ewig heutzutage - der User merkt die Unterschiede nicht.

Was wir aber immer brauchen sind SCHNELLERE Kerne. Viel schnellere. Sieht man ja auch bei den Mobilchips: Wenige superschnelle Cores für Zocken und komplexere Berechnungen, ein paar sparsame auf dem Leistungsniveau von vor 10 Jahren für den Rest.
Auf dem PC ist es wahrscheinlich egal, da es keinen Unterschied macht, ob das Gesamtsystem mit Monitor im Leerlauf 70 Watt mit grossen oder 65 Watt mit kleinen Kernen braucht. Daher wäre mein Votum: Wir wollen 8 riesige, schnelle Kerne, gerne doppelt so schnell!

Den Rest können sie weglassen oder für die, die in Ihrer Freizeit gerne theoretische Benchmarks laufen lassen noch 20-50 Gurkencores dranpacken.
Nur bezahlen will die am Ende niemand, wenn man den Leuten die Wahl lässt, wie man bei den meist verkauften DIY-CPUs sieht: Die sind alle eher langsam in theoretischen BS-Benchmarks, haben wenige, schnelle Kerne und hohe Spielleistung.

Der Fortschritt findet auf der GPU im weiteren Sinne und Speziallösungen z.B. für en- / decoding statt.

In Bezug auf die NPUs bin ich mir nicht sicher. Meine Vermutung: Die aktuellen braucht kein Mensch weil entweder
a) Fast gar nichts wirklich lokal exklusiv auf der NPU berechnet werden muss oder
b) falls das KI-gedöns voll abhebt, die aktuellen TOPs einfach ein Fliegenschiss sind. Wenn ich lokal auf meinem Gerät KI-Gedöns brauchen würde in diesem Szenario z.B. in 4 Jahren in der breiten Masse, sind die aktuellen Chips komplett veraltet und entsprechen ohnehin nicht den Anforderungen, die es dann gibt.
 
  • Gefällt mir
Reaktionen: KlaasKersting
BAR86 schrieb:
man muss immer Marketingblabla von der Realität unterscheiden.
KI haben Handys schon längst und es ist für mich nicht relevqnt
Bislang sind gerade die CPU (Befehlssatz)Erweiterungen von Intel bei den Betriebssystemen auch unterstützt worden.
 
Haldi schrieb:
Top die Wette gilt.
Einer von uns beiden muss sich bei Release von Windows 12 an diesen Post erinnern.
Setz den Thread einfach auf die Beobachtungsliste oder ändere deine Signatur als Erinnerung darauf ab. ;)
 
Zurück
Oben