News Intel Lunar Lake: Vierfache NPU- für in Summe über 100 TOPS AI-Leistung

new-user schrieb:
Lunar Lake wird nicht die Mainstream Plattform und Arrow Lake ist das deutlich schwächer aufgestellt.
Sehe ich eigentlich kein Problem drin.

Die APUs müssen halt alles abdecken, darum sind NPU und GPU Leistung wichtig.

Wer sich nen Arrow Lake Desktop hinstellt und ne große NPU braucht, kann sich eine GPU dazustecken und muss keine brachliegende NPU Fläche auf der CPU mit bezahlen.
 
Nobbi56 schrieb:
Es wäre prima, wenn CB mal einen leicht verständlichen (!) "Aufklärungsartikel" bringen würde, damit auch totale KI-Noobs wie ich :lol: zumindest halbwegs begreifen können, was mir als "Normaluser-/gamer" diueser ganze KI-Kram künftig konkret bringen wird.
Oh, das ist im Moment sehr übersichtlich:
  • Hintergrund von Webcam-Aufnahmen verpixeln bzw. durch einen anderen Hintergrund ersetzen
  • Bildretusche
  • Tonfilter in Mikrofonaufnahmen (Störgeräusche rausfiltern, Stimme herausheben)
Angeblich soll Microsofts Copilot demnächst manche Aufgaben rein lokal lösen, statt immer in der Cloud nachzufragen. Welchen Ausmaß das haben wird, weiß ich nicht.

Tja und das wars erst mal. Die große Killeranwendung für mich habe ich noch nicht gesehen.


Mal ne andere Sache:
Kennt ihr KI-Anwendungen, die ihre Arbeit auf so viele verschiedene Systemkomponenten verteilen können? Ich habe bisher nur Software gesehen, die auf der Grafikkarte und der CPU läuft. Aber nie beides gleichzeitig.
Entweder ist das Zusammenrechnen der TOPS von CPU, GPU und NPU Augenwischerei oder es gibt hier noch eine große Baustelle, die angegangen werden muss.

Davon abgesehen, hoffe ich, dass es auch leistungsstarke Produkte ohne viel KI-Kram gibt. Bei mir hat das im Moment keine Priorität und keine Anwendung. Ich würde deswegen nur sehr ungern dafür bezahlen müssen.
 
v_ossi schrieb:
Wer sich nen Arrow Lake Desktop hinstellt und ne große NPU braucht, kann sich eine GPU dazustecken und muss keine brachliegende NPU Fläche auf der CPU mit bezahlen
Arrow Lake wird aber auch eine Laptop Plattform. Die meisten 2025er Laptops werden Arrow Lake basiert sein.
 
Was sollen 100 TOPS gegenüber 10 TOPS für einen Mehrwert bringen? AI ist ja meist keine super Zeitkritischen Echtzeit-Anwendungen die mit "60 FPS" laufen muss so wie es bei Games der Fall ist. Wo ist der konkrete Mehrwert für den Kunden der es rechtfertigt wertvolle Chipfläche (Kosten) auf sich zu nehmen?
 
Es kommt darauf an, wo K.I. eingesetzt wird. Da gibt es selbst bei der K.I. einige Anwendungsfälle die äußerst Zeitkritisch sind. Zum Beispiel das autonome Fahren. Wenn aus mehren von Kameras gelieferten Datenströmen entschieden werden muss ob auf der Fahrnbahn plötzlich etwas auftaucht, das dem Fahrer, oder umgekehrt gefährlich werden kann, können genug TOPS niemals genug sein.
 
Ja geb dir Recht, aber bei Intel CPUs die im Wesentlichen x86 Kerne haben wird der Echtzeit-Real-World Einsatz nicht der Fokus sein.
 
Es werden jetzt schon auf x64 K.I Funktionen in Echtzeit eingesetzt, um z.B bei Videokonferenzen die unscharfen Hintergründe zu bearbeiten. Früher hatte man das mit Hilfe von Open Vino gemacht und das ganze auf CPU, oder die Shader der GPU berechnet. In Zukunft wird das halt mit nativer K.I. Hardware geschehen. Und die wird im Laufe der Zeit immer leistungsfähiger werden. Es haben sich viele Firmen zum AI PC Acceleration Program zusammengefunden. Da sollen sich bis zum Ende des Jahres 2024 über 300 verschiedene K.I. Funktionen entstehen, die durch enstprechende Chips beschleunigt werden sollten. Was da für uns Endverbraucher wirklich an nützlichen und brauchebaren Geschichten raus kommt, wird sich zeigen.
 
Ich würde mir auch gerne mehr Beispiele wünschen für "was bringt mir KI" in einem Notebook APU, vor allem was können 50 TOPS das vorher 10 nicht oder nicht so gut konnten das ich unbedingt brauche oder zumindest haben will. Bei Smartphones können NPUs wenigstens Bilder und Videos so ziemlich in Realzeit bearbeiten, aber bei Laptops? Also, wozu die ganze Pracht, außer "meine NPU ist größer als deine"?
Dazu kommt, daß, solange die Microsofts, Googles und AWS dieser Welt es wollen, daß (fast) alles was KI betrifft bitteschön bei ihnen in der Cloud im Abo gemacht wird, sehe ich eher schwarz für eine "KI Killer App" die lokal auf dem eigenen Rechner gemacht wird.
 
Zuletzt bearbeitet:
eastcoast_pete schrieb:
Dazu kommt, daß, solange die Microsofts, Googles und AWS dieser Welt es wollen, daß (fast) alles was KI betrifft bitteschön bei ihnen in der Cloud im Abo gemacht wird, sehe ich eher schwarz für eine "KI Killer App" die lokal auf dem eigenen Rechner gemacht wird.

Wieso sollte man das in der Cloud machen, wenn die Hardware physich im Rechner vorhanden ist ? Und selbst wenn das nicht der Fall ist, bei Microsoft gibt es in den K.I. SDKs entsprechende APIs, die die Berechnungen auf Multicore CPUs, oder besser GPUs auslagern können.
 
Zuletzt bearbeitet:
Zurück
Oben