Bericht AI-Benchmarks mit Procyon: AMD Ryzen 9 und Intel Core Ultra 7 mit NPU im AI-Test

Vielleicht ist der offene Ansatz von Intel gar nicht so schlecht. Immerhin besteht hier die Chance, das er auch auf anderen Systemen wie Linux laufen können wird. Wenn AMD nichts Eigenes im Petto hat, wäre er eine Möglichkeit sich da mit einzuhängen.

Intel hat in Vergangenkeit an vielen Standards mitgewirkt und war oft federführend, auch letztendlich zum Wohle der Konkurrenz.
 
  • Gefällt mir
Reaktionen: W4RO_DE, tso, Chr1s603 und eine weitere Person
NameHere schrieb:
Die beiden NPU müssten etwa doppelt so schnell sein, damit man die auch breiter sinnvoll einsetzen kann.
...
Müssen sie nicht, warum auch?

Es kommt einfach auf den Anwendungsfall an. Qualcomm hatte vor kurzem sein Event, wo Elite X die aktuelle Intel NPU plattgemacht hat. In dem noch nicht veröffentlichten DaVinci Resolve (irgendwas mit Tracking) war die Elite X mit seiner NPU mehr als doppelt so schnell als Intel Ultras NPU. Wenn aber für den Filter die CPU, GPU und die NPU kombiniert werden und die Leistung der Qualcomm NPU erreicht wird, interessiert es am Ende des Tages wen? Ok, der Energieverbrauch wird sehr wahrscheinlich deutlich höher sein.
 
  • Gefällt mir
Reaktionen: KlaasKersting und FR3DI
Gut, dass nvidia Vorreiter bleibt, das verwundert mich wenig.
Insbesondere weil Mr. Lederjacke schon eine Weile an der Technik hat forschen lassen.

Für kleine Aufgaben und zur Beschleunigung, wie einst, als man einen zusätzlichen 3D-Beschleuniger zur 2D-Grafikkarte gekauft hat, werden diese NPUs dennoch ein guter Anfang sein.

Dafür verbrennt nVidia halt auch die Stromrechnung.
 
Zornica schrieb:
und wofür das gut ist
NPUs haben realen Nutzen, auch jetzt schon. Die von AMD und Nvidia wird von Topaz sogar unterstützt, bei Intel weiß ich es noch nicht.
 
  • Gefällt mir
Reaktionen: fox40phil und StevenB
deekey777 schrieb:
Müssen sie nicht, warum auch?

Es kommt einfach auf den Anwendungsfall an. Qualcomm hatte vor kurzem sein Event, wo Elite X die aktuelle Intel NPU plattgemacht hat. In dem noch nicht veröffentlichten DaVinci Resolve (irgendwas mit Tracking) war die Elite X mit seiner NPU mehr als doppelt so schnell als Intel Ultras NPU. Wenn aber für den Filter die CPU, GPU und die NPU kombiniert werden und die Leistung der Qualcomm NPU erreicht wird, interessiert es am Ende des Tages wen?
Wie du an deinem Beispiel siehst, um nicht beschränkt auf nur Ausnahmefälle schnell zu sein, sondern über die breite der Anwendungen Leistung zu bringen.
 
Boah da freu ich mich aber über die Leistung in den ganzen Realworldanwendungen äh Bullshitbingo Werten. Ich würde da einfach Balkendiagramm machen. Die kann dann auch die AI erzeugen. Inhalt oder Achsen sind ja eh egal.

PS: Cool AI Bilder, da sind die Milliarden ja gut angelegt. Memo an mich selbst: Die Aktien von NV abstoßen. Soll und Haben differieren hier leicht.
 
LamaMitHut schrieb:
Die meisten Dinge wie der thread director oder DLSS laufen doch eh irgendwo im Hintergrund, dass dies auch Beispiele für ML im Alltag sind verstehen auch hier die wenigsten.
Worauf beziehst Du Dich überhaupt? Was wurde Deiner Meinung nach missverstanden?
Ergänzung ()

Nichts gegen AI in bestimmten Bereichen (Medizin, Kamera, Steuerungsaufgaben, whatever).
Ansonsten finde ich das Thema völlig überhyped.

Es ist aber klar, dass alle sich darauf stürzen, weil man so wieder neue Hardware und Dienstleistungen verkaufen, sowie auch durch Nutzereingaben mehr persönliche Daten „kapern“ kann.
Auch wenn einige nun sagen werden, dass der KI Prozessor doch lokal arbeitet.
Ich glaube nicht daran, dass das die Datenschwemme in Richtung Cloud dadurch wirklich reduziert wird.
Sonst würde der Bedarf an Rechenkapazität in der Cloud nicht so derartig explodieren und was im PC könnte auch bitte ansatzweise die Rechenleistung einer Cloud ersetzen?!

Da haben die großen Firmen doch auch überhaupt kein Interesse daran, dass alle Daten lokal bleiben.
Das kann ich mir beim besten Willen nicht vorstellen, so lukrativ wie das Geschäft mit den Daten mit Sicherheit ist.

Eine andere Sorge ist, dass durch solch einen Schnickschnack nur alles wieder verteuert wird und gute Hardware grundlos auf dem Müll landet.

Da würde ich die Rechenpower lieber in der Grafikkarte sehen, die kann man wenigstens noch zum Spielen verwenden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: feris
@chillipepper

Ich beziehe mich auf die "im Alltag ist ML/KI nutzlos" Kommentare. User die sowas raushauen reduzieren das ganze oft auf die erste "brauchbare" Generation der Chatbots / Copiloten
 
  • Gefällt mir
Reaktionen: rooney723
Moin,

also ich fand den Beitrag informativ:

Lesson 1: NPUs funktionieren
Lesson 2: Windows ML ist ... nun ja ... verbesserungswürdig (Frage mich ob MatMul in DirectML-PyTorch inzwischen funktioniert ^^)
Lesson 3: Intel kann doch noch Software. Nach dem was man zum Thema GPUs und HPC so gehört hat, war ich mir da nicht mehr so sicher.

Vielen Dank und Viele Grüße

Jesaa
 
  • Gefällt mir
Reaktionen: rooney723 und fox40phil
Welchen NPU Treiber für Meteor Lake verwendet Computerbase? Es gab im März ein größeres Update auf Version 32.

Release Details
• Driver: Intel NPU (Neural Processing Unit) Driver – Windows*
• Driver Version: 32.0.100.2196
• Date: March 21, 2024

Notes
• Support for OpenVino 2023.2.
• Cross platform support: Meteor Lake, Discrete Keem Bay.
• Performance improvements.
• Limited initial support for DirectML (preview) on NPU.
• The name displayed for the NPU device in Microsoft Windows® Device Manager and
Task Manager is aligned with the NPU brand name: Intel® AI Boost.
• Improved backward compatibility.

Fixed Issues
• Fixed sporadic performance drop spikes.
• Fixed sporadic “Lost Device” error.
• Fixed sporadic error, during multiprocessing use-case.

Known Issues
• NPU will not support workloads on Windows* 10. Disable the NPU device from BIOS
for Windows 10.
https://www.intel.com/content/www/us/en/download/794734/intel-npu-driver-windows.html
 
Volker schrieb:
Letztlich ist es wie so oft eine Frage der benötigten Leistung oder vielleicht der größtmöglichen Effizienz.
Was die Effizienz angeht währe ein "Punkte pro Watt" Vergleich noch mal ganz nett gewesen an der ein oder anderen Stelle wo die Vergleichbarkeit der Werte dies zuließen.

Die 100 Millionen "AI PCs" dank Meteor Lake stehen meinem Verständnis nach aber noch im großen Wiederspruch zu den NPUs mit mindestens 40 TOPS die Microsoft für diese Klassifizierung fordert.
 
chillipepper schrieb:
Eine andere Sorge ist, dass durch solch einen Schnickschnack nur alles wieder verteuert wird und gute Hardware grundlos auf dem Müll landet.
Woher kommen solche Gedankengänge? Nur weil AI auf dem Vormarsch ist, bekommt man Angst um seine "alte" Hardware, welche dann urplötzlich und absolut grundlos auf dem Müll landet?!

Und AI ist "Schnickschnack", was ja überhaupt keinen enormen Nutzungsfaktor in der Unterhaltungselektronik hat, ganz abgesehen von eben genannten Innovationen.....bis gar hinzu einem neuen Zeitalter führen kann?!
Am besten wären wir wohl in der Steinzeit stehen geblieben, dann hätte man seine Keule heute noch voller Freude schwingen können und müsste sich nicht um fortschrittlichen "Schnickschnack" sein Köpfchen zerbrechen!
 
Volker schrieb:
AI ist der Hype der Stunde, dessen Rechenlast vorrangig gigantische Cloud-Rechenzentren stemmen. Doch mit Windows 11 24H2 soll AI auch lokal breit ausgerollt werden. Optimalerweise kaufen Kunden dafür„AI-PCs“ mit AMD Ryzen AI oder Intel Core Ultra, deren NPUs AI effizient berechnen. Was genau das bedeutet, ergründet der Test.

Zum Bericht: AI-Benchmarks mit Procyon: AMD Ryzen 9 und Intel Core Ultra 7 mit NPU im AI-Test

Echte Benchmarks für AI-Systeme gibt es bisher quasi nicht. Hier wird es in Zukunft mit Sicherheit aber ebenfalls passende Tests geben, die bei einer objektiven Bewertung helfen können.


Bei phoronix hab ich https://ai-benchmark.com/alpha von der ETH Zürich gesehen, wäre evtl interessant. Hab mich aber nicht mit dem Thema befasst...
 
Und wenn mein Computer dank Microsoft zur Intelligenzbestie mutiert ist es mir dennoch egal. Anonym und offen kann man die Dienste nicht nutzen. Somit hat sich das sofort erledigt.
 
  • Gefällt mir
Reaktionen: Kadett_Pirx
Kurz, wenn man einen PC mit Nvidia Grafikkarte hat, dann kann man sich den AI Kram von Intel und AMD sparen? Schneller und effizienter.

Gerade da wir am Anfang sind, gehe ich auch von Veränderungen und Sprüngen aus, daher wäre ich fast geneigt dazu zu raten, die erste AI Generation dieses Jahr zu überspringen. Mal schauen was sich in 1-2 Jahren so herauskristallisiert. Bei einem PC ohne GPU sieht es natürlich anders aus.
 
  • Gefällt mir
Reaktionen: rooney723
wern001 schrieb:
5000€ für einen Benchmark. Die haben den Knall nicht gehört
Wow, und im Hintergrund wird einfach mit Stable Diffusion ein Bild generiert und die Zeit gemessen.
AI ist für die Firmen eine reine Gelddruckmaschine.
 
Kane60 schrieb:
Ich bin auch etwas verwirrt darüber, was dem Bericht nun zu entnehmen.

Die meiner Meinung nach für alle hier wichtigste Frage ist doch, wie und wie schnell läuft das alles auf den jetzt aktuellen Systemen?

Was ich daraus entnehme ist, dass die NPUs nutzlos sind. Die 0815 Office KI Workloads kann auch eine reguläre CPU locker stemmen. Das Stromsparargument zieht allenfalls auf Laptops, aber immer wenn Energiesparen das einzige Argument ist, weiß man dass das Produkt eigentlich überflüssig ist und man es irgendwie vermarkten will. Lächerlich ist auch, dass MS und co ihre Cloud Office 365 etc) exzessiv vermarkten, dann aber hier die lokale Ausführung vom Inferencing propagiert wird weil der Datenschutz da viel besser ist. Bedeutet dass dann, dass "die Cloud" etwas doch nicht "sicher" ist für den produktiven Einsatz? Lachhaft.
NPUs in Consumer CPUs sind ein Abfallprodukt für deren Existenz erst noch ein Usecase gefunden werden muss. Wer wirklich Leistung in dem Bereich benötigt baut sich Zusatzhardware in Form von GPUs, RTX-Axxx etc ein oder betreibt ein eigenes Rechenzentrum dafür. Dass da irgendwelche Client PCs für irgendwelchen AI-Kram eine NPU in der CPU benötigt sehe ich mal so gar nicht.
Ergänzung ()

metoer schrieb:
Wow, und im Hintergrund wird einfach mit Stable Diffusion ein Bild generiert und die Zeit gemessen.
AI ist für die Firmen eine reine Gelddruckmaschine.
Im Moment noch nicht. Vermutlich kostet der Benchmark deshalb so viel. Man sucht ja noch nach Usecases.
 
Randnotiz schrieb:
Dafür verbrennt nVidia halt auch die Stromrechnung.
Kannst du das erläutern?
Aus dem Artikel entnehme ich u. a., dass das doppelte verbraucht wird, bei vierfacher Leistung. Bei einer vorgegebenen Aufgabe ist die Stromrechnung also niedriger.

Während nVidia fertig ist, rechnet AMD mit niedriger Stromaufnahme, aber dafür 4x so lange weiter. Für einen Gleichstand kann man sich logischerweise höchstens doppelt so lange Zeit lassen.
 
  • Gefällt mir
Reaktionen: Asghan und KlaasKersting
Zurück
Oben