Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
BerichtAI-Benchmarks mit Procyon: AMD Ryzen 9 und Intel Core Ultra 7 mit NPU im AI-Test
Vielleicht ist der offene Ansatz von Intel gar nicht so schlecht. Immerhin besteht hier die Chance, das er auch auf anderen Systemen wie Linux laufen können wird. Wenn AMD nichts Eigenes im Petto hat, wäre er eine Möglichkeit sich da mit einzuhängen.
Intel hat in Vergangenkeit an vielen Standards mitgewirkt und war oft federführend, auch letztendlich zum Wohle der Konkurrenz.
Es kommt einfach auf den Anwendungsfall an. Qualcomm hatte vor kurzem sein Event, wo Elite X die aktuelle Intel NPU plattgemacht hat. In dem noch nicht veröffentlichten DaVinci Resolve (irgendwas mit Tracking) war die Elite X mit seiner NPU mehr als doppelt so schnell als Intel Ultras NPU. Wenn aber für den Filter die CPU, GPU und die NPU kombiniert werden und die Leistung der Qualcomm NPU erreicht wird, interessiert es am Ende des Tages wen? Ok, der Energieverbrauch wird sehr wahrscheinlich deutlich höher sein.
Gut, dass nvidia Vorreiter bleibt, das verwundert mich wenig.
Insbesondere weil Mr. Lederjacke schon eine Weile an der Technik hat forschen lassen.
Für kleine Aufgaben und zur Beschleunigung, wie einst, als man einen zusätzlichen 3D-Beschleuniger zur 2D-Grafikkarte gekauft hat, werden diese NPUs dennoch ein guter Anfang sein.
Dafür verbrennt nVidia halt auch die Stromrechnung.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Es kommt einfach auf den Anwendungsfall an. Qualcomm hatte vor kurzem sein Event, wo Elite X die aktuelle Intel NPU plattgemacht hat. In dem noch nicht veröffentlichten DaVinci Resolve (irgendwas mit Tracking) war die Elite X mit seiner NPU mehr als doppelt so schnell als Intel Ultras NPU. Wenn aber für den Filter die CPU, GPU und die NPU kombiniert werden und die Leistung der Qualcomm NPU erreicht wird, interessiert es am Ende des Tages wen?
Wie du an deinem Beispiel siehst, um nicht beschränkt auf nur Ausnahmefälle schnell zu sein, sondern über die breite der Anwendungen Leistung zu bringen.
Boah da freu ich mich aber über die Leistung in den ganzen Realworldanwendungen äh Bullshitbingo Werten. Ich würde da einfach Balkendiagramm machen. Die kann dann auch die AI erzeugen. Inhalt oder Achsen sind ja eh egal.
PS: Cool AI Bilder, da sind die Milliarden ja gut angelegt. Memo an mich selbst: Die Aktien von NV abstoßen. Soll und Haben differieren hier leicht.
Die meisten Dinge wie der thread director oder DLSS laufen doch eh irgendwo im Hintergrund, dass dies auch Beispiele für ML im Alltag sind verstehen auch hier die wenigsten.
Worauf beziehst Du Dich überhaupt? Was wurde Deiner Meinung nach missverstanden?
Ergänzung ()
Nichts gegen AI in bestimmten Bereichen (Medizin, Kamera, Steuerungsaufgaben, whatever).
Ansonsten finde ich das Thema völlig überhyped.
Es ist aber klar, dass alle sich darauf stürzen, weil man so wieder neue Hardware und Dienstleistungen verkaufen, sowie auch durch Nutzereingaben mehr persönliche Daten „kapern“ kann.
Auch wenn einige nun sagen werden, dass der KI Prozessor doch lokal arbeitet.
Ich glaube nicht daran, dass das die Datenschwemme in Richtung Cloud dadurch wirklich reduziert wird.
Sonst würde der Bedarf an Rechenkapazität in der Cloud nicht so derartig explodieren und was im PC könnte auch bitte ansatzweise die Rechenleistung einer Cloud ersetzen?!
Da haben die großen Firmen doch auch überhaupt kein Interesse daran, dass alle Daten lokal bleiben.
Das kann ich mir beim besten Willen nicht vorstellen, so lukrativ wie das Geschäft mit den Daten mit Sicherheit ist.
Eine andere Sorge ist, dass durch solch einen Schnickschnack nur alles wieder verteuert wird und gute Hardware grundlos auf dem Müll landet.
Da würde ich die Rechenpower lieber in der Grafikkarte sehen, die kann man wenigstens noch zum Spielen verwenden.
Ich beziehe mich auf die "im Alltag ist ML/KI nutzlos" Kommentare. User die sowas raushauen reduzieren das ganze oft auf die erste "brauchbare" Generation der Chatbots / Copiloten
Lesson 1: NPUs funktionieren
Lesson 2: Windows ML ist ... nun ja ... verbesserungswürdig (Frage mich ob MatMul in DirectML-PyTorch inzwischen funktioniert ^^)
Lesson 3: Intel kann doch noch Software. Nach dem was man zum Thema GPUs und HPC so gehört hat, war ich mir da nicht mehr so sicher.
Notes
• Support for OpenVino 2023.2.
• Cross platform support: Meteor Lake, Discrete Keem Bay.
• Performance improvements.
• Limited initial support for DirectML (preview) on NPU.
• The name displayed for the NPU device in Microsoft Windows® Device Manager and
Task Manager is aligned with the NPU brand name: Intel® AI Boost.
• Improved backward compatibility.
Was die Effizienz angeht währe ein "Punkte pro Watt" Vergleich noch mal ganz nett gewesen an der ein oder anderen Stelle wo die Vergleichbarkeit der Werte dies zuließen.
Die 100 Millionen "AI PCs" dank Meteor Lake stehen meinem Verständnis nach aber noch im großen Wiederspruch zu den NPUs mit mindestens 40 TOPS die Microsoft für diese Klassifizierung fordert.
Woher kommen solche Gedankengänge? Nur weil AI auf dem Vormarsch ist, bekommt man Angst um seine "alte" Hardware, welche dann urplötzlich und absolut grundlos auf dem Müll landet?!
Und AI ist "Schnickschnack", was ja überhaupt keinen enormen Nutzungsfaktor in der Unterhaltungselektronik hat, ganz abgesehen von eben genannten Innovationen.....bis gar hinzu einem neuen Zeitalter führen kann?!
Am besten wären wir wohl in der Steinzeit stehen geblieben, dann hätte man seine Keule heute noch voller Freude schwingen können und müsste sich nicht um fortschrittlichen "Schnickschnack" sein Köpfchen zerbrechen!
AI ist der Hype der Stunde, dessen Rechenlast vorrangig gigantische Cloud-Rechenzentren stemmen. Doch mit Windows 11 24H2 soll AI auch lokal breit ausgerollt werden. Optimalerweise kaufen Kunden dafür„AI-PCs“ mit AMD Ryzen AI oder Intel Core Ultra, deren NPUs AI effizient berechnen. Was genau das bedeutet, ergründet der Test.
Echte Benchmarks für AI-Systeme gibt es bisher quasi nicht. Hier wird es in Zukunft mit Sicherheit aber ebenfalls passende Tests geben, die bei einer objektiven Bewertung helfen können.
Und wenn mein Computer dank Microsoft zur Intelligenzbestie mutiert ist es mir dennoch egal. Anonym und offen kann man die Dienste nicht nutzen. Somit hat sich das sofort erledigt.
Kurz, wenn man einen PC mit Nvidia Grafikkarte hat, dann kann man sich den AI Kram von Intel und AMD sparen? Schneller und effizienter.
Gerade da wir am Anfang sind, gehe ich auch von Veränderungen und Sprüngen aus, daher wäre ich fast geneigt dazu zu raten, die erste AI Generation dieses Jahr zu überspringen. Mal schauen was sich in 1-2 Jahren so herauskristallisiert. Bei einem PC ohne GPU sieht es natürlich anders aus.
Wow, und im Hintergrund wird einfach mit Stable Diffusion ein Bild generiert und die Zeit gemessen.
AI ist für die Firmen eine reine Gelddruckmaschine.
Was ich daraus entnehme ist, dass die NPUs nutzlos sind. Die 0815 Office KI Workloads kann auch eine reguläre CPU locker stemmen. Das Stromsparargument zieht allenfalls auf Laptops, aber immer wenn Energiesparen das einzige Argument ist, weiß man dass das Produkt eigentlich überflüssig ist und man es irgendwie vermarkten will. Lächerlich ist auch, dass MS und co ihre Cloud Office 365 etc) exzessiv vermarkten, dann aber hier die lokale Ausführung vom Inferencing propagiert wird weil der Datenschutz da viel besser ist. Bedeutet dass dann, dass "die Cloud" etwas doch nicht "sicher" ist für den produktiven Einsatz? Lachhaft.
NPUs in Consumer CPUs sind ein Abfallprodukt für deren Existenz erst noch ein Usecase gefunden werden muss. Wer wirklich Leistung in dem Bereich benötigt baut sich Zusatzhardware in Form von GPUs, RTX-Axxx etc ein oder betreibt ein eigenes Rechenzentrum dafür. Dass da irgendwelche Client PCs für irgendwelchen AI-Kram eine NPU in der CPU benötigt sehe ich mal so gar nicht.
Ergänzung ()
metoer schrieb:
Wow, und im Hintergrund wird einfach mit Stable Diffusion ein Bild generiert und die Zeit gemessen.
AI ist für die Firmen eine reine Gelddruckmaschine.
Kannst du das erläutern?
Aus dem Artikel entnehme ich u. a., dass das doppelte verbraucht wird, bei vierfacher Leistung. Bei einer vorgegebenen Aufgabe ist die Stromrechnung also niedriger.
Während nVidia fertig ist, rechnet AMD mit niedriger Stromaufnahme, aber dafür 4x so lange weiter. Für einen Gleichstand kann man sich logischerweise höchstens doppelt so lange Zeit lassen.