Bericht AI-Benchmarks mit Procyon: AMD Ryzen 9 und Intel Core Ultra 7 mit NPU im AI-Test

markox schrieb:
Was die Effizienz angeht währe ein "Punkte pro Watt" Vergleich noch mal ganz nett gewesen an der ein oder anderen Stelle wo die Vergleichbarkeit der Werte dies zuließen.

Die 100 Millionen "AI PCs" dank Meteor Lake stehen meinem Verständnis nach aber noch im großen Wiederspruch zu den NPUs mit mindestens 40 TOPS die Microsoft für diese Klassifizierung fordert.
Oder Enegie pro Punkt (als vergleich zu Liter pro 100 km ^^).
 
5k Dollar 😲
 
ich nutze ab und zu das AI/KI entrauschen von Lightroom. Mit der 6700XT ist das in 15-25sek erledigt.. meist bei 20-30MP Raws.
Wenn das jetzt in 2-5sek erledigt wäre, würde das natürlich cool sein! Dafür würde ich aber aktuell keine Unsummen ausgeben.

Ich finde so etwas fehlt hier noch als Anwendungsfall, den man aktuell schon nutzen kann.
Wobei ich nicht weiß, ob das durch spezielle Ai-Beschleuniger schneller ist?!

Habe irgendwann aufgehört den Bericht zu lesen, weil er zum Teil etwas unklar oder mir nicht sonderlich beim Verständnis half.
Was ich weiß: leider hängt AMD zurück, weil sie sich aufs Profi Segment konzentrieren.
Ergänzung ()

Was mir nicht klar ist:
Lohnt sich der Umstieg zu W11 mit zB einem 5900xt und 6700xt die KI Sachen dann?! Oder nur wenn die CPU eine neutrale Einheit hat?!
 
  • Gefällt mir
Reaktionen: saintsimon
Mit den NPUs dauert es dann 30-40 Sekunden (bei Intel 60 Sekunden). Toll, oder? :D
 
  • Gefällt mir
Reaktionen: Haldi und fox40phil
TheBeastMaster schrieb:
Ich hoffe einfach das alle Hersteller lernen, daß offene Standards einfach besser sind.
Der Zug ist lange abgefahren, mit nVidia als Marktführer.

Was nVidia von Standards hält, ist ja bekannt. Und offen schon gar nicht.
Ergänzung ()

wern001 schrieb:
5000€ für einen Benchmark. Die haben den Knall nicht gehört

In typischer PCGH-Marnier ist der Artikel teilweise und die Überschrift halt komplett falsch. Der Benchmark ist nicht Teil des 3DMarks, sondern teil der Industrie-Lösung. Er richtet sich nicht an normale Nutzer. Und Profi-Software ist halt immer teurer. Das man selbst als Redaktion hier bisher noch nicht viel damit anfangen kann, sieht man ja im Artikel hier.

Warum eigentlich hier immer noch auf PCGH verlinkt wird, ist mir zudem ein absolutes Rätsel... :rolleyes:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Restart001
KI Beschleuniger (integriert oder alleinstehend) sollen ja bestimmte Dinge schneller bzw effektiver abwickeln als eine CPU ohne NPU (ohne "KI") kann. Gibt's denn da keine Möglichkeit, die Beschleunigung in Relation zu einer leistungsstarken CPU ohne NPU auszudrücken? Also, Aufgaben/Benchmarks die "KI" messen zuerst auf zB auf einer 7950x oder/und einer i9 14900 ausführen, und die dafür benötigte Zeit und Energie mit der einer APU mit NPU (also Ryzen Phoenix/Hawk oder Meteor Lake) bzw Grafikkarten (Nvidia und AMD) vergleichen und auch so ausdrücken (benötigte Zeit in Sekunden, Energie in J).
Alternativ dazu, wenn integrierte NPUs abgeschaltet oder umgangen werden können, die Zeit, die APUs ohne und mit NPU eingeschaltet (enabled) dafür brauchen, messen.
Sowas würde zumindest mir den Sinn von "KI (NPU) mit drin" viel besser vor Augen führen. Denn darum geht's doch: gehen mit "KI drin" bestimmte Dinge besser und schneller als ohne, und wie viel besser bzw schneller?
 
besteht eine Chance auf dedizierte A.I. PCie 4.0/5.0 Karten, oder wird man für "mehr" quasi immer seine GPU verwenden müssen?
Mit den doppelten Benchmark-Werten der Intel und AMD NPU wäre ich schon zufrieden.
Denke so um die 150 Flip Flops reichen erstmal aus. Bei AMD und Intel CPUs sind es aktuell doch um 50 -75 oder sowas in die Richtung.
 
Bei der geringen Rechenleistung bezweifle ich, dass eine NPU da sehr viel schneller ist. Dank des Flickenteppichs an APIs kann man hier kaum Vergleiche anstellen. Man kann aber schon sehen, dass die Intel NPU etwas langsamer ist als die Intel iGPU. Gleichzeitig ist aber die Intel CPU ohne NPU oder GPU abartig langsam im Vergleich zur AMD CPU.
Ergänzung ()

Benjamin_Blume schrieb:
besteht eine Chance auf dedizierte A.I. PCie 4.0/5.0 Karten, oder wird man für "mehr" quasi immer seine GPU verwenden müssen?
Mit den doppelten Benchmarkt Werten der Intel und AMD NPU wäre ich schon zufrieden.
Denke so um die 150 Flip Flops reichen erstmal aus. Bei AMD und Intel CPUs sind es aktuell doch um 50 -75 oder sowas in die Richtung.

Dafür reicht dann wohl eine RTX-Karte.
 
  • Gefällt mir
Reaktionen: Benjamin_Blume
steahouse schrieb:
Dafür reicht dann wohl eine RTX-Karte.
Okay, aber in wirklich stromsparend. hätte gerne was das im Optimalfall passiv gekühlt werden kann.
Wäre mal interessant wie das mit ner 4060 oder ti16GB aussieht. Die sollte ja laut den normalen Benchmark Ergebnissen ziemlich genügsam sein.
 
Ist halt die Frage, ob das Ganze so viel Strom auf einer RTX 4060 verbraucht. Wenn da nur die Tensorkerne genutzt werden dürfte die Karte weit unter dem PT liegen. Sind ja bei der 4070Ti auch nur 130W.
 
steahouse schrieb:
Ist halt die Frage, ob das Ganze so viel Strom auf einer RTX 4060 verbraucht. Wenn da nur die Tensorkerne genutzt werden dürfte die Karte weit unter dem PT liegen.
Hier im Test verbraucht ja die RTX 4070 im Schnitt auch soviel. Deshalb würde ich das ungern auf meiner noch größeren GPU laufen lassen. Der NPU Ansatz ist in meinen Augen eigentlich der bessere. Steht und fällt natürlich alles mit der Software. Und bei AMD ist das wie man weiß so ne Sache mit Vorsprung aufholen usw..
 
Imo sind die NPUs zu lahm für alles, wo es auf Leistung ankommt. Für 0815 Office-Kram a la GPT oder Copilot reicht hingegen die CPU oder iGPU. Für irgendwelche Consumer PCs sehe ich den Usecase einer NPU nicht.
 
  • Gefällt mir
Reaktionen: fox40phil und Benjamin_Blume
Das bereits seit einem halben Jahr von Intel ausgerufene Ziel, über 100 Millionen „AI-PCs“ bis zum kommenden Jahr auszuliefern, dürfte gar nicht so ein großes Problem sein

Was ein Glück für MS daß der AI Hype noch rechtzeitig vor dem Windows 10 Ende kommt.
Ich zumindest fahr schon parallel mit Linux.
Ein Windows AI Bastelsystem hätte dann aber doch auch was.
 
@Volker
Mich würde persönlich ja auch mal die Softwareseite interessieren. Wenn der Plan ist, dass z.B. insbesondere Copilot mehr lokal berechnet wird, müssten ja auch die entsprechenden, generativen AI Modelle für Text oder Bilder lokal auf dem Endgerät sein.
Die aktuell verwendeten Modelle wie Chat GPT oder DallE sind allerdings extrem groß und für Laptops absolut ungeeignet. Das wird sich auch langfristig nicht ändern, da die Entwicklung aktuell ja eindeutig zu mehr Parametern geht, was auch die Modelle quasi exponentiell wachsen lässt.
Ganz abgesehen davon, dass die Modelle streng gehütete Geheimnisse sind und man den Teufel tun wird, die über Endbenutzer Hardware zu streuen.


Natürlich gibt es auch jetzt schon LLM Modelle und Modelle zur Bildgenerierung, die lokal ausgeführt werden können, aber die sind eben nicht annähernd so leistungsfähig, weil ihnen das Training mit den großen Datenmengen der Großunternehmen fehlt. Und wenn wir vom selbst trainieren von AI Modellen sprechen, sind wir auch wieder im Bereich von Hardwareanforderungen, die kein Laptop erfüllen kann, von den dafür benötigten Daten ganz abgesehen.

Die große Frage auf Software Seite wäre also:
Was für AI Modelle werden dann da in Zukunft auf den Endgeräten landen, die dann auch lokal ausgeführt werden?

Das wäre dann ja auch mal ein Denkansatz in Richtung, was kann man als "realitätsnahen" Benchmark für solche NPUs verwenden...
 
deekey777 schrieb:
Natürlich gibt es sie, aber das könnte einen Redaktor bei CB überfordern. Ich meine, es ist schon eine komplizierte Sache, einen Videostream mit Windows Studio Effects bzw. Nvidias Spielereien zu starten und Qualität und Verbrauch zu messen.

Ziemlich frech.
Die Redakteure hier bei CB haben schon viele Trends kommen und gehen gesehen.
Die sind teilweise 3 oder 4 Dekaden Computerspezialisten.

Wer bist du?

KI ist ein Thema, ganz klar.

ABER

Warum brauche irgendwelchen KI - Shit in meinem Prozessor?
Und was kann ich damit machen was ich mit "Cloud Ressourcen" nicht könnte?

Normalerweise sucht man eine Lösung für ein Problem.

Aktuell scheint man eine "Lösung" zu haben und ein Problem zu suchen.
 
  • Gefällt mir
Reaktionen: Teckler und fox40phil
IBISXI schrieb:
Warum brauche irgendwelchen KI - Shit in meinem Prozessor?
Und was kann ich damit machen was ich mit "Cloud Ressourcen" nicht könnte?

früher war es MMX jetzt ist es halt KI
Aus EDV ist auch IT geworden ebenso wie aus Internet jetzt cloud ist

Vielleicht gibt es irgendwas sowas wie eine KI beschleunigerkarte ähnlich wie früher der Co-Prozessor aus der EDV Steinzeit
 
wern001 schrieb:
früher war es MMX jetzt ist es halt KI

MMX ist ein erweiterter Befehllssatz.

KI ist ein modernes Buzzword.

Natürlich ist KI interessant.
Aber für die interessanten Sachen geben die Big-Player gerade hunderte MRD $ aus.

Im Ernst... was kannst Du mit einem 500€ Prozzi dagegen reißen und wofür brauche ich das? ... oder kann ich es nicht gratis oder gegen Bezahlung Online machen?

Oder werden das nicht alle in ihren "Service" einbauen, sobald man es wirklich braucht?
 
Zuletzt bearbeitet:
Sehr interessanter Test. Klar wird auch gezeigt, dass sich Nvidia warm anziehen muss. Die Nvidia GPU ist zwar viel schneller, aber verbraucht auch 130 Watt (wahrscheinlich ein Bruchteil davon im Akkubetrieb, aber dennoch wird das viel zu viel sein). Für den Batteriebetrieb ist das nichts.

Da sind NPUs deutlich sinnvoller.
 
Zuletzt bearbeitet:
markox schrieb:
Widerspruch, bitte. Da ist kein Ü und kein Sch. Widerspruch.
--------
IBISXI schrieb:
Ziemlich frech.
Die Redakteure hier bei CB haben schon viele Trends kommen und gehen gesehen.
Die sind teilweise 3 oder 4 Dekaden Computerspezialisten.

Wer bist du?
Ich bin jemand, der seit zig Monaten ein konkretes Beispiel liefert, aber die CB-Redaktion schafft es nicht, dieses selbst zu testen. Entweder haben sie keine Geräte oder kein Interesse.


Für viele Leute sind die Windows Studio Effects viel relevanter. Was mir noch fehlt, wäre, dass ich endlich meine Fotos unter Windows 11 durchsuchen kann (wie früher mit der Foto-App). Also zB "Hund" in die Suche eingegeben und die Windows-Fotoanzeige zeigt meine Fotos mit Hund an - mittels lokaler Suche. Ob das auf der CPU läuft oder der NPU ist zunächst egal, solange ein Gleichgewicht zwischen Verbrauch und Schnelligkeit herrscht.

Und die CB-Redaktion verdient definitiv Lob, dass sie auch den Verbrauch gemessen hat.

Irgendwann werden Videoschnittprogramme um KI-Funktionen auf lokaler Ebene kommen,
Echtzeittranskription wird auch für einige wichtig sein, insbesondere bei Präsentationen.
 
  • Gefällt mir
Reaktionen: crogge
Kane60 schrieb:
Die meiner Meinung nach für alle hier wichtigste Frage ist doch, wie und wie schnell läuft das alles auf den jetzt aktuellen Systemen?
Davor stellt sich in meinen Augen noch die Frage nach der Relevanz des Getesteten.

Bildet einer dieser Tests eine produktiv eingesetzte Anwendung hinreichend ab?

Wie gut treffen die aus den Testergebnissen abgeleiteten Vorhersagen die tatsächlich erzielbaren Ergebnisse?

Für welche Entscheidungen sind sie zeitsparend und aussagekräftig?
 
Zurück
Oben