News AMD Ryzen AI 300 (Strix Point): 15. Juli als Starttermin bestätigt und neue Benchmarks

@Slim Shader
Der Verbrauch interessiert hier doch kaum einen. Schau dich einfach um, wie viele hier eine 4090 haben. Und aktuell taugt eine NPU noch nicht für viel, muss aber trotzdem bezahlt werden.


Btw, die TOPS von Nvidia Karten:
1-1080.f0af3c2a.jpg

2-1080.06bd2fa3.jpg

Quelle
 
  • Gefällt mir
Reaktionen: Smartbomb und Kadett_Pirx
Hört sich ziemlich gut an und im Notebook ist Stromeffizienz das wichtigste, neben Leistung die gut genug sein muss, also gewinnt AMD da wahrscheinlich eh.
 
  • Gefällt mir
Reaktionen: CableGuy82
eazen schrieb:
und im Notebook ist Stromeffizienz das wichtigste, neben Leistung die gut genug sein muss, also gewinnt AMD
jetzt kommt leider der OEM ins spiel, der mit seinem bios entscheidet wie effizient die AMD cpu im endeffekt sein wird. Und ich glaube nicht an Wunder.
Ergänzung ()

Die frage ist noch wie der scheduler Arbeitet und wie weit die 5c kerne der effizienz zugute kommen.
was mich aber stark triggert ist die gute SC performance. im vergleich zu hawkpoint. Da freut man sich doch sehr wenn diese cpu im Desktop markt erscheint. ich gehe von Q1 2025 aus. Um auch im Desktop eine copilot cpu zuhaben, und nicht intel diese werbe option überlässt. Die garntiert bei vielen desktop pc als verkaufsargument dienen wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Deinorius
Icke-ffm schrieb:
Lach, Du sagst es, erhoffen, die Leistung wird geringer sein wie beim Apple A3 die Effizienz Eventuell on paar aber Intel hat Windoof und damit bleibt es wohl nur bei Synthetischen Benchmarks ein Gleichstand
Reicht das denn nicht? Für manche ist Windows noch immer ein Argument, auch wenn es gerade in dieser Geräte-Kategorie weniger relevant ist. Die Effizienz muss passen, wie auch das Gesamtpaket, Leistung wird mehr als ausreichend vorhanden sein. Es gibt genügend Benchmarks mit MacBook Air Geräten, wo ich mich auch fragen muss, ob diese mit diesen überhaupt häufig abgefragt wird.
Was mich neben der reinen Akkulaufzeit interessiert, ist besonders die Standby-Dauer. Wird diese vergleichbar sein oder ist die Apple Sauce stärker als gedacht?

Krik schrieb:
Und aktuell taugt eine NPU noch nicht für viel, muss aber trotzdem bezahlt werden.
Ja, aber irgendwo muss man ja anfangen. Das Henne-Ei Problem. AI-Aufgaben über die iGPU sind zwar möglich, aber ich finde, die Effizienz sollte für NPUs sprechen. Ohne Hardware wird niemand die Software dafür anpassen. Hier ist wiederum Apple Vorreiter.
Wobei es bei der Software generell mangelt, wenn man sich teilweise fragen muss, was man damit anfangen soll.
 
  • Gefällt mir
Reaktionen: CableGuy82 und Slim Shader
peru3232 schrieb:
Auch fast 100 Bitcoins waren mal mein... DAS ist noch viel ärgerlicher

Aber so ist es immer - wenige schaffen es doch gut durch, aber fast alle verpassen goldene Gelegenheiten. So ist das Leben
Nicht schlecht, das mit AMD ist wirklich ärgerlich hatte damals überlegt, wo die bei 3€ oder so standen. Damals waren Onlinebroker noch nicht meine ich. Aktienmarkt ist oft eine einfache Sache, bei Corona gingen Flug und Touristik runter, wer schlau war hatte da investiert, nur nicht in FTi ;) Wer neue Trends sucht, der sollte sich mal VanEck Defence ETF und besonders Future of Defence ETF genauer anschauen (keine Anlageberatung nur ein Tip)

Mal sehen was von dem ganzen Markting Blabla am Ende bei raus kommt. Dennoch bin ich der Meinung das solche Ai/Ki Produkte für einen Großteil der Kunden total uninteressant ist und unbrauchbar. Meine 73j Mutter braucht so was nicht und die kauft nur Laptops. Wir werden sehen...
 
insgesamt finde ich das sehr unspektakulär. Braucht man gar nicht schönzureden.
Und Intel bekleckerte sich in der naher Vergangenheit bei den iGPU (allgmein will keiner ARC GPUs, nicht mal geschenkt ) auch nicht gerade mit Ruhm. Schauen wir mal ob die versprechen eingehalten werden.
 
Finde es mega spannend und hoffe es gibt im Juli noch ein paar mehr Infos zu Halo. Schon beeindruckend wie viel Leistung bei so geringem Verbrauch möglich ist.
 
budspencer schrieb:
Eines der größten Probleme bei Laptop Performance CPUs ist ja die Kühlung der CPUs unter allcore Last auf kleinem Raum.
Wenn man sich bei den Mobile-CPUs die Performance bei Multicore unter Last auf den einzelnen Kern runterrechnet, sind wir bei ca. 24% Mehrleistung pro Kern im Vergleich zum 16 Kerne Mobile non 3D.
Das zeigt mir, dass im Desktop Bereich, bei gleichem Thermal Budget, etwas mehr als die 16% IPC rum kommen können. Da man, so hoffe ich, einfach mehr OC-Spielraum hat. 20% Mehrleistung mit OC; wäre mit 4% (ca.220MHz) mehr Takt unter Last ja vielleicht doch möglich.

Ein 9900X@6GHz allcore der meinen 5900X@5GHz allcore ablöst, das wäre doch schön.
Macht das einigermaßen Sinn oder liege ich daneben?
 
Schau ma mal. Erste Tests werden zeigen wo die Reise hingeht.
Sollte die Performance pro Watt wirklich ordentlich zulegen gegenüber Hawk Point, werde ich vielleicht schwach und warte noch ab.
 
Artikel-Update: Auf Weibo ist davon die Rede, dass der Start von Notebooks mit Ryzen AI 300 auf den 28. Juli verschoben worden ist. Der 28. Juli ist ein Sonntag. Wenngleich nicht ausgeschlossen werden kann, dass AMD den bis dato offziell nur mit „Juli“ datierten Launch noch einmal verschoben hat, ist das nun genannte, konkrete Datum sehr unwahrscheinlich.
 
  • Gefällt mir
Reaktionen: CableGuy82 und BrollyLSSJ
Was wäre an einem Sonntag schlecht? Die Tests gehen Online und am Montag ist das Zeug im Verkauf. Den Onlinehandel interessiert es eh nicht.
 
Gerüchte eines einzelnen Posters haben hier anscheined den gleichen Stellenwert, wie offizielle Ankündigungen von Herstellern
 
  • Gefällt mir
Reaktionen: MeisterOek und bad_sign
Botcruscher schrieb:
Was wäre an einem Sonntag schlecht?
Weil mutmaßlich schon Granite Ridge Ende Juli rauskommen soll.
Zwei Produkte parallel wäre schon doof.
 
Umgekehrt wird ein Schuh draus. Die positiven Tests aus dem Desktop nimmt man in den Mobilbereich mit. Je mehr um so besser. Wie bei der Werbung wirkt schon die Präsenz.
 
budspencer schrieb:
Macht das einigermaßen Sinn oder liege ich daneben?
Das kann man schon so rechnen - aber im Moment ist das Powerbudget bei diesen Vorab-Werten ja nicht wirklich klar. Sprich Niemand kann oder will sagen, was da wirklich verbraucht wurde.

Im Desktop ist das im Quervergleich etwas einfacher, wenn man davon ausgeht, dass bspw. ein 7950X seinen kompletten Powerrahmen nicht ausspielt. Und vor allem, wenn bei gleicher Coreanzahl getestet wird. Dann kann man da was hoch rechnen.

Das Ding bei Mobile hier ist, 16C sind ggü. 8 oder 12C in der pro Core Betrachtung! im Powerlimit in aller Regel eben im Vorteil, wenn man auf den pro Core Energiebedarf schaut. Die Effizienz steigt, weil die Kerne in Summe mehr leisten, dafür aber niedriger takten und damit eben effizienter arbeiten. Umgekehrt heißt das aber, wenn du dann Kerne weg lässt - im neuen Produkt, dann steigt die pro Kern Leistung, weil mehr Powerbudget pro Kern bereit steht. -> nicht weil die Kerne unbedingt schneller sind, eher weil der Takt ggü. der 16C Version steigt. Und das natürlich noch völlig ungeachtet der Unbekannten, wie viel Powerbudget in Summe am Ende wirklich verfügbar war. Könnten auch 80W für den 370er gewesen sein und 55W für den 7945HX(3D).
Letzterer ist 55-75W eingestuft seitens AMD. Der 370er mit 28W!! Die Tests hier mit den Werten wurden wohl bei mindestens 54W ermittelt. Vielleicht halt auch mehr.


Kurzum, natürlich kann man so rechnen - aber ob das am Ende so aufgeht, hängt maßgeblich vom Powerbudget ab. Bei den neuen AI APUs muss man mMn eh erstmal abwarten, was da genau kommt und wie das ausschaut. Die Baseclocks sind übel viel niedriger als bei den 8C Vorgängern. Quasi 1:1 weniger Takt wie mehr Cores. Das muss nicht zwingend bedeuten, dass das immer nur niedrig taktet unter Last dann. Aber einen Grund dafür muss es halt auch geben, sonst würde man weiterhin 3 Komma GHz dran schreiben.


Ich wünsche mir vor allem von den Tests in den Redaktionen, dass man das anständig analysiert und nicht einfach nur kurzlaufende Benches wie CB oder Geekbench hin schmeißt. Die mMn spannende Frage ist, wie hält so ein Teil unter stätiger Belastung. CB-nT Punkte hui, aber was bringt es, wenn das nach paar Sekunden/Minuten zusammen bricht, weil 28W Powerbudget? -> nix... Dann bringen auch (wie in vorherigen Infohäppchen) Vergleiche zu nem 5950X nix mehr, weil der hält das Dauerhaft.
 
Krik schrieb:
@Slim Shader
Der Verbrauch interessiert hier doch kaum einen. Schau dich einfach um, wie viele hier eine 4090 haben.
Die ich mir genau deshalb gekauft habe, weil ich damit ein sehr gutes FPS/Watt Verhältnis bei maximal 300W erreiche.
 
Artikel-Update: Der nächste mutmaßliche Insider behauptet, dass der 28. Juli sowohl für den Start des Verkaufs als auch für Tests bestätigt sei. Derweil findet sich nun auch im deutschen Asus-Shop ein Liefertermin: Das neue Zenbook S16 mit Ryzen AI soll zum Beispiel ab dem 16. Juli erhältlich sein. Unklar ist in dem Kontext, ob dies auch dem letzten Stand entspricht. Es bleibt also spannend.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
 
  • Gefällt mir
Reaktionen: CableGuy82 und BrollyLSSJ
Taxxor schrieb:
Die ich mir genau deshalb gekauft habe, weil ich damit ein sehr gutes FPS/Watt Verhältnis bei maximal 300W erreiche.
Kannst du mir kurz erklären was der Kontext ist? Es ging um K.I. Tasks und NPU. Wie kommst du jetzt auf FPS/Watt und warum teilst du uns das mit? Wir wissen alle dass die RTX 4090 effizient kann, aber nicht stromsparend in Gänze.
 
Zurück
Oben