Test AMD Ryzen AI 9 HX 370 im Test: Neue Strix-Point-Gaming-Benchmarks mit höherer TDP

Wieso sind solche test in angepasste settings
Damit wird nix vergleichbar außer man nimmt gleiche settings mit gleichen soc mit
Keine Vergleichbarkeit möglich da hilft es nicht nenn nomad benchmark mit zu geben
Die igp wird zudem vom 128 bit si gebremst da auch die Latenz zwischen apu und maimboard da mitspielt muss da ne andere Lösung her ich denke da an camm2 das hat kürzere Latenzen das würde selbst mit 128bit das beschleunigen.
aktuell sind es 70-90ns dann nur noch die hälfte 35-45ns
bei dgpu liegen die Latenzen bei grob 20-30ns wenn die camm2 gut umgesetzt sind also nah am sockel unter 2cm erreicht man sogar dgpu Latenzen mit dem lga dürfte das umsetzbar sein.

Es zeigt sich das die Zukunft wie von mir vermutet, klar apu werden. Davon ab etwa gtx1650 perf bei 50w Respekt.
 
Ryzen AI gefällt mir, muss ich sagen. Die maximale TDP auszufahren, ist eigentlich bei keinem Notebook sinnvoll, weshalb ich das nicht als Nachteil sehen würde.
 
Ich verstehe weiterhin den Sinn von APUs mit starker IGP nicht, weil weiterhin jede dGPU um Längen besser ist. Vor allem find ich es sinnlos, aus den APUs dann mit dem schnellem Speicher und hoher TDP noch Leistung rauszuquetschen.

Für Gaming-Laptops wäre ein reiner Zen5 Achtkerner (gerne mit X3D) mit 24 PCIe-Lanes zusammen mit separater GPU besser gewesen.

Ich möchte mir eigentlich in dieser Generation ein 14"-Notebook kaufen, aber man hört ja von Strix Point-Produkten fast nichts. Ich werde auf keinen Fall etwas mit LPDDR kaufen und hoffe, dass endlich LPCAMM2 eingesetzt wird. Damit ist es eigentlich nicht entschuldbar, noch RAM zu verlöten.
 
Meine Frage nach dem ganzen AMD durcheinander ist, ob die CPU auch mit allen Adminrechten und dem neusten Windows Update getestet wurde :D
 
  • Gefällt mir
Reaktionen: InTheEnd_AI und stefan92x
Die neuen APUs werden langsam besser als meine RX5700, wenn das so weiter geht kann mein Desktop in Rente, dabei habe ich gerade erst einen 5700x3D bestellt. :'D
 
  • Gefällt mir
Reaktionen: Boimler und Dimensionday
Also mit "Full Power" auch immernoch keine Offenbarung. 50% mehr Threads für 25-30% mehr CPU Leistung, 33% mehr ALUs und "neue" Arch und minimal mehr Takt für 20% in synthetischen Benchmarks und eher 10% in Games.
 
Fein. Ich hätte eigentlich ganz cool gefunden in einem test nur zum einordnen mal die 4060 aktiviert zu haben.

Wird das Ding für das neue anno oder civ7 reichen?
 
Maxminator schrieb:
es kann keine APU mit starken Grafik geben ohne den Speicher auf dem Interposer zu haben!
Geht einfach technisch nicht. Das Nachliefern der Daten ist zu langsam für die Grafik.
Ja, aber das liegt nicht daran, wo der Speicher liegt, sondern daran, wie breit das Speicherinterface ist. Auch dein geliebter Lunar Lake hat nur die gleiche Speicherbandbreite wie Strix Point (je nach Speichertakt vielleicht bisschen mehr, aber eben nicht viel).

Erst mit mehr Speicherbandbreite tut sich da signifikant was. Strix Halo verdoppelt die nächstes Jahr, Apple ist mit seinen M-Chips von Anfang an auf dem Niveau oder noch höher. Da befindet man sich dann auch in einem Bereich, in dem die Einsparungen bei Verbrauch und vor allem Platinenfläche signifikant werden (512bit Speicherkanäle übers Board führen ist halt ganz was anderes wie 128bit).
 
  • Gefällt mir
Reaktionen: incurable
Maxminator schrieb:
Hat die GPU sowas? Nein
Natürlich haben auch die GPUs Cache (nicht Cash ;)). Hilft aber nix, weil die Verbindung zum vram bzw ram eben trotzdem langsam bleibt und limitiert. Vergleiche doch mal die Datenrate von 2 Riegeln DDR5 5600-7500 mit der Anbindung irgendwelcher Mittelklasse dGPUs. Letztere sind da um mindestens Faktor 2 vorne.

Das könnte man ausgleichen mit einem fetten L3 Cache wie es auch der Infinity Cache bei RDNA im Desktop ist. Das braucht aber wieder mehr Strom (und Platz), der im mobilen Formfaktor knapp ist.
Ergänzung ()

Maxminator schrieb:
Lunar Lake wird sowas von unterschätz
Von wem? Die "V" SKUs mit Speicher direkt auf dem Interposer werden ordentlich, sofern der schneller angebunden ist als normaler DDR5 (was nach aktuellem Stand nicht der Fall ist). Alle anderen SKUs werden genauso an der Bandbreite verhungern.
 
Zuletzt bearbeitet:
ZRUF schrieb:
Es spricht ja auch nichts dagegen
Richtig. Ich bezog mich aber auf CPU/APU. Da kommen ein paar Cores dazu, die Leistungsaufnahme schränkt aber ein. Da wird dann mit Fabelzahlen jongliert und unzählige Folien damit zugekleistert und bei Realtests verpufft es dann, weil sich einfach mehr Leistung nicht durch Zauberstaub erhöhen lässt.
 
incurable schrieb:
+7% Bilder pro Sekunde bei +142% Leistungsaufnahme 🤔

Das ist doch völlig gaga.
Das stimmt nicht.
70,1 zu 74,9 Watt Verbrauch sind keine plus 142%.
Wo hattest du Mathe? Oder hast du nicht richtig gelesen?
 
Scythe1988 schrieb:
Sehe ich komplett anders
Aber weniger durch Architektur, mehr durch Fertigung und Brechstange. Denn wären die Strukturbreiten und Fertigungstechniken nicht wesentlich optimiert worden, wären wir nicht dort, wo wir heute sind. Was bleibt, ist aber dennoch eine hohe Abwärme, die sich mittlerweile sehr schwer abführen lässt, da sich durch das kompakte Package a) die Fläche stark verringert hat und b) die Wärme sich zu langsam aus dem Inneren bewegt.
 
Das ist ja ein ganz netter Leistungssprung, allerdings ist es doch sehr deutlich das man sich mit 54 Watt ziemlich weit aus dem Sweetspot der Effizienz bewegt. 10% mehr Leistung für fast doppelt so viel Power ist ja auch nicht optimal.
Es wird vermutlich mal Zeit die Speicherbandbreite durch mehr Cache oder mehr Speicherkanäle aufzufrischen, auch bei den CPU-Kernen bleibt ja weniger pro Kern hängen als vor einigen Jahren.
Ergänzung ()

lowrider20 schrieb:
a) die Fläche stark verringert hat und b) die Wärme sich zu langsam aus dem Inneren bewegt.
c) die berühmte Brechstange mit doppelter oder dreifacher Leistungsaufnahme noch 5% für den Benchmarkbalken rausholt.
Wenn man da vom Takt ein wenig zurück geht, werden die Chips häufig ziemlich Handzahm was die Kühlung angeht.
 
Maxminator schrieb:
Wie gesagt: Lunar Lake wird sowas von unterschätzt!
Was wird unterschätzt? Lunar Lake gibt es noch nicht, auch keine handfesten Benchmarks, was will ich da über oder unterschätzen?
Wenn Lunar Lake kommt, kann man weiterreden, jetzt ist es nur Spekulatius und dafür ist es noch etwas zu früh, auch wenn die Supermärkte jetzt schon ihr Weihnachtszeug ausgestellt haben :D
Maxminator schrieb:
ich glaube du wirst auch zu einem Lunar Lake Käufer ;) Warte mal ab...
Hast du eigentlich schon ein Lunar Lake und/oder Intel Poster übern Bett? Und Lunar Lake Bettwäsche?

Deine Beiträge werden langsam echt irgendwie peinlich...
 
  • Gefällt mir
Reaktionen: Zarlak, Nitschi66, Dai6oro und 2 andere
"Auch die TDP muss stimmen, damit die iGPU im Gaming die Performance erreicht, die Nutzer von ihr mit Blick auf das Datenblatt erwarten."

Ist es so? Für mich 0 nachvollziehbar, läuft bei 33W deutlich besser, wieso wird eine höhere forciert? Nur um einen minimal längeren Balken zu bekommen....
 
BxBender schrieb:
70,1 zu 74,9 Watt Verbrauch sind keine plus 142%.
Wo hattest du Mathe? Oder hast du nicht richtig gelesen?
ich glaube du musst nochmal nachschauen. Denn deine zahlen sind die fps bei cyberpunk. zwischen dem 33watt und 54 watt modus. wobei der 33watt modus auch nur 36watt verbraucht und 54watt modus bis zu 80watt

IMG_0688.jpeg
 
  • Gefällt mir
Reaktionen: incurable und Dimensionday
syfsyn schrieb:
Die igp wird zudem vom 128 bit si gebremst da auch die Latenz zwischen apu und maimboard da mitspielt muss da ne andere Lösung her ich denke da an camm2 das hat kürzere Latenzen das würde selbst mit 128bit das beschleunigen.
aktuell sind es 70-90ns dann nur noch die hälfte 35-45ns
Warum sollte CAMM2 da helfen? Die Latenz wird ja nicht kleiner im Vergleich zu verlötetem Speicher.

syfsyn schrieb:
bei dgpu liegen die Latenzen bei grob 20-30ns wenn die camm2 gut umgesetzt sind also nah am sockel unter 2cm erreicht man sogar dgpu Latenzen mit dem lga dürfte das umsetzbar sein.
Warum sollten die Latenzen so relevant sein bei GPUs? Hast du irgendwelche Tests sie das belegen? In erster Linie brauchts mehr Durchsatz.
Ergänzung ()

syfsyn schrieb:
Es zeigt sich das die Zukunft wie von mir vermutet, klar apu werden. Davon ab etwa gtx1650 perf bei 50w Respekt.
Performance einer 5 Jahre alten low-cost Karte ist jetzt nicht gerade die Revolution.
 
  • Gefällt mir
Reaktionen: incurable
Ironbutt schrieb:
Die neuen APUs werden langsam besser als meine RX5700, wenn das so weiter geht kann mein Desktop in Rente, dabei habe ich gerade erst einen 5700x3D bestellt. :'D
Naja, circa ⅓ der Leistung einer RX 5700. Da musste aber noch lange warten und wahrscheinlich steht dann auch ein anderer Monitor auf deinem Schreibtisch bevor die APUs die Leistung deiner jetzigen DGPU erreichen.
 
  • Gefällt mir
Reaktionen: Shoryuken94
bensen schrieb:
Performance einer 5 Jahre alten low-cost Karte ist jetzt nicht gerade die Revolution.
Stimmt, es ist einfach das übliche, was APUs schon seit vielen Jahren schaffen. Die Entwicklung geht ja auch auf beiden Seiten weiter. Solange da keine signifikaten Änderungen passieren (also viel mehr Speicherinterface und CUs) ändert sich daran ja auch nichts. Das soll ja durchaus auch kommen, aber Strix Point ist es halt noch nicht und "Standard-APUs" werden wohl auch in Zukunft so wie Strix Point performen im Vergleich zu dann 5 Jahre alten GPUs.
 
  • Gefällt mir
Reaktionen: bensen und incurable
incurable schrieb:
Das ist doch völlig gaga.
Du darfst an der Stelle nicht vergessen, dass die GPU nicht unbedingt 142 % mehr Energie benötigt hat.

Bei der TDP wird immer noch die CPU + GPU versorgt.

Bei den 28 W TDP kann es passiere. Das sowohl CPU als auch GPU gebremst werden.
Maxminator schrieb:
Die CPU hat den Speicher am Bord: den Cash L1 und L2 usw.
Also die GPU hat keine. L1 und L2 Cache? Das wäre mir aber Neu.

In den CU ist ein L0-Cache, in der WGP ein L1-Cache und natürlich hat die GPU einen L2-Cache.

Was du im weiteren Verlauf schreibst ist auch weitgehend falsch.

Maxminator schrieb:
Hat die GPU sowas? Nein, da muss alles aus dem langsamen Speicher geholt werden und alleine die physikalische Verzögerung / die Latenz hindert es schnell mit Daten versorgt zu werden.
Natürlich hat die GPU sowas. Die meisten GPUs sind auch weitgehend von der Latenz unabhängig. Das könnte sich in Zukunft etwas ändern, nur werden die primären Rechenwerke immer noch In-Order angesprochen und mit Daten versorgt. Daher kann GDDR in der Regel auf Durchsatz getrimmt werden.
Maxminator schrieb:
Strix Halo MUSS auch den Speicher neben der APU haben - sonst wird da auch nichts!
Absoluter Schwachsinn, wäre es wirklich so,
würden ja auch alle anderen Grafikkarten diese Probleme haben, da ist der Arbeitsspeicher in der Regel auch weiter weg.

Der primäre Vorteil dieser „Dichte“ ist, dass der Takt höher ausfallen kann, ohne das man mehr Energie benötigt.

Für Strix Halo ist wesentlich relevanter, dass das SI entsprechend genug Bandbreite liefert, die Latenz ist für die GPU zweitrangig. Da Strix Halo 256 Bit bekommen soll, sehe ich da weniger Probleme.

Lunar Lake wird sich beweisen müssen. Arrow Lake ebenso.
 
  • Gefällt mir
Reaktionen: Smartbomb, Rage, Dai6oro und 3 andere
Zurück
Oben