Test AMD Ryzen AI 9 HX 370 im Test: Neue Strix-Point-Gaming-Benchmarks mit höherer TDP

Ich frage mich langsam wo die ganzen Vorstellungen der Notebooks bleiben. Einzig Asus hat seit längerem lieferbare Optionen, kein anderer Hersteller bietet AMD Strix Point an.
Gab es hier für Asus Vorzüge oder waren sie schlicht schneller?
Eine Vorstellung ohne ausreichend Produktvielfalt (Convertibles >2000€) ist mal wieder schlechtes Marketing. Hoffe da holt AMD noch bissl auf.
 
  • Gefällt mir
Reaktionen: Qyxes
Robin_Cl schrieb:
Gab es hier für Asus Vorzüge
ja. Asus ist ein enger AMD Partner und darf heufig 2 Monate früher bestimmte Produkte an den Markt bringen. Ist aber nicht neu.
 
  • Gefällt mir
Reaktionen: Robin_Cl
Robin_Cl schrieb:
Gab es hier für Asus Vorzüge oder waren sie schlicht schneller?
Eher Asus Vorzüge, war schon seit spätestens Renoir der Launchpartner und es wurde auch bei Strix gemunkelt, dass alle anderen Marken erst diesen Monat kommen.
 
  • Gefällt mir
Reaktionen: Ironbutt und Robin_Cl
Liest sich ja erfreulich. Wo ich mich doch in letzter Zeit zunehmend für downsizing interessiere.

Mein aktuellen ideal: 6 oder 8 Kerner mit dicker iGPU. Je nach Preis.

Dafür und ne zweite gen4 nvme auf m board würde ich auf am5 gehen. Alles in das DIY Kit vom Dreamcast Gehäuse aus der Linux News neulich.
Ich träume wieder... 🥰
 
Nett, aber auch nicht mehr. Ich hatte mir, wie so viele Andere schon etwas mehr erhofft. Andererseits warte ich gespannt auf Strix Halo, das wird deutlich spannender :-)

LG
Micha

PS: Für einen Handheld wäre Strix Point schon ok, sind halt auf Effizienz getrimmt.
 
Schinken42 schrieb:
Aus dem Desktop kennt man ja nur, dGPU drin=iGPU deaktiviert. Danke für die Aufklärung.
Kann man denn auch selbst entscheiden, wann was genutzt wird?
Also im Auslieferungszustand. Dass man prinzipiell eins der Geräte erzwingen kann ist klar, aber auch eher unpraktikabel.
vielleicht kennst du das nur so. ich habe den Monitor auch an der igpu angeschlossen, so das slle alltsgs aufgaben die igpu erledigt. Und wenn gpu leistung gebraucht wird schaltet windows linux automatisch auf die dgpu. wenn Aspm noch aktiv und auf energiesparmodus eingestellt ist verbraucht die dgpu nur 1watt. Sicher gibt es Latenz Nachteile, die mir aber noch nicht negativ aufgefallen sind. Bei manchen spielen wie z.b. Stelaries habe ich dann die igpu manuell zugeordnet, weil das spiel keine gpu leistung benötigt und die dgpu eine höher grundleistung hat als die igpu benötigt, was 50watt spart.

Ich muss dazu aber sagen das es im desktop erst seit kurzem sauberer läuft auf AM5 zumindest mein Empfinden. Unter linux ist das schon länger selbst auf AM5 garkein Problem.

oder man nimmt den 2ten oder dritten monitor mit der Igpu. Wenn einem die hohe strom aufnahme seiner dgpu im idle stört.
 
Zuletzt bearbeitet:
Die Erwartungen an die neue Strix-Point-iGPU waren groß. Als der erste Strix-Point-Test dann nur 3 bis 12 Prozent Leistungszuwachs zeigte, war es die Enttäuschung vielerorts ebenfalls.
Weiß nicht wie irgendjemand die neuen AMD APUs mit massiv gestiegener Effizienz im Notebook (!) als Enttäuschung bezeichnen kann. Die CPUs haben alle mehr als genügend Leistung, die Akkulaufzeit ist doch viel wichtiger. Das krazt schon start an Clickbait.
 
  • Gefällt mir
Reaktionen: daknoll
Clickbait, nachdem man in den Artikel geklickt hat? ^^

Davon abgesehen: Viele potentielle Interessenten hier in der Community hatten mehr absolute Leistung erwartet, das habe ich nach dem Feedback auf den ersten Test noch einmal aufgegriffen.
 
Jan schrieb:
Viele potentielle Interessenten hier in der Community hatten mehr absolute Leistung erwartet
Aber auch nur weil sie nicht viel ahnung hatten wie das bei den Apus aussieht. Alleine wer den vergleich 8cu vs 12cu bei aktuellen Apu‘s kennt wusste das es nicht viel wird. Das Einzige was viele nicht einschätzen konnten war RDNA3.5
 
Boimler schrieb:
Was willst du an 24 Lanes anschließen im Notebook? Ein Zen5-Achtkerner mit X3D bringt dir in einem Notebook-Gehäuse nichts, weil er wahrscheinlich nie den Takt halten kann. Abgesehen davon ist Strix-Point mit 33W unglaublich effizient im Vergleich zu jeder dedizierten Lösung.
Zu den Lanes: volle 16 für die GPU, 4 für NVMe, 2 für LAN und WiFi und 2 für anderen Krempel (Kartenleser, 5G etc.)

Ich glaube nicht, dass 8xZen5 mehr frist als 4xZen5 + 8xZen5c. X3D ist in Spielen eher effizienzer als normale CPUs, mehr Leistung mit weniger Takt.

Der Test hier zeigt doch schon, dass Strix Point eben nicht unglaublich effizient ist, wenn man ihn hochprügelt. Mit 55% gesteigerter TDP in CP nur 7%, in Homeworld immerhin 13% mehr Performance. Gleichzeitig ist die Version mit 33W nur 4% schneller als der 8945HS mit 37W und langsamerem RAM, bei 33% mehr Shadern. Da merkt man nix von Zen5.

Sicher, mit ~33W TDP kriegt man nicht CPU und dGPU versorgt, aber ich würde vermuten, dass selbst ein auf 15-28W beschränkter Zen5 8-Kerner mit einer MX570 oder RTX 3050, die ebenfalls nur 25-40W ziehen darf, also zusammen eben 55W, wesentlich mehr fps liefern würde als Strix Point bei ~55W. Besser zu kühlen wäre es wahrscheinlich auch.
 
Boimler schrieb:
Abgesehen davon ist Strix-Point mit 33W unglaublich effizient im Vergleich zu jeder dedizierten Lösung.
Es ruckelt sich vorallem effizienter. Nicht umsonst ist eine dGPU an Bord. Für ältere oder Pixelart Games reicht es jedenfalls aus (selbst auf Hoch-Preset).

Bei 54W landet die APU aber schon im Bereich von kleinen dGPU Lösungen, die das effizienter können z. B. der alte RTX 3050 Schinken, der in einem Vivobook auch mit 30W betrieben wird. Da sah meine 780M leider alt gegen aus, trotz Turbo Mode.

Ich meine, wir reden hier bereits von der alten und ineffizienten Ampere Gen. Der Gegner ist wohl die RTX 4050 sowie 5050, wobei erstere in 750 Euro Notebooks zu finden ist.
 
  • Gefällt mir
Reaktionen: incurable
Naja die Welt ist das jetzt auch nicht, mein Notebook mit 7840u hat auch schon 7500er RAM, da dürfte der Vorsprung noch kleiner sein.
Bin gespannt wie strix Halo performt oder ob da irgendwo eine Bremse ist bei dem integrierten Zeug.
Jedenfalls im Sommer ist super wenn's heiß ist und man was leichtes zocken will ohne alles weiter aufzuheizen :D
 
Cabranium schrieb:
Man merkt irgendwie, dass AMD seinen Fokus auf Effizienz hatte, aber der Markt durch die letzten Jahre nur noch auf maximale Leistung getrimmt ist und nur an der grössten Leistungsergebnissen interessiert ist. Bei Intel wird es kaum anders werden....
Du warst seit dem 5800X3D aber nicht im Koma, oder?
Gerade eben gab's die News, dass AMD ein 105wW TDP Update nach schiebt, ja halt ,sogar Intel wirbt gerade heute mit der Effizientesten CPU aller Zeiten.

Aber auch vorher, schau dir doch einfach mal die Watt/Leistung Diagramme von Zen 4 und 5 an gegenüber Intels 13/14xxx Serie, die verringerte TDP von Zen 4 auf 5, die X3D Modelle, die Effizienz unter AMDs Eco Modes. Alleine in Default Modes sind fast 100% an Effizienzunterschied zwischen AMD und Intel möglich.
Dass ein Hersteller es zusätzlich erlaubt das Energiebudget zu erhöhen ist doch völlig rational, das ist auch nicht das gleiche wie die Leistungskotzgenzen für Kunden zu forcieren, wie dein Text es aus meiner Sicht impliziert.
Schliesslich kann der hier getestete Lappi auch weiterhin in 28/33Watt betrieben werden, oder etwa nicht?

Wenn ein Druck zu ineffizienter Leistung besteht dann von den Kunden, für die sich mehr Leistung trotz höherem Stromverbrauch noch finanziell rechnet (z.B. mangelnder Platz/Budget für zusätzliche Hardware).
Und dann ist es leider logisch, dass ein Hersteller versucht den Wünschen einer Teilgruppe von Kunden mittels Kompromissen (AGESaa update) entgegenzukommen.
 
Zuletzt bearbeitet:
NguyenV3 schrieb:
Es ruckelt sich vorallem effizienter.
Also in CP77 ruckelt da nichts, wenn man die Benchmarks sieht. Dass du mit einer iGPU nicht so weit kommst, wie mit einer dedizierten Lösung, ist nichts neues. Das wird auch vorerst so bleiben.

NguyenV3 schrieb:
Bei 54W landet die APU aber schon im Bereich von kleinen dGPU Lösungen, die das effizienter können
Solange AMD da nichts am Speicherinterface macht, bleibt das ein Problem. Andererseits ist das in meinen Augen eher ein Thema bei den Desktop-APUs, weil die mit anderen stationären Lösungen konkurrieren. Ein Notebook mit iGPU bleibt in allen Belangen, die nicht die maximale TDP abrufen, effizienter als eine Desktop-Lösung.

Tigerfox schrieb:
Sicher, mit ~33W TDP kriegt man nicht CPU und dGPU versorgt, aber ich würde vermuten, dass selbst ein auf 15-28W beschränkter Zen5 8-Kerner mit einer MX570 oder RTX 3050, die ebenfalls nur 25-40W ziehen darf, also zusammen eben 55W, wesentlich mehr fps liefern würde als Strix Point bei ~55W. Besser zu kühlen wäre es wahrscheinlich auch.
Deshalb hatte ich explizit den 33W-Betrieb erwähnt. Kleine und effiziente Einstiegslösungen im Desktop-Bereich sind seit Zen3 kein Hexenwerk mehr. Hab ich mir ja auch zugelegt. Allerdings wirst du keine Einstiegs-GPU finden, die entweder genug VRAM hat oder ein breites Speicherinterface, das von 16 Lanes profitieren würde. Spätestens wenn man mit seinem Desktop-System da ein Problem bekommt, hat man eh die falsche GPU gewählt. Dann ist Effizienz aber auch kein Hauptkriterium mehr und man braucht den Vergleich mit effizienten Mobillösungen nicht mehr führen.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Jan
Ich sehe nach wie vor nicht den Sinn in diesen APUs. Zum Zocken zu wenig, für nur Video und Co zu viel.
 
  • Gefällt mir
Reaktionen: Boimler und incurable
@CyrionX
da hast du schon Recht, aber schau dir die Grundsätzliche Haltung der Kunden mal an. Meist Gewichten/ Beachten die die Effizienz kaum und schauen nur nach dem Max möglichen Balken. Selbst wenn man damit den Effizienz gewinn im Meer versenkt.
Rein Hypothetisches Beispiels, weil ich die Intelbeiträge noch nicht gelesen habe.

Würde Intel die gleiche Leistung bei 1/2 Power liefern, würden viele meckern „Das die Teile ja nicht mehr Leisten.“ Statt zu erkennen was für eine grossartiges Stück Silizium da plötzlich liegt.

Und genau diesen Effekt sehe ich bei AMD. Das Produkt ist klasse, aber die kunden wurden leider so Erzogen/ haben sich selbst da hin entwickelt, dass diese Leistung zu wenig Gewichtet wird. Da man ja mindestens 30% mehr Leistung erwartet.

Das ist sehr schade. Für jemanden der die letzte Generation gekauft hat mag die neue weswegen nicht kaufenswert sein, aber es wird oft auch nicht mehr wahrgenommen, dass für Leute mit älteren Modellen hier was richtig gutes auf dem Markt erschienen ist.

Ich zumindest freue mich schon darauf zu sehen welches Model ich am Ende erstehe und wie ich von der Effizienz profitiere und somit ein Leiseres und kühleres Gerät im Sommer in meiner Dachgeschosswohnung einsetzen kann.
Ich schiele nämlich schon ganz lange Neidisch auf die Apple M Serie.
 
Ein Vergleich mit dem Ryzen AI 365 würde mich noch mehr interessieren.
 
  • Gefällt mir
Reaktionen: crogge
NguyenV3 schrieb:
Bei 54W landet die APU aber schon im Bereich von kleinen dGPU Lösungen, die das effizienter können
Vorweg: der 890M liegt bereits auf dem Niveau einer 2050 (3Dmark)

Und jetzt: die machen das aber nicht "effizienter".
dGPUs sind ja auf einer völlig anderen Leistungskurve wie iGPUs.
Dedizierte Karten (wie die 3050) sind als erstes um ein vielfaches größer, und verfügen damit mehr CUs/pipelines, VRam, Bandbreite, Kühlung etc. wodurch deren Sweetspot eben nicht bei 28W liegt sondern z.B. 60-80W.

...und dadurch kosten Sie noch entsprechend mehr (Quasi Effizienz pro Euro)
Sie haben also in unterschiedlichen Bereichen ihre Effizienz aber sind miteinander nicht vergleichbar würde ich sagen, wenn man sich die Variablen außerhalb der Leistungsbalken anschaut
 
  • Gefällt mir
Reaktionen: crogge und Boimler
Zurück
Oben