Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestAMD Ryzen AI 9 HX 370 im Test: Neue Strix-Point-Gaming-Benchmarks mit höherer TDP
Für eine 50% höhere Leistungsaufnahme erhält man also eine 10...20% höhere Performance. So gesehen sind die standardmäßigen 33W TDP ein vernünftig gewählter Wert.
Die Benchmarks die es gibt zeigen Singlecore 0 mehr speed als AMDs CPU und das waren die alten werte mit der höheren TDP könnte AMD sogar vorne liegen... GPU scheiterts bei Intel ja schon alleine an Treibern.
Ich hab jetzt mehrmals gelesen, aber stehe noch immer auf dem Schlauch. Sind die 75fps in Cyberpunk jetzt nur mit der APU oder ist die eingebaute RTX 4060 aktiv?
Meine Steam Deck ist stark genug für 99% der Spiele. Nicht immer beste Settings aber selbst Switch reicht ja für viel, das primäre Hindernis ist eher die Eingabemöglichkeiten ne Mausemulation mit den touchpad ist eher ne Notlösung.
Dieser Test zeigt einmal mehr, was für ein Scheissdreck diese von Herstellern anpassbare TDP ist.
Dem Kunden werden Geräte mit Prozessor X schmackhaft gemacht und er bezahlt entsprechend Geld dafür in dem Glauben, dass er eben auch die volle Leistung von Prozessor X bekommt. Letztlich aber bekommt er unter Umständen viel weniger, weil der Notebookhersteller der Meinung war, zwar den fetten Prozessor zu verbauen, aber die TDP so hart zu begrenzen, dass viel weniger Leistung rauskommt.
Wenn das Notebook bzw. dessen Kühlung einfach nicht auf einen entsprechend "großen" Prozessor ausgelegt ist, dann sollen die Hersteller verdammt nochmal halt eine kleinere Version mit grundsätzlich weniger Leistungsaufnahme verbauen. Das wäre ehrlich.
Aber nein, aus reiner Gier verbaut man den teureren Prozessor, damit man den Kunden schön blenden und abzocken kann.
Dem stimme ich zu. Und meist bei der nächsten Generation wird dahingehend optimiert, daß das ehemalige Topmodell mit weniger Leistungsaufnahme auskommt. Tick-Tock hieß das mal bei Intel.
@Schinken42 Die GPU in der APU dürfte weniger Strom verbrauchen, sodass die Laufzeit steigt, wenn man die dGPU nicht braucht.
Für mich wäre das zB relevant, ichfände eine dGPU interessant, da ich schon die Leistung auch unterwegs gebrauchen könnte. zu 70% mach ich aber Unterwegs nur kleinkram (Teams, Office, Webanwendungen) und da nehm ich jede extra Minute Laufzeit sehr gerne mit.
@Topic:
Letztlich hab ich mich für das S16 entschieden, und der Test hier bestätigt mich darin. Die geringe Mehrleistung durch die viel höhere TDP ist schlichtweg vernachlässigbar für meine Anwendungsszenarien. Dann schraub ich die Details für die paar Games halt ein paar Stufen runter, hab dafür so ziemlich das leichteste x86 NB mit dennoch enormer Akkulaufzeit.
Wenn ASUS das Ding denn endlich mal ausliefern würde....
60% mehr Verbrauch gibt 10%-Leistung ab? Das ist aber traurig und scheint sehr schlecht zu skalieren.
Wo ist wohl der Bottleneck? Architektur, Bandbreite, Zen5+RDNA3.5-Combo oder etwas anderes?
Es geht nicht ganz klar aus dem Text hervor, aber erreicht der APU genau den geworbenen GPU-Takt bei 51W oder ist es als Limit von OEM oder von euch so eingestellt worden?
60% mehr Verbrauch gibt 10%-Leistung ab? Das ist aber traurig und scheint sehr schlecht zu skalieren.
Wo ist wohl der Bottleneck? Architektur, Bandbreite, Zen5+RDNA3.5-Combo oder etwas anderes?
Ich würde auf Speicherbandbreite tippen. Die Effizienz der APUs an sich ist in den letzten Jahren klar schneller gestiegen als die Bandbreite, so dass man hier bei immer weniger Verbrauch schon das Limit erreicht.
Seit Qualcomm hör ich die ganze Zeit "Laufzeit Laufzeit"... und nun stellt man die x86 Teile so ein das sie dort auch gut liefern und trotzdem noch schneller sind besonders in Spielen und dann will plötzlich wieder niemand Laufzeit haben, sondern nur extrem heiße und laute Laptoplüfter.
Wem Laufzeit und all das egal ist, gibt doch auch noch Nvidia GPUs für Laptops.
Rein faktisch ja, da es im zitierten Absatz um die Rohdaten laut Spezifikation ging. Dass die nur im Peak bzw mit ineffizientem Mehrverbrauch dauerhaft zu erreichen sind und ob man das so fahren will, ist ein anderes Thema.
Ergänzung ()
ripa schrieb:
Ich hab jetzt mehrmals gelesen, aber stehe noch immer auf dem Schlauch. Sind die 75fps in Cyberpunk jetzt nur mit der APU oder ist die eingebaute RTX 4060 aktiv?
Lohnt sich nicht wirklich die höhere TDP. Aber so ganz überzeugt mich das Konzept eh nicht. Die GPU ist größer als Nötig für reine Beschleunigung und Bildausgabe, aber zu langsam um wirklich 3D Leistung abzufordern. Wenn der Speicher nicht so bremsen würde, wäre es sicher interessanter, aber so sehe ich die Attraktivität des Produkts nicht. Zumindest nicht in den meisten Bereichen.
Was willst du an 24 Lanes anschließen im Notebook? Ein Zen5-Achtkerner mit X3D bringt dir in einem Notebook-Gehäuse nichts, weil er wahrscheinlich nie den Takt halten kann. Abgesehen davon ist Strix-Point mit 33W unglaublich effizient im Vergleich zu jeder dedizierten Lösung.
Ich verstehe. Hatte gar nicht auf dem Schirm, dass Notebooks das so machen. Aus dem Desktop kennt man ja nur, dGPU drin=iGPU deaktiviert. Danke für die Aufklärung.
Kann man denn auch selbst entscheiden, wann was genutzt wird?
Also im Auslieferungszustand. Dass man prinzipiell eins der Geräte erzwingen kann ist klar, aber auch eher unpraktikabel.
Klingt trotzdem ineffizient. Nicht was den Energieverbrauch des Gerates betrifft, aber die Herstellung. 2x redundante Hardware bei der dann je nach Nutzer ein Gerät sein Leben lang quasi nur nichts tut. Selbst bei einem perfekten Szenario von 50:50 Nutzung heisst das, dass die Geräte 50% der Nutzungszeit nichts tun.
Macht so ein Teil sicher auch nicht billiger.
Dafür ists bequem, ich verstehe.
Schöner wärs, man könnte sie endlich zusammenschalten, zumindest arbeitsteilig. Jaja, ich weiss, dann kommen die Synchronisierungsprobleme die schon MGPUs gekillt haben.