• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News MSI Claw 8 AI+: Next-Gen-Handheld mit Core Ultra 200V erscheint 2025

Du meinst wohl eher Z3 Value. Außer Valve geht in die Richtung, dass das SD2 nicht allzu günstig zu haben sein wird und das SD OLED weiterhin im Sortiment bleibt.

Slashchat schrieb:
mit egpu support ist das msi 2 mit intel gekauft.
eGPU ist aber immer noch so eine Sache, USB 40G bietet so oder so nur eine ziemlich begrenzte Bandbreite, vergleichbar mit PCIe 2.0 8x (hier ein netter Vergleich) und dann kommen wohl zusätzliche Latenzen hinzu. Ich hätte gerne einen aktuellen direkten Vergleich.
Wann wohl USB 80G, besonders mit dem asynchronen Modus (120 Gbit/s, bzw. eher 96 Gbit/s PCIe?) kommt.
 
Deinorius schrieb:
eGPU ist aber immer noch so eine Sache, USB 40G bietet so oder so nur eine ziemlich begrenzte Bandbreite, vergleichbar mit PCIe 2.0 8x
ich hatte mir mal occulink an das steamdeck gebastellt mit einer RX5700XT und win11. Und war schwer beeindruckt wie gut das Funktioniert hat. Die verbindung konnte ja nur max PCIE3x4. Es gibt bestimmt messbare latenzen, genauso wie bei hybrid grafik. Aber beim Spielen merke ich davon zumindest nix.

Techpowerup hatte mal PCIE scalierung mit einer rtx4090 getestet
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-pci-express-scaling/28.html

Manche Ergebnisse von einzelnen spielen schauen Merkwürdig aus, liegt aber am CPU limit mit einem 5800x.

Wichtig ist einfach das genug VRAM zur verfügung steht
 
Ja, das entspricht alles ungefähr USB 40G/TB4 und es variiert stark zwischen den Spielen. Doom Eternal, Elden Ring, RDR2 und interessanterweise auch Witcher 3 sacken ziemlich ab, sobald man nur noch 4 GB/s hat. Aber wie schon erwähnt, die Bandbreite ist nicht das einzige Problem. Mit Occulink kann man sogar die doppelte Bandbreite haben.
Es gibt von minisforum ein ziemlich leiwandes Teil, das ich selber vom Design her auch lieber hätte. Simpel, günstig, ATX/SFX NT installieren, welches man will und per Occulink hat man 8 GB/s. Aber eben kein USB-C.
Über USB-C wird etwas zusätzlich ausbremsen und diese Benchmarks fehlen heute.
 
Na das wird interessant, wie Z2 (Extreme) aufgebaut sein wird. Bis vor kurzem war ich voll dafür, dass die NPU deaktiviert wird wie bei Z1, aber nachdem ich AutoSR gesehen habe ...
Unter Linux, was mich nun mal primär interessiert, wäre so ein Feature unter gamescope als Ersatz für FSR1 geradezu phänomenal. Damit hätte ich nicht mal mehr ein Problem mit 1080p auf dem Steam Deck 2, wobei ich nicht einschätzen kann, wie das mit dem HUD scaling und allgemein Text auf so einem Display ist. Vielleicht hat dazu jemand mit Erfahrungen durch die anderen Handhelds?

Ich hoffe, dass nicht alle 12 Kerne aktiv bleiben. Ganz ehrlich, das kann nur zu viel sein. Mit decky/powertools kann man schon einzelne Kerne nach Reihenfolge deaktivieren. Hoffentlich kommt auch eine einfachere Auswahlmöglichkeit zwischen p/c Kernen.
 
Deinorius schrieb:
Ich hoffe, dass nicht alle 12 Kerne aktiv bleiben. Ganz ehrlich, das kann nur zu viel sein. Mit decky/powertools kann man schon einzelne Kerne nach Reihenfolge deaktivieren. Hoffentlich kommt auch eine einfachere Auswahlmöglichkeit zwischen p/c Kernen.
bisher hatte jedes abschalten von Kernen keinen unterschied im verbrauch gezeigt, bei den ganzen Handhelds. Es gab keine vorteile dadurch. besonders weil der grossteil an spielen schon mehrkerne unterstützten. bei weniger kernen musste mehr takt her gegenüber mehr kernen. Das einzige die limitierung der frequenz brachte vorteile, allerdings wenn weniger kerne zur verfügung standen waren au h die min fps schlechter.

Ob jetzt nur 5c kerne oder ein 4/4 oder 2/8 oder wie auch immer gewählt wird. ist ziemlich egal. wichtig ist nur das der chip im sweetspot agiert. solange wenig energie für die frequenz steigerung gebraucht wird um so besser. Ab einer bestimmten frequenz wird einfach Zuviel energie gebraucht.
und wie weit dort der cache noch einfluss hat weiss ich nicht. da soweit ich das verstanden habe beim 370er die 4normalen kerne mehr vache zur verfügung steht wie den 5c kernen. dieser ist soweit ich das verstanden habe getrennt von einander.

hattest du den bericht gesewo sich jemand einen originales SteamOS auf ein Rog allyX installiert hat? und dadurch mehr leistung und weniger verbrauch erzielt hat?
 
Ob es "kein" Unterschied ist, glaube ich weniger, kaum Unterschied sicher, aber es hängt auch von der TDP ab. Ich argumentiere auch im Sinne von einfachen (z.B. Pixel Art) Spielen, vielleicht macht es dort mehr Sinn. Müsste vernünftig getestet werden.
Mein Argument bezog sich nicht mal primär darauf. 12 Kerne in Handhelds halte ich für übertrieben und hoffentlich gibt es preislich einen (geringen) Vorteil durch salvage chips, auch wenn dieser Anteil nicht allzu groß wird, aber besser als nichts.

4/4 oder 2/8 könnte rein aus diesen Zahlen betrachtet völlig egal sein, aber ich behaupte, dass durch die Cache-Aufteilung 4/4 mehr Sinn machen wird. Die GPU-limitierten Spiele könnten sogar mit nur 4 Zen5c Kernen am effizientesten laufen. Gott, was man da alles an Akkulaufzeit-Testungen durchführen kann. "Macht es einen Unterschied, CP2077 nur mit Zen5 oder Zen5c zu rendern?"
Strix Point basierte APUs sind wegen des aufgeteilten Cache zwischen Zen5 und Zen5c eine Ausnahmeerscheinung. Kraken Point könnte durch dessen "nur" 8 Kerne auch nur 16 MB L3-Cache haben, aber wenigstens ist es dann ein Block. Und niemand wird denken, dass AMD nicht Strix Point als Grundlage nimmt. Lunar Lake ist in dieser Hinsicht alleine schon interessant, aber auch völlig anders!
Wie du korrekt erwähnt hast, es muss im Sweetspot laufen, aber das heißt nicht automatisch, dass ein jeder scheduler das für Spiele automatisch korrekt erledigt, bzw. traue ich AMD nicht zu, genügend Arbeit da hineinzustecken. Hier könnten spezifische scheduler in Linux einen weiteren Vorteil erbringen.

Welchen Bericht genau? Meinst du direkt SteamOS oder bazzite? Für Letzteres kenne ich den von Tom's Hardware. Wie wir wissen, je neuer Kernel und mesa sind (und all die anderen Kleinigkeiten), umso besser wird das alles. ^^
 
Deinorius schrieb:
Welchen Bericht genau?
https://www.tomsguide.com/gaming/ha...roves-windows-11-kills-power-and-battery-life

IMG_0705.jpeg
IMG_0704.jpeg

IMG_0703.jpeg
 
Den habe ich doch am Ende des Satzes verlinkt. xD
Ich war mir nur nicht sicher, ob du den meintest.
 
ich hatte nur toms hardware gelesen, und nicht auf deinen link geklickt. Da die gemeinte seite toms guide heisst.
 
Deinorius schrieb:
Du meinst wohl eher Z3 Value. Außer Valve geht in die Richtung, dass das SD2 nicht allzu günstig zu haben sein wird und das SD OLED weiterhin im Sortiment bleibt.

Wieso Z3 value wenn der z2 gerade bestätigt wurde.

Ich rechne nicht mit einer weiteren custom APU.

Der Z1 e war ein feingetunter 7840U (oder 8840?), ähnlich wird es sicher beim z2 sein.

Erste ryzen ai Spiel Benchmarks gibt es schon.

Ende September kommt der Intel Vergleich.

Intel war jetzt überraschend schnell und ich bin wirklich auf Benchmarks gespannt, die Handheld Leistung simulieren.

Bestenfalls wird es ein Kopf an Kopf rennen was Leistung und effizienz angeht, aber Intel braucht unbedingt den Erfolg (wirtschaftlich).
 
Es ging um das Steam Deck 2 und Valve hat gesagt, dass die nächste Version einen deutlichen Leistungssprung erfahren muss, damit es sich lohnt. Ich sehe diesen Sprung nicht mit Strix Point bzw. Z2 Extreme.
Ich bin schon lange der Meinung, dass dafür mind. N3 (je nachdem, welches N3 genau auch immer) nötig ist. Von den Features her sehe ich nicht mal ein Problem. RDNA 3.5 könnte auch in der nächsten Generation Ryzen AI 400 (um Himmels willen) bzw. Z3 weiter existieren. Raytracing ist in dieser Kategorie nicht wichtig. Außer RDNA4 braucht nicht viel mehr Transistoren, ich würde nicht Nein sagen. Aber eher glaube ich, dass RDNA4 ausgelassen wird und AMD direkt zu RDNA5 wechselt, weil das mehr Vorteile bringen könnte, sofern die Gerüchte zur völlig neuen Architektur stimmen.
Durchaus wahrscheinlich, dass es keine weitere custom APU wird, aber ich hoffe, dass Valve dennoch gut wählt. Die Erwartungen sind hoch.

Vielleicht warten sie auch auf LPDDR6. Zumindest LPCAMM2 soll eine 192-bit Busbreite haben. Ohne deutlich mehr Bandbreite oder Infinity Cache (oder wie auch immer) wird die Leistung nicht ordentlich ansteigen.
Das SD2 muss nicht gleich Z2 Extreme Leistung erreichen, wenn sie preislich den gleichen Weg gehen wollen, aber ob das den Aufwand wert ist?
 
  • Gefällt mir
Reaktionen: Baldanders19
Wenn es eine 32GB Version gibt wie angegeben und Egpu Support ist das Ding gekauft. Freu mich schon.
 
Zurück
Oben