News Framework Desktop: Firma der modularen Notebooks überrascht mit AMD Strix Halo

Sehr sehr hot!
 
Krik schrieb:
Nützt aber nicht viel, da der Flaschenhals zu eng ist.
@tomgit
floTTes schrieb:
Ich habe das über mehrere Videos/Reviews gesehen/gelesen: bei "langsamen" bis "mittleren" Karten verlierst du kaum Gaming-Performance. Es sind max. 11% bei einer 4060 Ti - hauptsächlich Open-World-Spiele, die viel streamen. Ich finde das geht noch.
Wenn ich das richtig sehe, wäre der potentziell Occulink über PCI-E 4.0 4x angebunden? und jetzt ist die Frage, wieviel Gaming Performance man in etwa verliert, bei Einsatz einer e-gpu?

Wurde ja alles schon mehrfach untersucht.

eine 4090 läuft auf 4x bei etwa 93% der Leistung von 16x (PCI-E 4.0 wohl gemerkt). Der unterschied von 16x zu 8x sind 2%. Daraus könnte man dann auch herleiten, wie groß wohl der Vorteil von PCI 5.0 bei den 5000ern nun ist (mal davon ab, dass dieser ja auch schon Probleme bereitet hat). :rolleyes:

Um es kurz zu machen.

Das Bandbreiten Thema bei GPUs wird bei vielen hier völlig falsch eingeschätzt. Manche raten ja selbst von 4.0 8x Karten völlig ab. Aber seht selbst. wenn eine 4090 7 % verliert, dann sollte bei allen 8x Karten auch der Einsatz auf PCI 3.0 Mainboards kein nennenswertes Thema sein.

Screenshot 2025-02-26 075654.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floTTes
DieSuperSuppe schrieb:
Allerdings ist der Preis trotzdem viel zu Hoch.

Man bekommt für 1100€ auch ein Dell G15. Das hat eine Nvidia 4060 und Intel i7 Plus Monitor und Tastatur usw.
falscher vergleich. Erstmal nimm kein Hardware die schon seid über einem Jahr auf dem Markt ist. Dann vergleiche mit dem Hersteller preis. Und dazu bitte noch in der gleichen Produktkategorie.

Dann wirst du sehen das ein minipc in dieser Ausstattung cpu/gpu/RAM garnicht so leicht zufinden ist, und der Preis im vergleich garnicht so teuer ist.

jemand der in so einem segment sucht , will keinen laptop.
 
SaschaHa schrieb:
Offenbar willst du es also auf eine unanfechtbaren Thron heben, der aber nunmal in eine absolute Nische fällt.
Unnötige fettgeschriebenen Wörter um ein Meinung durchdrücken zu wollen bringt auch nichts.
Fakt ist ebenso, dass AMD AI einen höheren Stellenwert gibt - merkt man letztlich auch an der Betitelung des Produkts, Ryzen AI. Zu behaupten, es wäre ein Strohmannargument, würde man AMD selbst die eigene Ausrichtung des eigenen Produkts in Frage stellen. Dass es ein nicht gerade geringer Usecase für den Prozessor ist, hat man in den verschiedenen Tests und bei den Vorstellungen gesehen. Nur weil es in der Gaming-zentrischen perspektive nicht ankommt, macht das die anderen Sichtweisen nicht schlecht.

SaschaHa schrieb:
Fakt ist: Es lassen sich zum selben Preis schnellere Mainstream-Produkte zusammenstellen, während deine Argumentation sich ausschließlich auf Anwendungsfälle bezieht, die aktuell in eine Nische fallen. Das macht dieses Teil dann aber eben nicht zur eierlegenden Wollmilchsau für alles, sondern zu einer (guten) Alternative, bei der es aber eben sehr stark auf den Use-Case ankommt. Für LMM top, für Gaming und andere Zwecke aber eben nur eine Alternative zu anderen Konfigurationen.
Liegt vielleicht daran, weil ich zuerst an das Ding als Workstation denke und Gaming nur ein nettes Beiwerk für mich ist. Ich sehe es eher als eine Linux-fähige Alternative zum M4 Max, und insbesondere hier schlagen Preis und Leistung deutlich ein.
 
  • Gefällt mir
Reaktionen: floTTes, peru3232, Anakin Solo und eine weitere Person
FrozenPie schrieb:
Wurden nicht für diesen Zweck CAMM bzw. genau für diesen Fall LPCAMM entworfen und gebaut?
Könnte an der Stelle ein paar Hintergründe mehr haben. Unter anderem auch für das Layout der Platine.
FrozenPie schrieb:
Wobei sich mir aber auch die Frage stellt warum hier so extreme Anforderungen überhaupt gestellt werden?
Weil für die GPU es sehr wichtig ist, dass die Zugriffe auf den RAM "planbar" sind. Um aus der Radeon 8050 und 8060 die beste Leistung herauszuholen, müssen gewisse Voraussetzungen erfüllt werden. Ansonsten kann dir der ganzen Datenfluss zusammenbrechen und die Leistung verpuffen.
SaschaHa schrieb:
Andererseits: Jeder "normale" Desktop-PC ist modular(er), also wtf?
Klar ist jeder normale Desktop-PC modularer, nur reden wir bei normalen Desktop-PCs in der Regel heute nur noch vom DIY-Markt und nicht mehr vom großen allgemeinen PC-Markt.

Im OEM-Bereich als auch in vielen anderen Bereichen haben sich weitgehend "Thin-Clients" durchgesetzt. Selbst im Workstation-Bereich gibt es von HP, Dell, Lenovo und Co entsprechende "Thin-Clients", die ebensowenig modular sind wie der Framework-Rechner hier und dennoch werden die gekauft.

Der Desktop hier richtet sich an "Konsumenten" nicht an "Bastler". Ich würde solche Geräte kaufen für die Makerspaces, für die digital Labore und Co. Die werden dann mit nem Image bespielt, bekommen ihre Fernwartungssoftware und werden aufgestellt und nach 5 Jahren entsprechnd der Abschreibuntg, ersetzt.

Da wird nichts aufgerüstet, zusammen gesteckt und Co. Selbst die "Desktop-PC" werden von uns maximal dann angefasst, wenn man mal eine SSD tauschen muss, weil die ggf. den Geist aufgegeben hat und selbst das müssen wir in der Regel im Systemhaus machen lassen wegen Wartungsverträge.
SaschaHa schrieb:
Nur ist der Punkt mit der Modularität und der Aufrüstbarkeit dann eben doch problematisch, und das war ja ursprünglich die Leitlinie des Unternehmens
So "wirklich" aufrüsten ließen sich die Laptops aber auch nur in Modulen. CPU-Tausch zog unweigerlich den tausch des Mainboards mit sich.

Auch hier wird ja eine gewisse Modularität erhalten, auch wenn der RAM "wegfällt", nur wirklich mehr oder weniger modular als die Notebooks ist das jetzt hier nicht.
SaschaHa schrieb:
und das ist immer noch um Welten langsamer als ein dedizierter VRAM vergleichbarer GPUs.
Es gibt heute eigentlich keinen "VRAM" mehr, selbst bei Grafikkarten handelt es sich um einen SDR-RAM, halt der Marke GDDR.

Von der Bandbreite ist der RAM hier bei 256 GB/s und damit knapp unterhalb der 288 GB/s der 7600 XT. Dazu kommt der 32 MB "MALL-Cache", was mit dem Infintiy-Cache gleichgesetzt werden kann. Was mich gerade interessiert, wäre der L2-Cache der GPU und wie groß dieser ist.
SaschaHa schrieb:
Der VRAM der 7700 XT beträgt "nur" 12 GB, was in dieser Leistungsklasse aber vollkommen ausreichend ist,
Kommt halt darauf an, was man machen möchte und was nicht. Ich kenne genug Leute, die gerne mal sowas wie Stable Diffussion und Co nutzen würden "lokal". Gerade da kann man quasi nicht genug VRAM haben.

Und genau das ist da auch der entscheidene Punkt.
wertertzu schrieb:
Davon abgesehen ist der AMD Ryzen™ Al Max+ 395 mit 50 bzw. 162 TOPS einfach ein Witz im Vergleich, was bringt es dir, die LLM vielleicht in den RAM zu laden, aber am Ende ne ewig auf ein Ergebnis zu warten (als Beispiel).
Hast du Programme wie Stable Diffusion, LLama und Co schon bereits selbst bei dir installiert und damit Erfahrungen gesammelt?

Gerade die großen LLM als auch die Bildgeneratoren werden oft nicht unbedingt durch die Leistung der Hardware eingebremst, sondern sehr viele alleine durch den VRAM. Eine 8060S kann in speziellen Fällen, wenn sie wirklich die 96 GB nutzt, jede RTX 4090 und sogar eine RTX 5090 verdreschen und ist um ein vielfaches schneller, weil alles im VRAM liegt, während die RTX 4090 und RTX 5090 mit ihren mickrigen 24GB/32GB ihre Daten kleckerweise bekommen.

Ich merke bei einer RTX 4090 jedes mal, wenn ich Bilder skaliere, dass entsprechende Wartezeiten entstehen, weil die Daten nicht mehr in den VRAM passen und alles hin und her kopiert werden muss. Das sind dann so Szenarien, in denen eine 7900 XTX plötzlich genauso schnell ist, wie die RTX 4090, weil beide eben "nur" 24 GB VRAM haben und ein Szenario, in dem eine Radeon Pro W7900 die RTX 4090 überflügeln kann, weil sie 48 GB hat, oder die RTX 6000A.

Und genau sowas ähnliches passiert auch hier mit den großen LLMs. Klar, dauert die Anfrage "länger" als wenn eine RTX 4090 die 96 GB hätte, nur hat die RTX 4090 keine 96 GB. Würde mann eine 8060 S gegen eine RTX 4090 antreten lassen bei einem entsprechenden LLM, wäre die 8060 alleine wegen des VRAMs deutlich schneller.
 
  • Gefällt mir
Reaktionen: Millennial_24K, eXe777, Anakin Solo und 9 andere
Wird es diese RAM Konfiguration, mit bis zu 256gb/s auch in den klassischen Desktop schaffen?

Es wäre eine Freude nicht mehr auf Jensen von Nvidia setzen zu müssen, wo er mit Augenbinde, blind, den nächsten Preis per Dart werfen sucht.
 
Ich bin gehypt! Vorbestellen werde ich nicht - auch weil es bis Q3 ja noch lange hin ist. Aber da ich ohnehin etwas spieletaugliches fürs Wohnzimmer suche, könnte das ein idealer Zweit-PC werden.

Für die 64GB-Variante, 2TB NVMe und dem Zubehörkram ist man schnell bei 2500€ und damit trotzdem recht teuer für die gebotene Leistung.
 
Casillas schrieb:
eine 4090 läuft auf 4x bei etwa 93% der Leistung von 16x (PCI-E 4.0 wohl gemerkt). Der unterschied von 16x zu 8x sind 2%. Daraus könnte man dann auch herleiten, wie groß wohl der Vorteil von PCI 5.0 bei den 5000ern nun ist (mal davon ab, dass dieser ja auch schon Probleme bereitet hat). :rolleyes:
Hier gibt es aber 2 Punkte zu beachten. Eine 4090 hat 24GB VRAM und lädt in Spielen kaum Daten nach, weil sie soviel puffern kann. Hat man die langsamer angebunden, lädt die bei Spielbeginn ein paar Prozent länger und dann läuft das Spiel durch. Hat man weniger VRAM und muß während des Spielflusses Daten nachladen und braucht dabei dann länger hat man Nachladeruckler, die dann schon spürbar länger sind, als mit einer schnelleren Anbindung.
Der 2te Punkt ist die Anbindung der Karten selbst. Bei Budget Karten wird mittlerweile auch am breiten 16 Lane Port gespart. Normalerweise wird das immer an neuen Karten kritisiert, die in alte Systeme gesteckt werden (also "nur" 8fach PCIe 4.0 bei der Karte auf PCIe 3.0 Board), kann aber wenn man das Mainboard hier nutzt um einen PC upzugraden und eine ältere 3.0 Grafikkarte übernimmt genauso zur Bremse werden.

Unding für mich ist, dass der Port nicht wenigstens mechanisch 16fach ist. Ich kann es auf den Bildern nicht erkennen, ob der Slot nach hinten offen ist. Es wäre schon sinnvoll, dass man auch ohne volle Anbindung 16fach Karten überhaupt erst einmal stecken kann. Wenn das nicht geht, ist das für mich eine katastrophale Designentscheidung.

@MichaG
Werdet ihr das oder ein ähnliches Desktop System mit Strix Halo mal testen? Mich interessiert der Verbrauch bei unterschiedlichen Lastszenarien.
Sowas als DIY NAS System und eben HomeServer, der auch (performant) eine KI laufen lassen kann, wäre schon interessant.
 
Zuletzt bearbeitet:
Ja geilo, ich hatte schon befürchtet (und das auch im Kommibereich bei der Vorstellung von Strix Halo geäussert), dass das wieder so ein "AMD Ding" ist bei dem sie geilen Schei$$ vorstellen, den es dann aber tatsächlich nie in der Breite gibt. Ob das nun "die Breite" ist, sei Mal dahingestellt - zumindest ist es aber zeitnah nach der Vorstellung von AMD auch ein praktischer Ansatz mit einem Gerät.

Preilsich...hm ja, wenn die Benchmarks stimmen und Strix Halo mit der 8060S wirklich eine mobile 4060 aussticht nicht unspannend. ALLERDINGs würde ich das Gerät wohl trotzdem kaum in der Kaufempfehlung heranziehen, da man mit einer dedizierten GPU immer noch modularer unterwegs ist, deutlich schneller (die mobilen GPUs sind ja idR 30% hinter den Desktop Pendants) und preislich wahrscheinlich sogar günstiger wegkommt.

That said: ich finde die Preisgestaltung des UVP etwas "schwierig". Was ist der "Usecase" für son Teil für 1600€? Das könnte sich als Dealbreaker herausstellen. Mit einem attraktiveren Preisschild (z.B. 799€ für den 8060S) hätte man einen deutlich breiteren Absatzmarkt (im Consumerbereich) ansprechen können. So ist es halt wahrscheinlich schwerpunktmäßig für lokale LLM KI Anwendungen spannend.
Meine fuffzich Pfennich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse
Nur das Griffstück oben wirkt etwas deplatziert.
Vielleicht wären zwei seitlich beidseitig monierte Klappbügel besser, die man ggf. nach oben zu einem Griff zusammenklappen kann.
 
Was kann man mit dem Rechner alles spielen? Ich habe da keinen Plan. Nur alte Games? Oder auch neue Sachen.
Wäre doch auch sicher gut für Foto+Videobearbeitung oder?
 
@jabberwalky: Als heißen Tipp sei es geraten, die Bilder im Artikel zu sichten. Sonst Reviews des Asus Flow Z13 zu lesen, die kürzlich erschienen sind.

/Slow Tharan is slow...
 
Allein aus technischem Interesse würde ich ein solches Gerät nur zu gern mal unter den Fingern haben - vielleicht lässt es sich als LAN-Rechner ja rechtfertigen ... auf jeden Fall sehr wahrscheinlich, so häufig, wie ich meinen PC heutzutage zu diesem Zweck noch abbaue :D

Wie dem auch sei, dieses Gerät und seine Nachfolger werde ich mal auf dem Radar behalten.

Und eines noch: Wer würde bitte einen Cooler-Master-Lüfter wählen, wenn er Noctua haben kann??? :P
 
  • Gefällt mir
Reaktionen: MiningMichael
@DevPandi 1440 durchaus möglich. Wäre schon sehr gut.
Ich frage mich wie laut das wohl wird🤔
Ergänzung ()

jabberwalky schrieb:
@DevPandi 1440 durchaus möglich. Wäre schon sehr gut.
Ich frage mich wie laut das wohl wird🤔
@Tharan Danke, die hatte ich tatsächlich übersehen. Da bekommt man einen Eindruck. Stimmt.
 
SavageSkull schrieb:
Hier gibt es aber 2 Punkte zu beachten. Eine 4090 hat 24GB VRAM und lädt in Spielen kaum Daten nach, weil sie soviel puffern kann. Hat man die langsamer angebunden, lädt die bei Spielbeginn ein paar Prozent länger und dann läuft das Spiel durch. Hat man weniger VRAM und muß während des Spielflusses Daten nachladen und braucht dabei dann länger hat man Nachladeruckler, die dann schon spürbar länger sind, als mit einer schnelleren Anbindung.
Ja da hast du recht. Daran habe ich jetzt auch nicht gedacht. Allerdings gibts hier auf CB einen Test mit einer 6600XT. Dort sind es von 8x 4.0 auf 3.0 auch nur 2%

Screenshot 2025-02-26 084659.png

Soweit ich weiß, ging es ja seiner Zeit mit den RDNA 66xx Karten los mit dem Thema.

Ich glaube wenn man für eine e gpu das im hinterkopf hat, ist das ok. 4x 4.0 ist da nicht das "totschlag" Argument. Bei etwas mehr vram schon gar nicht ;)


ach gibt es wirklich Karten die auch physikalisch nur auf einen 8x Port setzen? das war mir nicht bewusst.
Ich hatte mich seiner Zeit bei den 66xx er Karten von AMD damit beschäftigt. Da ist mit keine untergekommen, die nur einen kurzen Slot hat.
 
Wie sieht das Gehäuse denn aus wenn ich keine Kacheln bestelle?

Und warum kann man ≥3 extension slot bestellen, wenn das Gehäuse nur Platz für 2 bietet. Ist das plug and play zu tauschen?
 
Zuletzt bearbeitet:
Starkes Teil. Für jene wo das Geld da ist.

Mal schauen wie es auf Software Seite bei Apple weiter geht. Daran wird sich glaube entscheiden (KI) was eher gekauft wird.
 
Zurück
Oben