News Framework Desktop: Firma der modularen Notebooks überrascht mit AMD Strix Halo

alyk.brevin schrieb:
solche mainboards mit laptop-cpu gibts ja haufenweise auf aliexpress, zb
Stimmt, gibt technisch richtig gute Sachen.
Aber wenn es keine Treiber und/oder BIOS Downloads gibt machts keinen Spaß bzw funktioniert im schlimmsten Fall nicht unter Windows.
Ging mir bei einem KingnovyPC gekauft über Amazon so.
Hat denn Framework einen gepflegten und aktuellen Downloadbereich ?
 
Teckler schrieb:
Hat denn Framework einen gepflegten und aktuellen Downloadbereich ?
Ja und nein. Ja, es kommen Updates und es läuft. Aber sehr langsam und nach der Veröffentlichung eines neuen BIOS inkl. Bug wartet man nun seit 3 Monaten auf den fix.
Es ist ok, muss aber besser werden wenn man ganz hoch hinaus will. Dazu ist der Umfang an Möglichkeiten im BIOS gering, ist er aber auch bei den anderen mobilen Herstellern im Regelfall.
 
  • Gefällt mir
Reaktionen: Teckler
Die LPDDR5X Speicherchips sollten als Arbeitsspeicher ja doch günstiger sein als der GDDR6/7 RAM moderner Grafikkarten. Das macht diese großen Mengen Arbeitsspeicher immerhin noch bezahlbar.
Dennoch ist der Preis stolz.

Ein solches System mit GPU (z.B. RTX4060 / RX6700XT o.ä.) sollte sich preiswerter auch als SFF Build machen lassen, wenn Gaming im Fokus steht. Ich denke die Kernkundschaft sind hier wirklich die LLM Interessierten, die sich daraus einen kleinen Cluster bauen wollen. Das, was man vor fast 5 Jahren mit einem 5600G/5700G als mini Einstiegs-PC gebaut hat, ist in Preis/Leistung für den Gaming Bereich doch eine komplett anderes Hausnummer gewesen.

To be fair: im Bereich LLMs ist der Framework Desktop wiederum eine wahnsinnig günstige Lösung, denn GPUs mit so viel Speicher kosten sonst mehr als der gesamte Framework Desktop in maximaler Konfiguration.

Den Ansatz der Firma mag ich sehr gerne. Wenn unser Asus Zenbook 13 OLED mal den Geist aufgibt würde ich für die Modularität eines Framework Laptops auch was drauf zahlen.
 
Tharan schrieb:
Dazu ist der Umfang an Möglichkeiten im BIOS gering, ist er aber auch bei den anderen mobilen Herstellern im Regelfall.
@Tharan Danke!
Hab eben geschaut, Seite ist noch im Aufbau.
Es tut sich also was und ist besser als im Support nach Treiber betteln zu müssen.
Bei meinem Chinakracher waren sämtliche BIOS Optionen verfügbar, ist für den Hersteller vielleicht billiger, aber für den User (wie mich) unüberschaubar.
Aus der Erfahrung wären mir reduzierte aber wichtige Option lieber.
 
stefan92x schrieb:
Wenn man richtig Compute betreiben will, schau mal hier:
http://www.numberworld.org/blogs/2024_8_7_zen5_avx512_teardown/#memory_bandwidth


Da kommt man mit Strix Halo erstmal dahin, dass ein Zen 5 16-Kerner AVX-512 ausführen kann, ohne ins Memory-Bandwidth-Limit zu laufen, dank deutlich höherem Speichertakt und doppelt so vielen Kanälen.

Das ist abhaengig von der Anwendung. Besonders bei Streaming-Anwendungen, bei denen irgendwelche Daten eingelesen und dann irgendein Abkoemmling davon ausgegeben wird (Dein Link nennt FFT, base64 decoding, JSON parsing, AES encryption), kann es vorkommen, dass fuer jedes Byte, das geladen und gespeichert wird, nur eine bestimmte Anzahl an Rechenbefehlen benoetigt wird. Wenn man da mit AVX-512 von Zen4 mit 16 cores schon wegen begrenzter Bandbreite auf den Speicher gewartet hat, dann nuetzt es nichts, dass Zen5 doppelt soviele AVX-512-Berechnungen pro Zyklus durchfuehren kann. Und Dein Link nennt auch eine Zahl: Pro AVX-512 load muessen bei solchen Anwendungen 340 AVX-512 Rechenbefehle ausgefuehrt werden damit der 9950X nicht am Speicherlimit anstoesst. Wenn Du irgendeine einfache Transformation mit nur 10 AVX-512-Befehlen pro AVX-512-load machst, kannst Du leicht schon mit einem einzigen Zen4-Kern am Bandbreitenlimit anstossen.

Es gibt aber viele Anwendungen, bei denen das kein Problem ist. Bei DP-Matrix-Multiplikation (um nur ein Beispiel aus dem Supercomputing zu nehmen) kannst Du z.B. zwei 1000x1000-Matrizen reinladen und am Ende eine 1000x1000-Matrix rausschreiben, und die drei Matrizen passen alle in 24MB (im L3 cache), aber die Matrixmultiplikation braucht 1G FMA-Operationen, mit AVX-512 also 125M FMA-Befehle auf 0.25M AVX-512 loads aus dem RAM und 0.125M AVX-512 stores in's RAM (der Cache sieht natuerlich viel mehr). Das sind dann 500 AVX-Befehle/load, da ist der 9950X trotz seiner vielen Kerne und seiner breiten AVX-512-Implementation nicht Bandbreitenlimitiert.

Und viele andere Anwendungen arbeiten viel auf denselben Daten statt sich durch Datenberge zu schaufeln. Ich kann mich an ein Review von einem Threadripper oder Xeon-System mit sehr vielen Kernen erinnern, wo der Reviewer fuer seine Benchmarks kaum einen Unterschied zwischen der Verwendung von nur zwei Speicherkanaelen (also wie bei einem Desktop-Ryzen) und der Verwendung aller (WIMRE) 8 Kanaele gemessen hat. Das fand ich schon ueberraschend.
 
  • Gefällt mir
Reaktionen: stefan92x
Haldi schrieb:
Upscaler funktionieren nicht wie in CSI Miami. Du kannst nicht unendlich details erfinden. Sonst endet das so wie Samsung's Mond Fotos.
Ich fürchte mich nach CSI Miami zu fragen ...
Ich habe das nicht umsonst für Anime genannt, weil man dort keine Details hinzufügen muss. Teilweise kann man das Bild schon mit guten Algorithmen verbessern (die guten alten Avisynth Filter ^^). Problematischer finde ich da schon etwaige CG Renderinhalte.

Haldi schrieb:
Übrigens. Moderne codecs wie zbsp AV1 entfernen das Rauschen beim Codieren und fügen es als filter/overlay hinzu um Datenrate zu sparen.
Ich weiß, aber die meisten Videos liegen nicht in diesem Codec vor und du weißt, dass man das Re-Encodieren je nach Quelle möglichst meiden sollte, außer vielleicht (insbesondere für Anime) der AI Upscaler funktioniert gut genug.
Bei Real-Aufnahmen bin ich kein Fan von AI Upscalern/Filtern zur Aufbesserung des Bildes und damit meine ich die starke Nachbearbeitung, nicht die sanfte Methode wie mit Nvidias Shield. Man muss sich dafür nur die letzten 4K Blu-Ray Veröffentlichungen z.B. von alten James Cameron Filmen antun. Was da angerichtet wurde:
  • Gesichter im Hintergrund wurden zu Gollums.
  • Die Haut wurde so sehr nachgeschärft, dass die Schauspieler gealtert wirken.
  • Die AI konnte teilweise nicht zwischen Vordergrund und Hintergrund unterscheiden und hat falsch nachgeschärft.
 
  • Gefällt mir
Reaktionen: Haldi und Apocalypse
@mae ich will das hier gar nicht zu weit offtopic führen, aber in dem Zusammenhang ist der Blick auf die Top500-Liste auch hoch interessant, und zwar wenn man die Resultate für HPCG und Linpack vergleicht:
https://top500.org/lists/hpcg/2024/11/

HPCG reagiert sehr empfindlich auf Bandbreite, während Linpack eher deinem Beispiel der großen Matrixmultiplikation entspricht. Und das ergibt dann solche Verhältnisse für Linpack vs HPCG:
Fugaku: 28
Frontier: 97
Aurora: 180

Fugaku nutzt CPUs mit HBM und ist daher für diesen Benchmark hervorragend aufgestellt, Frontier ist ein klassisches Design mit Beschleuniger und ist deutlich schwächer im HPCG. Von der Auslegung her ist Strix Halo (CPU only) eher mit Fugaku vergleichbar, während Frontier halt wirklich ein klassisches Setup ist.

Und ich dachte mit den beiden hätte ich eine super Argumentation, und dann kam Intels Aurora :freak:
Meinem logischen Verständnis nach sollte der im HPCG relativ gut performen, nutzt er doch Xeon Max (also CPUs mit extra 64GB HBM-Cache!). Ich habe keine Ahnung, warum das System sooooo miserabel im HPCG abschneidet, während die weiteren "klassischen" Designs im groben bei Frontier liegen.
 
alyk.brevin schrieb:
deshalb habe ich einen standardkompatiblen kühler erwartet, zb mit am4 oder lga1700.
Hier können ein paar Probleme eingegangen sein.
Das größere Package bedarf eines Kühlers, welcher alle drei Chiplets ausreichend abdeckt. Ich weiß nicht, ob z.B. die üblichen Kühler das tun. Ich weiß nicht, wie groß das package im Vergleich zu AM5 ist. Es wirkt nicht größer als dieses, aber jene Kühler, die für schmalle Gehäuse konzipiert sind, führen meistens auch nicht genug Abwärme ab. Wir reden hier von einer 120 W TDP, also der Stromverbrauch wird höher sein.
Dazu kommt noch, dass die Kühler auf den RAM achten müssen und entsprechend mit geringer Höhe weniger Fläche haben. Hier hat Framework mit Cooler Master einen Kühler entwickelt, der 12 cm Lüfter fassen kann und man muss noch nicht mal einen Lüfter mitbestellen, wenn man schon einen hat.
Ich sehe das absolut nicht kritisch mit diesem Zusammenhang.

alyk.brevin schrieb:
die begründung war ja nicht platzprobleme, die ich nachvollziehen könnte, sondern entwicklungskosten.
Jo eh. Ich werde jetzt auch nicht so tun, als wenn ich es nachvollziehen könnte, aber wenn der Preis für einen Laptop noch höher gewesen wäre, was man bei Asus sehen kann (wer weiß, wie das HP Modell wird), dann habe ich kein Problem mit Frameworks Entscheidung und glaube ihnen einfach. Wir haben bis jetzt insgesamt nur drei Hersteller mit Strix Halo, wenn ich das richtig sehe. So langsam muss man sich fragen, ob es auch an der Entwicklung liegt. Wahrscheinlicher aber auch, dass die Stückzahl relativ begrenzt ist.
Framework kann ja auch erst im Q3 liefern.

alyk.brevin schrieb:
mit pciex4 physisch meine ich die physische verhinderung, etwas größeres als x4 reinzustecken.
Verstehe ich, dann gehe ich auch davon aus, dass du zumindest elektrisch nicht 16 lanes verlangt hast.

iron_monkey schrieb:
Doch doch... in der EU nax. 10 Jahre, ich wette die tauschen die Riegel aber sogar länger, wenn man nett anfragt.
Die andere Frage, die man hier stellen darf, wäre, wie lange die Garantie bei Grafikkarten ist. Da gibt es ja auch keine separate Garantie für den VRAM.
 
SaschaHa schrieb:
Scheinbar wurde das aber immer wieder aus dem Kontext gerissen und in eine Richtung (LLM etc.) gelenkt
Ich möchte aber mal da noch erwähnen das es nicht nur um LLMs geht, das ist eher durch den A.I. hype überraschend dazu kommendes Segment, an Strix Halo macht AMD nämlich schon seit vielen Jahren rum vor dem ganzen A.I. Hype.

Apple hat ähnliche Produkte, warum wurde es gekauft naja zum einen ist das ja in aller erster Linie für Notebooks gedacht da geht die Rechnung schon nimmer so auf zum einen wäre ein alternatives System mit dGPU teurer aber auch einfach der Stromverbrauch für anspruchsvolle Nutzer die damit arbeiten wollen unaktzeptabel (oft).

Des weiteren hat eine 1 CHIP Lösung auch noch andere Vorteile der Treibersupport die Fehleranfälligkeit wird deutlich geringer da es nur 1 Kombination gibt die man unterstützen muss und von AMD direkt... das ganze wird also wahrscheinlich im Schnitt stabiler sein.

Aber ja für den Normal Spieler oder Heimnutzer wird es so in der Form erst mal nichts, da stimm ich dir zu.
 
Ich denke dieser Chip ist die Zukunft. Es ist schon mal gut, dass AMD damit schon mal experimentiert. Man hat doch eigentlich nur ne dGPU weil die schnelleren RAM braucht und dafür einen kleinen, schnellen RAM hat. Im Prinzip könnte man ne RX 7600XT mit 64GB bauen und einem Ryzen 9700 drauf packen. Aber 64GB VRAM sind teuer. Und im Prinzip ist genau das die Strix Halo APU.

Absolut geniales Ding. Nur die Wartezeit bis Q3 schreckt mich ab.

Ich hoffe da kommt Konkurrenz und die Modelle werden günstiger. Sodass man ein Board mit APU und RAM für 600-700€ bekommt.
 
  • Gefällt mir
Reaktionen: Teckler
alyk.brevin schrieb:
mit pciex4 physisch meine ich die physische verhinderung, etwas größeres als x4 reinzustecken.
der hier hats verstanden:
sicher wäre ein x16 schöner und praktischer, aber dafür gibt es ja auch eine lösung ein x4 zu x16 Riser kabel.
Ergänzung ()

@DFFVB
https://knowledgebase.frame.work/de/-Byhrd6uud
Das Gerät geht nach Holland, du hast ein 30tage rückgabe recht nach versand und bekommst ein versandticket zugeschickt.
https://frame.work/de/de/terms-of-sale
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Teckler und DFFVB
Habe neue 8700G "Box" bestellt und gebrauchte "Tray" geliefert bekommen.
Das gute Stück hat sporadische Aussetzer.
Bin jetzt am Überlegen alles zurück zu geben, bzw zu verticken incl dem Deskmini.
Muss mir das MB mal genauer anschauen :D
 
Die ersten 3 chargen sind schonmal ausverkauft. Scheint sich also erstmal gut zu verkaufen. Natürlich habe ich keine ahnung wie gross eine charge ist, aber ich gehe mal davon aus das es mehr als 10 Geräte sind ;)
 
  • Gefällt mir
Reaktionen: Teckler
Deinorius schrieb:
Wieso gerade für 1080p Animes? 360p-480p Animes profitieren davon noch mehr
Naja die werden von "absolut tragisch" zu "beinahe guckbar" umgewandelt. Wohingegen 1080p Animes richtig chique aussehen auf dem 4k Screen.
https://mega.nz/file/9pEGiACD#b5lpj_mk75XCIdpckVwrieh1P3usaeVinZnvlQj4xAw


Deinorius schrieb:
Ich fürchte mich nach CSI Miami zu fragen ...
^^

Oder das meme davon.
 

Anhänge

  • Ergo_400p_Ori.png
    Ergo_400p_Ori.png
    182,7 KB · Aufrufe: 20
  • Ergo_1080p_BD-version.png
    Ergo_1080p_BD-version.png
    1,5 MB · Aufrufe: 19
  • Ergo_4K_VLC_scaled.png
    Ergo_4K_VLC_scaled.png
    1,9 MB · Aufrufe: 21
  • Ergo_4K-MPV-AI.png
    Ergo_4K-MPV-AI.png
    4,9 MB · Aufrufe: 20
  • Fate_1080p_ori.png
    Fate_1080p_ori.png
    2,6 MB · Aufrufe: 18
  • Fate_4K_VLC_Scaling.png
    Fate_4K_VLC_Scaling.png
    6,1 MB · Aufrufe: 16
  • Fate_4K_MPV-AI.png
    Fate_4K_MPV-AI.png
    6,1 MB · Aufrufe: 13
  • Violet_1080p_ori.png
    Violet_1080p_ori.png
    1,8 MB · Aufrufe: 15
  • Violet_4K_VLC.png
    Violet_4K_VLC.png
    3,6 MB · Aufrufe: 15
  • Violet_4K_MPV-AI.png
    Violet_4K_MPV-AI.png
    5,2 MB · Aufrufe: 20
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: crustenscharbap und the_IT_Guy
Wenn das so gut funktioniert wie Apple muss sich Nvidia bald sehr warm anziehen. Die Zeiten von cuda only sind dank apple vorbei. Jetzt kommt AMD ai und muss apple im Preis unterbieten. Danach kommt Intel ... Für die Kunden eine gute Entwicklung.
 
@Haldi
Um Himmels willen, die ersten beiden Beispiele zeigen deutlich, wie schlecht sich AI auf das Bild auswirken kann!
Beim ersten werden Details verfälscht.
Beim zweiten sind absichtlich leicht unscharfe Hintergründe auf einmal scharf.
Bei dritten geht es, wirkt sogar positiv (wenngleich ich nicht sicher bin, ob die leichte Unschärfe beabsichtigt ist), aber wieso ist die Farbe anders? xD
 
  • Gefällt mir
Reaktionen: 12nebur27
crustenscharbap schrieb:
Ich hoffe da kommt Konkurrenz und die Modelle werden günstiger. Sodass man ein Board mit APU und RAM für 600-700€ bekommt.
so schön das auch wäre, aber realistisch betrachtet sind die etwa 2000,- für das vollausgestattete Board vergleichsweise günstig. Du bekommst eine 9950er CPU auf ITX mit 128GB RAM - stell Dir das mal so zusammen, bist Du mindestens 1200,- los - und das für langsamen RAM und natürlich nur 2 Kanal und noch keine GPU.
Oder anders gesagt, wenn es das Board für 600-700€ gäbe, würden es entweder Scalper aufkaufen, um doch wieder für 2000,- weiter zu verticken, oder der normale DIY Markt wäre ausser im untersten Regal und gänzlich High End überflüssig geworden - denn wer soll da noch was anderes kaufen wollen?
 
  • Gefällt mir
Reaktionen: crustenscharbap
user_zero schrieb:
Anders ist es bei dem Formfaktor halt nicht machbar. Du willst es schmal, dünn, fancy? Der Lötkolben macht das für Dich. Da brauchst Power und maximale Modularität? Das macht der Raum für Dich, in dem Du bist. Du brauchst dann einfach mehr davon.


  1. Das ist ein Desktop.
  2. Bei alten Laptops ist gesloteter RAM kein Problem.
  3. Bei neuen - auch nicht - wie beim ThinkPad T14.
  4. Dell hat noch einen Standard für extra flachen gesloteten RAM nachgeschoben.
  5. Selbst die X13 haben wechselbare M2-Laufwerke. Und die sind größer als RAM.
Es ist lediglich einige Cent billiger. Und wer falsch kauft, muss schneller neu kaufen.


Zumal wir inzwischen in der absurden Situation sind, dass der Tastenhub verringert wird um die Gerät flacher zu machen. Das wollen die Kunden so nicht. Die hätten gerne wieder einen abgerundeten Palmrest ohne Kante.
 
Zuletzt bearbeitet:
@Haldi Mit welchen Programm hast du das hoch skaliert. Ich habe mal mit Flow Frames rum gespielt. Das kann die Framerate erhöhen und sieht wirklich toll aus.
 
Zurück
Oben