Nein. Denn der Sockel ist einfach zu klein und hat vor allem zu wenig RAM-Kanäle. Außerdem sprichst du offenbar von AM4 und aktuell wäre ja sowieso AM5.thelittledevil schrieb:Könnte ich den fetten 16 Kerner dann statt meinem 5900x auf meinem b550 Bord mit 128gb RAM einsetzen?
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AMD Strix Halo: Ryzen AI Max mit bis zu 16 Kernen, 40 CUs und 256 GB/s
- Ersteller Volker
- Erstellt am
- Zur News: AMD Strix Halo: Ryzen AI Max mit bis zu 16 Kernen, 40 CUs und 256 GB/s
thelittledevil
Ensign
- Registriert
- Jan. 2009
- Beiträge
- 233
War auch eher ein feuchte traum, als eine reele chance...
Wobei man ja auch eine version mit 32gb HMB on chip bringen könnte.
Aber nachhaltige lange nutzung ist ja nicht im fokus
Wobei man ja auch eine version mit 32gb HMB on chip bringen könnte.
Aber nachhaltige lange nutzung ist ja nicht im fokus
Ich bin ja mal gespannt, wann die HP-Geräte (Oder Lenovo) damit effektiv verfügbar sein werden. Die Version mit HX 370/375 wurde ja im September bei Notebookcheck getestet und ist immer noch nicht erhältlich. Das Omnibook hat zu wenig Anschlüsse.
Zur Namensgebung: Ein heilloses Chaos, was AMD da veranstaltet. Sei es CPU oder GPU...was auch immer die dabei geraucht haben.
Wie immer ein Trauerspiel bei neuen Geräten mit AMD-CPUs, wo es ca. 1 Jahr lang nur Geräte von Asus gibt.
Das steht auf HPs Webseite:
Finde den Fehler:-)
Zur Namensgebung: Ein heilloses Chaos, was AMD da veranstaltet. Sei es CPU oder GPU...was auch immer die dabei geraucht haben.
Wie immer ein Trauerspiel bei neuen Geräten mit AMD-CPUs, wo es ca. 1 Jahr lang nur Geräte von Asus gibt.
Das steht auf HPs Webseite:
HP EliteBook X G1a, die neue Ära der KI-PCs
Ab Dezember 2024 erhältlichFinde den Fehler:-)
Zuletzt bearbeitet:
Nein, denn der Chip hat keine HBM-Controller. Denkbar wäre natürlich LPDDR on Chip, wie wir es von Apple oder Intels Lunar Lake kennen, aber dann passt das ganze Konstrukt durch seine Abmessungen nicht mehr in AM5.thelittledevil schrieb:Wobei man ja auch eine version mit 32gb HMB on chip bringen könnte.
Ergänzung ()
Würde ich anders sehen. FSR4 ist für Gamer, Strix Halo nicht. Da sehe ich wenig Überschneidungen. Wäre natürlich nett, wenn es ginge, aber da Gamer halt nicht die Zielgruppe sind, auch relativ egal.Erenxbo schrieb:Das sieht eigentlich interessant aus, aber FSR 4 hätten sie schon spendieren können, so wird es vermutlich mit Fsr 4 schwierig, da kaum jemand die Technologie nutzen kann.
Sorry, aber irgendwie verstehe ich dich nicht ganz. Daher fasse ich mal kurz zusammen, wie sich mir das ganze darstellt:tomgit schrieb:a.) Und ich soll dann den Desktop mitnehmen, wenn ich unterwegs bin?
b.) Ich promoviere, da ist nicht sooo viel mit "Kundenprojekten".
- Ich hatte geschrieben, dass die 4090 kein Konkurrent/Vergleich zu SH ist
- Das hast du dann negiert, die 4090 ist "der Vergleich"
- Dann hatte ich eingeworfen, dass es neben der 4090 durchaus auch Karten mit mehr VRAM gibt (bis 48GB bei halbwegs vernünftigen Preisen), falls einem die 24GB nicht reichen sollten
- Nun beschwerst du dich, dass du bei diesen Karten einen Desktop/Workstation Rechner bauen musst, diese also nicht mobil sind
In normal großen LLMs reichen die 24GB der 4090 aus, dann ist die klar schneller und spart damit Zeit und Geld. In übergroßen geht ihr der VRAM aus und sie ist damit langsamer, also auch teurer. Generell ist sie aber immer stationär und damit ein ganz anderes Produkt mit einem anderen Anwendungsbereich, ergo keine Konkurrenz. Dass sich die Anwendungsbereiche vielleicht manchmal überschneiden, das kann durchaus sein. Das passiert aber eher selten, eher ist eine RTX 4090M in einem Workstation Laptop ein Konkurrent (da mobil). Die hat 16GB. Ergo ist die Überschneidung zwischen 4090 und SH nur bei LLMs mit einem Speicherverbrauch zwischen 16GB und 24GB gegeben.
Dass SH für dich ein potentiell interessantes Produkt ist, verstehe ich durchaus, geht vermutlich einigen Entwicklern so. Aber Desktop GPUs richten sich in der Regel an eine ganz andere Klientel als mobile Chips wie SH.
Was halt immer noch weniger als die 96GB sind, die Strix Halo nutzen kann. Aber ja, natürlich gibt es die W7900 von AMD oder A6000 von Nvidia mit diesen 48GB RAM, die nochmal einiges abfrühstücken können, wofür die RTX4090 zu wenig RAM hat.Oberst08 schrieb:Dann hatte ich eingeworfen, dass es neben der 4090 durchaus auch Karten mit mehr VRAM gibt (bis 48GB bei halbwegs vernünftigen Preisen), falls einem die 24GB nicht reichen sollten
Den Punkt Mobilität hat @tomgit aber nicht aufgebracht, der kam später erst in die Diskussion. Und es ändert nichts daran, dass für diese Anwendungen ein Strix Halo-Laptop einem RTX4090-Desktop durchaus Konkurrenz machen sollte.Oberst08 schrieb:Die 4090 ist auch nicht mobil, benötigt genauso Desktop/Workstation. Ergo ist sie eben auch kein Konkurrent / Vergleich zu SH, was ich am Anfang bereits gesagt hatte, du aber negiert hast.
Der_Picknicker
Lt. Commander
- Registriert
- Nov. 2020
- Beiträge
- 1.588
Die Frage ist, wie hoch die Token/s liegt. Wenn der nur bei <15 ist, dann bringt auch die Effizienz wenig..
tomgit
Commodore
- Registriert
- Nov. 2015
- Beiträge
- 4.654
Hab ich auch nur aufgeführt, weil es an mich gerichtet war.stefan92x schrieb:Den Punkt Mobilität hat @tomgit aber nicht aufgebracht, der kam später erst in die Diskussion.
Und, ja, selbst dann bietet der größere (theoretische) VRAM von Strix Point Vorteile gegenüber einer RTX 4090 oder gar 5090.
KurzGedacht
Lt. Commander
- Registriert
- Mai 2013
- Beiträge
- 1.803
Als ob das irgendwas mit kundenunfreundlichkeit zu tun hätte.... denkt doch mal ein bisschen mit.D0m1n4t0r schrieb:Nein, natürlich nicht. Das wäre ja Kundenfreundlich
Ergänzung ()
Mal ein Beispiel:wtfNow schrieb:Mal ganz doof gefragt, was bringt das einem?
Warum nicht von ChatGPT/Gemini bedienen lassen? Läuft überall...
Es gibt Menschen die nutzen Sprachmodelle als Ersatz oder Ergänzung eines menschlischen Therapeuten bei der Behandlung psychischer Probleme. Die Dinge die man da erzählt, will man nicht unbedingt mit einem Unternehmen wie OpenAI teilen.
gartenriese
Lt. Commander Pro
- Registriert
- Feb. 2011
- Beiträge
- 1.173
Wurde schon ein Handheld à la Rogue Ally oder so vorgestellt, dass so einen SoC benutzt?
@gartenriese Strix Halo wirst du nie in einem Handheld sehen, dazu ist dieser Chip viel zu groß. Generell ist der nichts für Gamer.
VRAM, llama 3.3 70b bei 4-bit braucht ca 35 bis 40gb vram.dernettehans schrieb:Hab ich das bei der Vorstellung richtig verstanden, die Dinger sind vielfaches schneller als eine RTX4090 LLMs laufen zu lassen mit bis zu 70B? Wie kann das sein? Das wäre ja der Wahnsinn.
gartenriese
Lt. Commander Pro
- Registriert
- Feb. 2011
- Beiträge
- 1.173
Wieso? Ich dachte die Handhelds sind eh schon riesig?stefan92x schrieb:@gartenriese Strix Halo wirst du nie in einem Handheld sehen, dazu ist dieser Chip viel zu groß. Generell ist der nichts für Gamer.
ghecko
Digital Caveman
- Registriert
- Juli 2008
- Beiträge
- 27.445
Und die Chips da drin sind gegen den hier mini.gartenriese schrieb:Ich dachte die Handhelds sind eh schon riesig?
Und was willst du mit einem SOC dessen Effizienzmaximum irgendwo bei 55W liegen wird und die Kosten für das Handheld Richtung 1500€ verschiebt?
gartenriese
Lt. Commander Pro
- Registriert
- Feb. 2011
- Beiträge
- 1.173
ghecko
Digital Caveman
- Registriert
- Juli 2008
- Beiträge
- 27.445
Dafür, das sie ohne Powerbank 20 Min spielen können bis der Akku alle ist?gartenriese schrieb:Enthusiasten werden das schon zahlen
Für stationäre Konsolen und vllt Gaming-Laptops, meinetwegen. Aber das Ding lässt sich in einem Handheld weder sinnvoll kühlen noch mit Strom versorgen. Keiner schleppt so ein 2kg Gerät in der Hand rum, nicht mal Enthusiasten.
wtfNow
Lt. Commander
- Registriert
- Dez. 2020
- Beiträge
- 1.402
Lost_Byte schrieb:Weil die mit viel Müll gefüttert wurden und du deine Firmendaten nicht an OpenAI, Google oder überhaupt nur amerikanische Rechenzentren schicken willst/darfst
Datenschutz ist ein Argument.KurzGedacht schrieb:Mal ein Beispiel:
Es gibt Menschen die nutzen Sprachmodelle als Ersatz oder Ergänzung eines menschlischen Therapeuten bei der Behandlung psychischer Probleme. Die Dinge die man da erzählt, will man nicht unbedingt mit einem Unternehmen wie OpenAI teilen.
In meinem Fall nutze ich es hauptsächlich wissenschaftlich im Maschinenbau/Kunststofftechnik also Mathe/Physik/Chemie ohne personenbezogene Daten.
Kann ich da andere Vorteile haben?
Ob die lokale Berechnung eine größere Investition dafür rechtfertigt ist dann eine andere Sache.
KurzGedacht
Lt. Commander
- Registriert
- Mai 2013
- Beiträge
- 1.803
- Registriert
- Juni 2001
- Beiträge
- 18.854
Artikel-Update: Launchpartner Asus hat die Frage zum Speicher und der hohen Bandbreite geklärt: Es ist ein Quad-Channel-Interface. Mit LPDDR5-8000 als präferierten Speichertyp ergibt sich so auch rechnerisch exakt die beworbene Bandbreite von 256 GByte pro Sekunde.
Ähnliche Themen
- Antworten
- 100
- Aufrufe
- 11.058
- Antworten
- 136
- Aufrufe
- 12.695
- Antworten
- 103
- Aufrufe
- 7.095
- Antworten
- 89
- Aufrufe
- 8.352
- Antworten
- 76
- Aufrufe
- 4.885