Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsHigh Bandwidth Memory (HBM): Samsung bemustert HBM3E in Kürze, bis 2025 kommt HBM4
High Bandwidth Memory (HBM) erlebt derzeit einen Höhenflug, denn in der beginnenden KI-Ära wächst der Bedarf an Rechenbeschleunigern mit durchsatzstarkem Speicher. Daher wundert es nicht, dass Samsung jetzt auf die Neuentwicklungen hinweist. In Kürze soll HBM3E bemustert werden. Bis 2025 soll dann bereits HBM4 bereitstehen.
Für Gamer ist HBM wahrscheinlich eher uninteressant. Viel spannender wäre aus meiner Sicht der Einsatz bei modernen SoCs als RAM-Ersatz. Die Durchsatzsteigerung wäre immens und es gäbe ganz neue Nutzungsmöglichkeiten!
Naja, damals als ich meine Sapphire Fury Nitro OC hatte, die ja bekanntlich noch die erste Version von HBM verbaut hatte, da war das mit Abstand der schnellste Speicher auf dem Markt. Knackpunkt war halt nur das es nur 4GB gab, was schon damals sehr knapp bemessen war, aber ansonsten eine Top Karte!
AMD hatte das aber gut im Griff, so das sie kaum oder gar nicht langsamer wurde, als die 8 GB GDDRx Varianten.
Leider dürfte die Technik auch zu teuer sein, um sie mit APUs zu nutzen
Noch. Ist eine Frage der Massenfertigung.
Sobald HBM in einer derartigen Masse produziert wird, sinkt auch der Preis.
Und sollten die Hersteller noch welche auf Halde haben, werden diese selbstverständlich lieber günstiger verkauft.
Abgeschrieben bezogen auf Consumer habe ich HBM nie. Ich war auch immer Nutzer von HBM da ich die Positiven Eigenschaften immer gesehen habe und bevorzugt habe.
Ob Fury, Vega56/64, Nano oder VII (Radeon7)
Hatte sie alle. Und alle waren Top GPUs.
Für einen Aufpreis würde ich jederzeit zu einer HBM GPU greifen.
Leg mir eine 4090 oder 7900 mit GDDR und HBM auf den Tisch, ich werde immer! Die HBM nehmen, auch wenn sie bisschen mehr kostet. Immer!
Viel spannender wäre aus meiner Sicht der Einsatz bei modernen SoCs als RAM-Ersatz. Die Durchsatzsteigerung wäre immens und es gäbe ganz neue Nutzungsmöglichkeiten!
Könnte interessant werden, ob Nvidia bei der RTX 5090 / 5090 TI zu HBM greift. Wird dann aber sicher sehr teuer und die Leute beschweren sich. Andererseits könnten sie sich so noch weiter von AMD abheben, oder AMD entdeckt HBM für sich...
AMD hatte das aber gut im Griff, so das sie kaum oder gar nicht langsamer wurde, als die 8 GB GDDRx Varianten.
Leider dürfte die Technik auch zu teuer sein, um sie mit APUs zu nutzen
Hatte Intel nicht einen Laptopchip mit Vega 8 oder 12 + HBM?
Aber jein, HBM ist teuerer als GDDR6/7 aber mitnichten ZU teuer. Kostet vermutlich doppelt so viel pro GB wie GDDR, was bei den GPU Preisen aber eigentlich völlig irrelevant ist.
Da die Fortschritte bei der Fertigungstechnologie aber immer geringer werden (3nm TSMC bringt schon wenig und 2nm anscheinend noch weniger) muss man sich eh was überlegen wie man Chipfläche freimacht, den Verbrauch runter bringt. HBM könnte hier die Lösung sein ein weiteres Mal einen Sprung zu schaffen.
Eine 5090 (eher nicht) oder 6090 (kann schon sein) mit HBM4 klingt schon eher interessant, hoffentlich auch als Effizienzmodell aufgelegt wie damals die "Nano".
Finde ich jetzt nicht, sie konkurrierte direkt mit der GTX 980, hatte laut Techpowerup auch denselben Launchpreis von 549$ und diese hatte ebenso "nur" 4 Gigabyte; gegen die GTX 970 hatte man eher was aus der R9 200/300er-Serie und die hatten volle Bandbreite für die 4 Gigabyte VRAM und nicht diese legendäre Mogelpackung.
Nur gegen die 980 Ti mit 6 Gigabyte hatte man natürlich das Nachsehen hinsichtlich der Speichermenge.
Und auch die Vega waren gegen die GTX 1070/1080 mit 8 Gigabyte gleichauf...
@BAR86 Mehrere, zum einen im Hades Canyon-NUC steckten der i7-8705G oder der i7-8809G (CPU Kaby Lake, GPU eine Vega mit eigenem HBM): https://www.computerbase.de/2018-05/intel-nuc-hades-canyon-kaby-lake-g-test/
Und die 15"-MacBook Pro gab es ab 2018 mit Vega-GPU und diese hatte ebenfalls 4 GB HBM2-Speicher, Apple hat dazu aber einen normalen i5-i9 verbaut (und sich ja an letzterem buchstäblich die Finger verbrannt).
Nein, wie kommst du darauf? Das ist doch überhaupt kein Vergleich. Ein Channel DDRx hat 64 bit, seit DDR5 als 2x 32 bit statt 1x 64 bit. Ein übliches Dual-Channel-Interface hat somit 128 bit. Bei HBM reden wir über 1024 bit pro Stack, bei HBM4 sogar 2048 bit pro Stack. 2 Stacks HBM4, also beispielsweise 2x 32 GB, hätte somit 4096 bit gegenüber aktuell 128 bit bei DDR5. Der Takt ist zwar niedriger, wird aber um ein Vielfaches kompensiert, wir reden hier schließlich um den Faktor 32 bei der Bitbreite. Also nein, ich nehme hier keinerlei Bezug auf DDR6, sondern rede davon, dass DDRx-RAM eben durch HBM ersetzt werden könnte/sollte, zumindest bei SoCs. Wünschenswert wäre es.
Leider wird das so nicht funktionieren. Produziert wird nur nach Auftrag. "Auf Verdacht" werden keine Fabriken darauf umgerüstet. Das ist leider viel zu teuer und kann in die Hose gehen.
aha Also Namen sind Schall und Rauch, man würde bei Vega erwarten, dass Vega drin ist. Nicht, dass es so eine tolle Architektur war, aber das wundert mich dann schon irgendwie