Anfrage bei SKHynix: Nvidia will früher auf HBM4-Chips mit 1,6 TB/s setzen können

Jan-Frederik Timm
16 Kommentare
Anfrage bei SKHynix: Nvidia will früher auf HBM4-Chips mit 1,6 TB/s setzen können
Bild: Micron

Nvidia möchte HBM4-Speicher sechs Monate früher nutzen können, als ihn Hersteller SKHynix bis dato auf der Roadmap hatte. Eine entsprechende Anfrage hat Nvidias CEO Jensen Huang laut dem Chairman der SK-Gruppe, Chey Tae-won, gestellt. Ob ihr nachgekommen werden kann, sagte Chey Tae-won wiederum nicht.

HBM4 wird schneller

High Bandwith Memory 4 (HBM4) soll gegenüber HBM3 doppelt so viele Speicherkanäle aufweisen: 32 statt 16. Das Interface ist daher mit 2.048 Bit doppelt so breit. Pro Pin wird eine Datenrate von zunächst 6,4 Gbit/s anvisiert. Das ist zwar genauso viel wie bei HBM3, doch durch das schnellere Interface würde der Durchsatz effektiv auf rund 1,6 TB/s pro Stapel verdoppelt werden. Das ist auch schneller als die rund 1,2 TB/s bei HBM3E (1.024 Bit, 9,6 Gbit/s).

Bei HBM4 sollen darüber hinaus 4, 8, 12 oder 16 Lagen DRAM übereinander gestapelt werden. Bei 24-Gbit-Dies (3 GByte) ergeben sich so bis zu 48 GByte pro Stapel. Bei den neuen 32-Gbit-Dies (4 GByte) sind es dann bis zu 64 GByte pro Stack. Bei HBM3e war bis vor kurzem bei 36 GB pro 12-Layer-Stapel Schluss. Diese Woche hat SKHynix allerdings erste 16-Lagen-Chips mit 48 GB angekündigt.

Interface max. Durchsatz pro Pin max. Durchsatz pro Stack
HBM1 (JEDEC) 1.024 Bit 1,0 Gb/s 128 GB/s
HBM2 (JEDEC) 2,0 Gb/s 256 GB/s
HBM2E 3,6 Gb/s 461 GB/s
HBM3 (JEDEC) 6,4 Gb/s 819 GB/s
HBM3E (Micron) 9,2 Gb/s 1.178 GB/s
HBM3E (Samsung) 9,8 Gb/s 1.254 GB/s
HBM3E (SK Hynix) 10,0 Gb/s 1.280 GB/s
HBM4 (JEDEC) 2.048 Bit 6,4 Gb/s 1.638 GB/s
HBM4E ? 2.000+ GB/s

Hersteller wie SKHynix, Micron oder Samsung hatten erste HBM4-Chips aus der Serienfertigung zuletzt für das 2. Halbjahr 2025 im Visier, große Stückzahlen waren hingegen für Anfang 2026 im Gespräch.

Nvidia Rubin nutzt HBM4

Nvidia wird aller Voraussicht nach erstmals mit „Rubin“ auf HBM4 setzen. Die Architektur, die zusammen mit ihrem HBM4-Support zur Computex 2024 im Juni angekündigt wurde, folgt auf den 2025er Blackwell-Refresh „Blackwell Ultra“ im Jahr 2026 – hieß es zuletzt. Ob Nvidia diesen Zeitpunkt noch einmal nach vorne verlegen konnte, oder es schlichtweg darum geht, früher hohe Stückzahlen der neuen Technologie zu erhalten, ist nicht bekannt.

Nvidias Data-Center-Roadmap bis 2027 mit Blackwell (Ultra), Rubin (Ultra) und Vera CPU
Nvidias Data-Center-Roadmap bis 2027 mit Blackwell (Ultra), Rubin (Ultra) und Vera CPU (Bild: Nvidia)