Schnellerer Speicher für AI: Rambus liefert Spezifikationen für neue HBM4-Controller

Volker Rißka
20 Kommentare
Schnellerer Speicher für AI: Rambus liefert Spezifikationen für neue HBM4-Controller
Bild: Micron

Rambus liefert die erste „IP“ für HBM4-Controller an Kunden aus. Diese können nun starten, ihre Chips zu entwerfen. Das Ziel zum Start sind Bandbreiten von 6,4 Gbps. Die Möglichkeit weiter nach oben zu skalieren ist aber bereits in den Plänen vermerkt, die Marke von 10 Gbps dürften mit der Zeit bei HBM4 fallen.

HBM4 soll die Datenrate verdoppeln

HBM4 visiert eine Verdoppelung der Datenrate gegenüber HBM3 an. Was das konkreten bedeutet, ist aber nicht ganz eindeutig, denn HBM3 hat sich seit der Urversion deutlich weiter entwickelt. Inzwischen hat HBM3e übernommen, es wurden sowohl die Datenrate als auch die Kapazität deutlich ausgebaut.

Der Start mit 6,4 Gbps bedeutet für HBM4 bei der Datenrate pro Pin erst einmal einen klaren Rückschritt gegenüber den aktuellen HBM3e-Varianten, die mit 9,2 bis sogar 10,0 Gbps spezifiziert sind, und liegt mit dem Ur-Niveau von HBM3 nur auf Augenhöhe. Der Vorteil liegt im doppelt so breiten Interface: 32 statt 16 Speicherkanäle ergeben ein 2.048-Bit-Interface, so dass ein Stapel HBM4-Speicher direkt zum Start schneller sein wird als der schnellste HBM3e.

Interface max. Durchsatz pro Pin max. Durchsatz pro Stack
HBM1 (JEDEC) 1.024 Bit 1,0 Gb/s 128 GB/s
HBM2 (JEDEC) 2,0 Gb/s 256 GB/s
HBM2e 3,6 Gb/s 461 GB/s
HBM3 (JEDEC) 6,4 Gb/s 819 GB/s
HBM3e (Micron) 9,2 Gb/s 1.178 GB/s
HBM3e (Samsung) 9,8 Gb/s 1.254 GB/s
HBM3e (SK Hynix) 10,0 Gb/s 1.280 GB/s
HBM4 (JEDEC) 2.048 Bit 6,4 Gb/s 1.638 GB/s
HBM4(e) 10,0+ Gb/s 2.560+ GB/s

HBM4 in bis zu 16 Lagen bestätigt

Rambus bestätigt heute, dass HBM4 in 4, 8 oder 16 Lagen übereinander gestapelt wird. Bei 24-Gbit-Dies (3 GByte) ergeben sich so bis zu 48 GByte pro Stapel. Bei den neuen geplanten 32-Gbit-Dies (4 GByte) sind es dann bis zu 64 GByte pro Stack. Das zieht laut Rambus viel Arbeit nach sich: Eine höher Leistungsaufnahme auf kleinerer Fläche nebst entstehender Abwärme trifft auf eine hohe Komplexität beim Packaging. Auch deshalb wird HBM4 physisch größer werden als der bisherige HBM3-Chip, was weitere Arbeiten an Interposern und kommenden Layouts nach sich zieht.

Laut Roadmaps der Speicherhersteller sollen ab 2025 bereits die ersten finalen HBM4-Chips geliefert werden, entsprechende Produkte wie HPC-Beschleuniger, die diese nutzen, dann schnell folgen. Nimmt man die Umsetzung von HBM3e mit 9,6 Gbps als Vorlage, für den Rambus vor einem Jahr entsprechende Controller-IP lieferte, dürfte die Markteinführung aber noch einige Zeit in Anspruch nehmen.