News JEDEC: Spezifikationen von HBM4 rücken näher

crustenscharbap schrieb:
Wie ist es eigentlich mit alten HBM Speichern? Werden die nicht billiger wenn ein neuer raus kommt? Wird HBM2.0 z.B nicht bald so bezahlbar dass man davon 24GB nicht im Strix Halo packen könnte? Schafft ja anscheinend auch 256GB/sek. Oder gar HBM1 mit seinen 128 Gig/sek. Ist immerhin noch 2-3x schneller als 2 DDR5 Riegel. 2x DDR5 schafft 51 GB/sek.

Und ja, ein Mini PC mit guter Kühlung (wie beim Beelink Ser8) mit 80W APU und RX 6600 Leistung wäre mir 2000€ wert.
Derzeit sind wir noch meilenweit entfernt.
Die Fertigungskapazitäten werden nach und nach auf den neuen HBM umgestellt. Ich denke nicht, dass die alten Iterationen viel billiger werden, da gleichzeitig das Angebot stark zurückgeht. Was auch extrem ins Geld geht, ist das Packaging -> Interposer und co.

Strix Halo kommt übrigens mit einem 256bit LPDDR5X Interface und strebt einen RAM-Takt von über 8000MT/s an - das sind mehr als 256GB/s.
 
Duran schrieb:
Versteh ehrlich gesagt nicht was daran so teuer geworden ist.
Der AI Boom.
Zuerst waren sie kaum hergestellt, kleine Mengen. = Teuer.
Danach waren die alle ausverkauft. = Teuer.

crustenscharbap schrieb:
Und ja, ein Mini PC mit guter Kühlung (wie beim Beelink Ser8) mit 80W APU und RX 6600 Leistung wäre mir 2000€ wert.
Wieso? Als SteamBox weil du kein Platz unter dem TV hast?
Für Lan Partys damit er Mobil ist?
Bei Laptops kann ich das ja noch ganz gut verstehen. Wobei da die APU das Problem der zentrierten Hitze Entwicklung hat.
Aber wieso ein MiniPC?

Wobei ich die Faszination einer APU schon verstehen kann. Zu schade gibt's kein ordentliches Modell mit HBM. Würde sich aber vermutlich auch recht schlecht verkaufen.
 
@ETI1120
Als ob Ahnung irgendetwas mit Technologie zu tun hätte.
Es setzt sich selten die beste Technologie durch. Sieht man schön an Microsoft und dem Rückschritt bei Windows. ;)
Oder den (verweigerten) alternativen Appstores.

TSMC erhöht jetzt die Preise für alle modernen Technologien, die wollen genauso profitieren als Wirtschaftsunternehmen. Knapp 10 Prozent sollen es mehr sein.
GDDR6/7 ist keineswegs ein Auslaufmodell. Das was damals HBM2 erreicht hat, kannst du jetzt auch auf Grafikkarten haben. Scheint billiger zu sein weil viele sich dafür entscheiden.

AI hype sehe ich zukünftig als Aktiendrücker. Sobald die ersten Chargen durch sind, wird der Bedarf sinken und die Preise purzeln. Es müssen sich Kunden finden die dafür zahlen. Denn unendlich Strom verbraten geht nicht ohne Dauerzahler. Das sind laufende Kosten für jede Firma.
anders: Enduserkosten müssen steigen sonst geht dir irgendwann das Geld aus.
Wir sprechen uns in ein paar Jahren nochmal. Haben schon viele Hypes miterlebt. ;)

Erinnert sich noch wer an RAMBUS? Konnte sich gerade wegen des Preises kaum durchsetzen. Und dabei plante man eigentlich ein Monopol aufzubauen...
 
Zuletzt bearbeitet:
Duran schrieb:
Erinnert sich noch wer an RAMBUS? Konnte sich gerade wegen des Preises kaum durchsetzen. Und dabei plante man eigentlich ein Monopol aufzubauen...
Der Preis war nur ein Punkt, warum sich das Zeug nicht durchsetzen konnte. Es war definitiv kein Fall von:
Duran schrieb:
Es setzt sich selten die beste Technologie durch.
Es war einfach nicht die beste Technologie. Es war zu der Zeit in einzelnen Disziplinen besser, in anderen deutlich schlechter. Unterm Strich war es das nicht wert, dafür auch noch mehr zu zahlen.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
Ich bin mir da ziemlich sicher das mit besseren Preisen im Absatz nicht solche Probleme gegeben hätte.
Und da sind wir wieder bei der Diskussion, wenns günstiger gewesen wäre hätte sich die Konkurrenz nicht stark abheben können und es wäre öfters zum Einsatz gekommen, auch bei AMD.
Das ist genau der Punkt, so eindeutig ist diese Diskussion halt nicht.

Du sagst unterm Strich war es das nicht wert, das entscheidet aber der Kunde und nicht die Firma.
Im Nachhinein lässt sich sagen, es war eine ziemlich abgehobene Firma, man achte mal auf die vielen Klagen die es in der Zeit gab:
https://www.computerbase.de/news/rambus/
 
Zuletzt bearbeitet:
Novasun schrieb:
So hässlich finde ich die nicht mal.
Aber der Preis - LOL...

CDLABSRadonP... schrieb:
Specs sind super, aber es bräuchte halt mal einen LowCost-Ableger, der auch den Massenmarkt erreichen könnte...
Die HBMs sind für sehr hochspezialisierte Grafikchips und diese wiederum für spezielle Aufgaben (Training von großen Datensätzen). Diese Art von Speicher wird nie für Massenmarkt taugen, weil einfach zu teuer und ich sehe auch keine Anwendung für normale User.
 
Eigentlich mega wenn HBM4 für das ganze AI zeugs verwendet wird, weil da anscheinend Bandbreite ohne Ende benötigt wird.

Und für den normalen Anwender bleibt dann die Standardware und die Preise sollten auch normal bleiben, es sei den durch AI wird alles verwurstet.
 
Eneloop schrieb:
Diese Art von Speicher wird nie für Massenmarkt taugen, weil einfach zu teuer und ich sehe auch keine Anwendung für normale User.
Nicht nur mehr zu teuer, auch die Vorteile sind nicht mehr so gegeben.

HBM brauch für die Bandbreite auch immer mehr Energie.

HBM damals hatte den Vorteil des einfachen dafür breiten Interfaces. Dazu kommt der Vorteil der Signalewege und den relativ niedrigem Takt.

Das brachte 2015 und 2017 durchaus Vorteile. Nur sind die Vorteile heute so nicht mehr gegeben. Die HBM-Interfaces werden auf den Chips größer und benötige Fläche. Dazu geht der Takt bei HBM auch hoch, was der Effizienz schadet. Und auch wichtig: Die Höhe. Die muss bringen Chips passend ausgeglichen werden.

Das macht alles deutlich komplexer.
 
  • Gefällt mir
Reaktionen: Zarlak
ETI1120 schrieb:
Du wirst aber eine Consumtergrafikkarte mit HBM nicht für 2000 Euro bekommen.
Frag mal Lederjacke, ob er für 2K zumindest eine 5050 mit 8GB HBM4 für dich macht. ^^ ;-)
Ergänzung ()

dr_lupus_ schrieb:
Bei den Preisen von HBM wird wohl nur Nvidia eine Konsumerkarte zum wirtschaftlichen Erfolg führen können. Ob sie das tatsächlich auch wollen, ist eine ganz andere Fragestellung.
Das Problem ist eher die viel zu große Datenautobahn.
Bei Vega gabs dadurch auch nicht wirklich Vorteile.
Die Grafikkerne müssen dafür schnell genug sein, und die Spiele müssen auch erst einmal so viel Datenmengen haben wollen.
Auch entwicklungstechnisch ist das natürlich Mehraufwand, weil man Chips für HBM und dann für GDDR entwickeln muss.
Und man stelle sich vor, was dann eine 4090 jetzt kosten würde, wenn die Aufpreise auch noch kämen?
Selbst wenn das in der Herstellung nur ein 20er Wäre, haste dadurch gleich wieder 100 Flocken Endkundenaufschlag drauf.
So eine kleine Fury mit fertiger kleiner Wasserkühlung drauf hatte aber schon was an sich.
Zumindest sollte man damit auch mal kürzere Big-Chips-Platinen für kleinere Rechner zaubern können.
Also zumindest bei der 4090, oder evtl. noch bei einer 4080 hätte es sicherlich einige Käufer gegeben, die dann nochmals auch gerne etwas mehr zahlen würden.
 
Zuletzt bearbeitet:
Dann haben die nächsten HPC beschleuniger bis 16 stacks und bis zu 64 GB pro stack.. das ist mal VRAM satt :D MI400 und wie auch immer Nvidia das nächste nennt werden Klasse.
 
@ETI1120 warum sind 8GB zu ambitioniert doch nur 6GB 😂
 
Ob es wohl je wieder eine Consumer-Grafikkarte mit HBM geben wird?

Dank AI verdienen die in Rechenzentren ohne Ende und da wird sicherlich jeder HBM-Chip gebraucht
 
Ich denke nicht, das wir nochmal eine Profikarte im Consumer Bereich sehen werden. AMD, hatte mit Fiji, Vega, mehr dem Pro Bereich abdecken wollen. Da das Geld knapp war, konnten sie nicht 2 Chips entwickeln, für Pro und Highend Gamer. So sind die HBM Karten zwangsläufig, in den Consumer Bereich übergeschwappt. Sie hatten nichts anderes. Erst mit RDNA2, gab es wieder reine Gaming/ Consumer Highend Karten.
 
drago-museweni schrieb:
@ETI1120 warum sind 8GB zu ambitioniert doch nur 6GB 😂
Die 8 GByte sind nicht das Problem. Der Chip ist für die verfügbare Bandbreite zu mickrig.

Dasselbe meinte Raja Koduri übrigens auch zur Fury. Um das Interface auszulasten hätte AMD eine größere GPU gebraucht.

6 GByte sind mit HBM4 AFAIU gar nicht möglich.
 
Fury oder Vega würde ich nicht für heutige Performanceverhältnisse hernehmen.
Es war wohl wirklich so das die Chips nicht gut genug waren um von der Leistung profitieren zu können.

Heute sähe das wohl anders aus. Selbst GDDR-Karten liegen ja teilweise in der Bandbreite bei diesem Niveau und können das auch aktiv nutzen.
Mit HBM3(E) wären auch die Speichermengen nicht mehr das Thema.
https://www.computerbase.de/news/ar...und-lpddr5x-werden-weiter-beschleunigt.86853/

"24GB GDDR6X, 384bit, 21Gbps, 1313MHz, 1008GB/s" sind auf der 4090 verbaut.
Das zeigt nur die Technologie war etwas vorraus... die 1 TB/s gab es schon Jahre zuvor.

Übrigens war ein Versprechen auch damals ein verbesserter Stromverbrauch. Nunja. ;-)
 
CDLABSRadonP... schrieb:
Neuerdings gestapelt? Neuerdings mit breiten Interfaces? ;)
Naja, das ist etwas Quadratur.
Breites Interfave mit hochkapazitiven Chips -> teuer

Schmaleres Interfave mit weniger Kapazität pro Chip -> Billiger

Jetzt den Porsche für 10€ zu wollen...
 
CDLABSRadonP... schrieb:
Neuerdings gestapelt?
Du musst nur ein LP davorsetzen.

Oder was meinst Du wie Micron es schafft acht 2 MByte Dies in einem 16 Gbyte Package unterzubringen, das 15 x 12,4 mm² groß ist?
CDLABSRadonP... schrieb:
Neuerdings mit breiten Interfaces? ;)
Das gibt es doch. Du musst es nur kaufen.
256 bit bei Threadripper
384 bit bei Siena
512 bit bei ThreadripperPro
768 bit bei Genoa

Und als Zugabe sind es steckbare Module.
Ergänzung ()

Duran schrieb:
Heute sähe das wohl anders aus.
Nein. Gaming GPUs haben auch heute mit GDDR SDRAM ausreichend Bandbreite.
 
Zuletzt bearbeitet:
Zurück
Oben