News Samsung: Massenfertigung der 2. Generation HBM gestartet

16GB wäre mir zB. genug, wenn ich bedenke, das die leistung auch recht moderat ist.
Sollte verhältnissmäßig preiswert machbar sein, sobald es Zen/GCN 2.0 APUs gibt, zumal man sich ja dann die 16GB DDR4 3000+ speicher sparen kann und boards günstiger wären (müssten sie jedenfalls).

Und ist ja gut, dass es noch Garantie/Gewährleistung gibt :)

Edit: Zumal das board nicht in mitleidenschaft gezogen wird, da die APU nicht auf dem board verlötet sein soll, jediglich der speicher fest an der APU. Und das ist praktisch nichts anderes, als würde der L3 cache bei einer CPU sich auflösen, also nicht schlimmer als wenn eine herkömmliche Kombo die grätsche macht.

Aber die APU mit HBM fest auf dem board wäre auch okay, solange die ausstattung stimmt und es 3 jahre garantie gibt.
 
Zuletzt bearbeitet:
Weby schrieb:
Was soll HBM jedoch bei den Mainstream Karten bringen, wenn die Leistung schon jetzt nicht am Limit ist? GDDR5 ist bei einer 950-960 doch nicht der Flaschenhals?

Es müssen ja nicht zwingend 4 Stapel verbaut werden. Falls man es hinbekommt, einen Chip mit HBM 2 günstig zu fertigen, dann wäre das interessant für die Kartenhersteller, da das PCB dann weniger komplex ausfallen würde.
So ein GDDR5 Speicherbus lässt die Anzahl der PCB-Lagen ansteigen und benötigt auch viel Fläche.
 
Hat die JEDEC eigentlich irgendwas in Richtung HBM-LP verlautbaren lassen? Wenn man bedenkt, dass die aktuellen HBM Stacks enorme Leistung abliefern wird im Vergleich zu den 15-25GB/s, die moderne Mobilplattformen maximal liefern, wird ein gewisses Potential zum Betrieb mit niedrigeren Taktraten und Spannungen klar. Am Ende hätte man immer noch bedeutend mehr Durchsatz bei besseren Latenzen und den Vorteil des einfacheren Speichercontrollers.
Ich kann mir vorstellen, dass sich Apple, Qualcomm und Samsung noch neue 1-2 Generationen ihrer SoCs dagegen sträuben werden, weil es sehr teuer ist und viel Know How verlangt aber wenn man irgendwann auf dem konventionellen Weg die Leistung der GPU nicht mehr steigern kann, weil man in die selbe Memory Wall kracht, wie AMD mit den APUs, kann ich mir angepassten HBM für Tablets und Co. schon sehr gut vorstellen.

Noch interessanter dürfte es für die Notebookhersteller werden. Die lechzen ja aus absolut lächerlichen Gründen nach immer dünneren und kleineren Geräten und die Platzersparnis mit HBM dürfte enorm sein. Wenn man gesockelte RAM-Module nimmt dann sowieso aber auch im Vergleich zu aufgelöteten Chips.
AMD sollte dringend zusehen, dass sie möglichst schnell eine APU mit HBM auf den Markt werfen, die dann bei den Topmodellen keinen zusätzlichen DRAM mehr erfordert.
Würde auch zu den Gerüchten um einen Semi-Custom Chip für Apple passen. Die können mit der Technologie noch einen mm sparen und das wieder als größte Erfindung überhaupt anpreisen und können sich gleichzeitig für das 15" Modell und die iMacs die dGPUs sparen - was die Platinen noch einfacher macht, einen teuren Chip spart und die Gewinnspanne noch weiter nach oben treibt.

Bei den nächsten Konsolen würde mich ohnehin überraschen, wenn sie kein HBM bekommen. Genauso wie mich alles andere als AMD überraschen würde, weil niemand etwas entsprechendes liefern kann. Wenn die jetzt bei x86 + GCN bleiben, bekommen sie eine volle Kompatibilität zu den Spielen der aktuellen Generation und können die vielleicht sogar ohne viel Aufwand in etwas höherer Auflösung berechnen oder AA drüber schicken.
 
Zuletzt bearbeitet:
Tranceport schrieb:
Ist doch vollkommen unerheblich ob Samsung davor HBM gebaut hat oder nicht, jetzt haben sie mit der Fertigung der zweiten Generation von HBM begonnen. Und natürlich nennt man das eher HBM 2, und nicht wie die JEDEC, "JESD235A". Jeder weiß, was gemeint ist, Haarspalterei braucht es da nicht ;-)
Nein, es ist nicht unerheblich, wenn man Produktnamen von unterschiedlichen Herstellern und Spezifikationen durcheinanderwirft, die nicht oder nicht unmittelbar im Zusammenhang stehen. Die JEDEC nennt es nicht "HBM2", weil die JESD235A nichts mit "HBM2" zu tun hat. Das ist einfach nur ein Produktname von Hynix.
Alles was in dem Artikel hier steht, ist auch mit der Spezifikation von 2013 (JESD235) möglich, denn es steht hier nichts dazu, ob Samsung Pseudokanäle verwendet.

rentex schrieb:
? Aha! Und wo ist der Beleg, für deine Aussage?
Lies die JESD235 und die JESD235A. Die sind frei zugänglich und dann bist du der Redaktion von CB voraus :rolleyes:
Es reicht eigentlich auch das Deckblatt mit den Stichpunkten aus der 235 bzw. die Änderungsliste aus der 235A (Seite 170).
 
Zuletzt bearbeitet:
Ich würd so lachen wenn AMD ihre großen ZEN-CPUs mit einem oder gar zwei HBM-stacks auf einem interposer ausliefert. Größer als Sockel 2011 wird das package auch nicht, der Chip an sich wird in 14nm nicht mehr viel Raum beanspruchen.
Das wäre eine schöne und recht preiswerte Lösung um dem Chip mehr Dampf zu machen - zumindest im Vergleich zu Intels eDRAM, den sie aber zum einen nur in homöopathischen Dosen verbauen und der zum anderen doch wenig Platz bietet. Auch wenn eDRAM noch einen Tick schneller ist. Solange der Speicherplatz ausreicht.

Zumindest hat AMD alle Zügel in der Hand. Sie haben keine Verbindlichkeiten im Sinne einer Fortführung bestehender Plattformen (AM3 kann getrost komplett eingestampft werden, da geht uns mittlerweile nichts verloren) und in der GPU-Sparte sitzen Leute mit jahrelanger Erfahrung was HBM anbelangt.
Wenn sie die FX-Prozessoren (die alten, nicht die Bulldozer-Nomenklatur) wieder aufleben lassen ist der Kaufpreis auch kein Grund damit HBM keine Verwendung findet.
In Budgetmodellen sieht das wieder anders aus, wobei AMDs APUs schon seit Jahren auf unified cache (hUMA) hinarbeiten. Ein A8/10 mit ~16GB HBM ist preislich überschaubar und liefert dennoch eine gute Leistung, zumal der bisherige Flaschenhals dieser SoCs der unter Umständen langsame Speicher war.
 
[F]L4SH schrieb:
Ich kann mir vorstellen, dass sich Apple, Qualcomm und Samsung noch neue 1-2 Generationen ihrer SoCs dagegen sträuben werden, weil es sehr teuer ist und viel Know How verlangt aber wenn man irgendwann auf dem konventionellen Weg die Leistung der GPU nicht mehr steigern kann, weil man in die selbe Memory Wall kracht, wie AMD mit den APUs, kann ich mir angepassten HBM für Tablets und Co. schon sehr gut vorstellen.

Für Smartphone oder andere kleinre low power SoC gibt es von Samsung Wide I/O
DRAMs-640x801.jpg


Wobei wie man laut Tabelle sieht, HBM im Vergleich noch am günstigsten ist und sicher mitunter ein Grund, wieso NV auf HBM umgestiegen ist.
In der Tabelle fehlt mir leider der Vergleich zu GDDR5.
 
Zuletzt bearbeitet:
1. Leider ist ein großer Fehler in deiner Logik, denn
"2.te HBM Generation und erste bei Samsung gefertigte HBM Generation" ist beides korrekt.

2. Computerbase nennt es eigtl. nur HBM, nur wo Samsung oder Hynix es HBM2 nennen, muss es Computerbase, wenn es darauf verweist, ja auch so nennen.

Desweiteren HBM Generation 1 und HBM Generation 2 mit HBM1 und HBM2 abzukürzen ist auch voll ok. Jeder weiß dann was gemeint ist. Wie würdest du es denn sonst handhaben?
 
Zitat Artikel: "Die Speicherbandbreite liegt pro Stack nun bei 256 GByte pro Sekunde, bei vier gestapelten Chips sind das 1.024 GByte/s"

Das ist so nicht richtig. Ein Stack bietet 256GB/s. Und 4 verbaute Stacks bieten 1024GB/s. Das hat afaik erstmal nicht mit der Stackhöhe zu tun. Außer ich interpretier das hier falsch.

War aber klar dass 8-Hi Chips erst später erscheinen. Die Yield für diese Chips muss ja schier ins Bodenlose fallen bei 8 Bondprozessen.
 
HBM wird noch einige neue Möglichkeiten eröffnen können.

Zum Beispiel ein SoC mit CPU, GPU und 16GB HBM, der als Arbeits- und Grafikspeicher genutzt werden kann.

Genug Speicher, der schneller ist als es DDR4 je sein kann und weniger Platzverbrauch. Dafür nicht aufrüstbar - mehr Speicher -> neuer SoC in den Rechner. Aber da 16GB auch auf lange sicht ausreichend sein sollten, und auch 32GB kein Problem sind, sehe ich das nicht als Hürde. Im Zweifel könnte man trotzdem zusätzlich eine DDR4-Schnittstelle verbauen und hat so alle Möglichkeiten offen.
 
TenDance schrieb:
In Budgetmodellen sieht das wieder anders aus, wobei AMDs APUs schon seit Jahren auf unified cache (hUMA) hinarbeiten. Ein A8/10 mit ~16GB HBM ist preislich überschaubar und liefert dennoch eine gute Leistung, zumal der bisherige Flaschenhals dieser SoCs der unter Umständen langsame Speicher war.

Sobald die Speicherbandbreite massiv erhöht wird (beispielsweise durch HBM) ist die typische integrierte GPU einer APU der Flaschenhals. Da der Spaß für Entry/Mainstream (Kosten für HBM und Interposer) gegenüber DDR4 aber in jedem Fall auch langfristig deutlich höher ist bräuchte es also einen separaten Chip (mit wesentlich größerer GPU). Mit einem Design lässt sich das wirtschaftlich kaum unter einen Hut bekommen.

Womit man dann beim Punkt ist ob es für AMD überhaupt Sinn macht einen derartigen Chip zusätzlich zu entwickeln. Nach dem was AMD bisher an Visionen gezeigt hat sieht es nicht danach aus. Vielmehr wird es in so einem Fall ein MCM mit Interposer (CPU, GPU und Speicher jeweils separat). Das wird aber nie und nimmer in einen Sockel wie AM4 passen sondern -> Opteron und ansonsten als BGA.
 
Zuletzt bearbeitet:
r4yn3 schrieb:
Zitat Artikel: "Die Speicherbandbreite liegt pro Stack nun bei 256 GByte pro Sekunde, bei vier gestapelten Chips sind das 1.024 GByte/s"

Das ist so nicht richtig. Ein Stack bietet 256GB/s. Und 4 verbaute Stacks bieten 1024GB/s. Das hat afaik erstmal nicht mit der Stackhöhe zu tun.

Die Wortwahl ist falsch. Statt "bei vier gestapelten Chips" muss es "bei vier Stapeln" heißen.

Die Höhe hat mit der Bandbreite insofern zu tun, dass die Bandbreite von den Speicherkanälen abhängt und ein einzelner Chip eine bestimmte Anzahl an Kanälen hat. Ein Kanal hat eine Breite von 128 Bit, bei 1024 Bit pro Stapel hat also ein Chip zwei (Pseudo-)Kanäle
 
TheMetalViking schrieb:
Ein kleines mITX System mit 4 Zen Kernen, 2048 GCN 1.2/4.0 Cores und 16GB HBM.
Eine m.2 SSD rein, kein optisches laufwerk. Ein Gehäuse was Praktisch nur so groß ist wie das board, blos als würfel.
Riesen kühlblock drauf, vorne und hinten je 1 140mm Lüfter für guten luftzug. Perfektes System. (für mich, wollte auch mal träumen)

gefällt mir 😉

für den Anfang würde mir eine R9 480 4GB HBM (mit Effizienz und Größe einer Nano mit leisem Kühler) reichen
 
Ich bin mal gespannt was man davon dann in der nächsten Grafikkarten Generation auch tatsächlich sehen wird.
 
Darkscream schrieb:
Deine Aussage passt irgendwie überhaupt nicht zum kleineren Fertigungsprozess und zu dieser News schon zweimal nicht:
http://www.pcgameshardware.de/AMD-P...bestaetigt-zwei-Versionen-FinFET-GPU-1183465/
AMD könnte es sich gar nicht erlauben nur um zu labeln.

Das poste ich auch schon seit 2 Tagen. :D
Ich denke auch nicht, dass AMD wieder umlabeln wird. Die bauen erstmal Karten für high-End und Mid Range. Und dann kommen irgendwann die Harten Karten.
 
noxon schrieb:
Na wie toll, dass es Konsolen gibt, die uns noch für die nächsten 5 Jahre zurückhalten werden.

Ist doch gut.

Wenn Du Dir dieses Jahr ne aktuell neue GPU Generation aus der Enthusiasten-/Performance-Reihe mit 8-16 GB HBM holst(egal ob Nvidia, oder AMD), wirst Du die nächsten 5 Jahre nicht aufrüsten müssen.
 
Darkscream schrieb:
Deine Aussage passt irgendwie überhaupt nicht zum kleineren Fertigungsprozess und zu dieser News schon zweimal nicht:
http://www.pcgameshardware.de/AMD-P...bestaetigt-zwei-Versionen-FinFET-GPU-1183465/
AMD könnte es sich gar nicht erlauben nur um zu labeln.
So wie letztes Jahr? Da gab es neben den 2 neuen Chips ja auch so viele "neue" Karten. Zumindest dem Namen nach...
Es ist doch nicht wirklich unwahrscheinlich, dass es wieder so ablaufen wird.
 
Seppuku schrieb:
So wie letztes Jahr? Da gab es neben den 2 neuen Chips ja auch so viele "neue" Karten. Zumindest dem Namen nach...
Es ist doch nicht wirklich unwahrscheinlich, dass es wieder so ablaufen wird.
Warum hätte AMD unnötig Geld in die Entwicklung neuer GPUs im 28nm-Prozess stecken sollen, wenn die bereits vorhandenen GPUs mit leichter Überarbeitung des drumherum problemlos mit der Konkurrenz mithalten können?
Genau das ist m.E. derzeit gegeben, so gesehen war das schon okay.

Die dadurch eingesparten Kapazitäten kann man lieber in die Entwicklung neuer Technologien stecken (was ja offensichtlich auch schon getan wurde), so kommen mit der nächsten Generation mind. 2 neue GPUs die in verschiedenen Leistungsklassen eingesetzt werden können. Also im Grunde so wie früher: 2 GPUs, jeweils ein mal im Vollausbau und Beschnitten, und dazu noch ein paar kleinere, wo evtl. auch wiederverwertung stattfindet wobei die neuen GPUs eine Generation später dort nachrücken.

Dazu kommt eben HBM und da sind die kosten entscheidend, wenn es lohnenswert nur in High-End-Grafikkarten verbaut werden kann bleibt für die kleineren immerhin die neue Fertigung.
 
Zurück
Oben