Notiz Intel Sapphire Rapids: Next-Gen-Xeon-CPU auch mit HBM auf dem Package

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.786
  • Gefällt mir
Reaktionen: Chismon, fox40phil, estros und 2 andere
Klingt spannend, für den Heimuser aber wohl komplett Irrelevant.
 
  • Gefällt mir
Reaktionen: Lübke82 und flo.murr
HBM pr0n icoming

Bin gespannt wie genau Intel das umgesetzt hat
 
  • Gefällt mir
Reaktionen: Chismon, fox40phil, Buchstabe_A und 4 andere
Richtig, dennoch für bestimmte Anwendungen wo die Bandbreite von normalem DRAM nicht ausreicht durchaus spannend. DRAM wirds dennoch geben aber als Level 2 Speicher
 
@konkretor Hier sind noch weitere Leaks.
The Saphhire Rapids CPUs will contain 4 HBM2 stacks with a maximum memory of 64 GB (16GB each). The total bandwidth from these stacks will be 1 TB/s. According to Matthew's source, HBM2 and GDDR5 will be able to work together in flat, caching/2LM and hybrid modes. The presence of memory so near to the die would do absolute wonders for certain workloads that require huge data sets and will basically act as an L4 cache.
Intel muss jetzt liefern gegenüber der Epyc-Konkurenz im Data-Center. Das sieht schonmal nicht schlecht aus.
 
  • Gefällt mir
Reaktionen: Lübke82, bikerider, fox40phil und 4 andere
Knuddelbearli schrieb:
[...]für den Heimuser aber wohl komplett Irrelevant.

Würde ich gar nicht mal sagen. Eine weitere Cache Ebene hat Intel schon 2015 im Broadwell genutzt und sich damit ganz gut geschlagen.

Wenn sich das, wie @Doenerbong andeutet, etabliert, kann das mMn durchaus zurück kommen. Anandtech hat sich damit kürzlich noch mal auseinander gesetzt und die immer noch vorhandenen Vorteile aufgezeigt.

Wann man dann evtl. noch betrachtet, dass APUs immer auch die iGPU 'durchfüttern' müssen, könnten 1 oder 2GB (dreidimensional integrierter) HBM Speicher durchaus ihre Vorteile bringen.
 
  • Gefällt mir
Reaktionen: Chismon, DaBo87, SilvanV und 7 andere
/me pokes AMD and points to Intel

Das ist genau das, was ich mir seit den ersten R9 Fury von den roten Jungs wünsche... ;__;

Regards, Bigfoot29
 
  • Gefällt mir
Reaktionen: 3faltigkeit und Buchstabe_A
v_ossi schrieb:
Wann man dann evtl. noch betrachtet, dass APUs immer auch die iGPU 'durchfüttern' müssen, könnten 1 oder 2GB (dreidimensional integrierter) HBM Speicher durchaus ihre Vorteile bringen.
Ich glaub, in dem Fall geht es Intel weniger darum eine zusätzliche Cache-Schicht einzubauen, als viel eher darum, dass man die Opaten DIMMs stärken möchte.

Optane DIMMs bieten eine etwas langsamere Latenz als DRAM und gerade wenn die Schreiblast zunimmt, verlieren die Opatens gegen klassischen DRAM. Wenn man hier entsprechend genug HBM-Speicher als neue Instanz direkt bei der CPU einführt, kann man an die DRAM-Controller die Opaten-DIMMs schnallen und ist für jeden Workload gut gerüstet.
 
  • Gefällt mir
Reaktionen: Colindo, 3faltigkeit, DynamaxX und 3 andere
Das verteuert die CPU/GPU und man macht es deshalb erst, wenn man sonst am Ende ist.
AMD hat HBM dann auch gleich wieder aufgegeben, weil sie bei TSMCs Prozessen die Leistung wieder kostengünstiger steigern können.
 
deo schrieb:
AMD hat HBM dann auch gleich wieder aufgegeben, weil sie bei TSMCs Prozessen die Leistung wieder kostengünstiger steigern können.

Für den Mainstream-Markt vielleicht. Da wollten sie das auch zu schnell, als HBM noch in den Kinderschuhen steckte, doch ne 300-Euro-Graka braucht auch kein HBM, das geht anders billiger. Im Profi-Bereich setzen sie auch weiter darauf, wie jeder andere der dort zugegen ist. Mit HBM wird man noch so einiges machen könnten in Zukunft, das jahrelang angekündigte HMB3 ist ja noch immer nicht da, erst jetzt hat es mal HBM2e geschafft.
 
  • Gefällt mir
Reaktionen: Chismon, SVΞN, andi_sco und 5 andere
HBM on Package ist die Zukunft.

Ist egal wie viele Schwarzmaler Morgens aufwachen.

Dieser Futuristische Speicher hat a) seine Daseinsberechtigung und b) ist es die neuste Speicherzellen Technologie.

HBM ist da, um zu bleiben. Um zu Koexistieren. Um Neue Geräte und Formate Erzeugen zu können. Um Berechnungen zu Beschleunigen. Um Effizienter zu werden.
 
  • Gefällt mir
Reaktionen: 3faltigkeit, konkretor und Bigfoot29
-Ps-Y-cO- schrieb:
HBM on Package ist die Zukunft.

Ist egal wie viele Schwarzmaler Morgens aufwachen.

Dieser Futuristische Speicher hat a) seine Daseinsberechtigung und b) ist es die neuste Speicherzellen Technologie.

HBM ist da, um zu bleiben. Um zu Koexistieren. Um Neue Geräte und Formate Erzeugen zu können. Um Berechnungen zu Beschleunigen. Um Effizienter zu werden.
Realsatiere.:p Das muss man schon differenziert betrachten.

Nvidia nutzt seit Jahren HBM Speicher und das mit vollem Erfolg!

Daher gut, dass Intel hier in Zukunft kontern möchte.

Aber im Endkundenmarkt zählen andere Faktoren, als pure Leistung, nämlich in erster Linie P/L. Und hier hat Nvidia mit dem GDDR6X Speicher eine interessante Anbindung auf deren PCBs auf den Markt gebracht.
 
  • Gefällt mir
Reaktionen: Lübke82 und andi_sco
@Teralios Synergien im eigenen Portfolie zu fördern, ist ja erst mal nicht verwerflich und wirtschaftlich durchaus sinnvoll. Trotzdem habe ich die vage Hoffnung, dass davon 'bald' was im Endkundenmarkt ankommt.

Wenn man hier mit HBM gut fährt und die Produktion von Lakefield ebenfalls gut läuft*, hoffe ich einfach, dass Foveros, EMIB, MCP und 450er Wafer in 'naher' Zukunft technologische Fortschritte auch für den 0815 CB User ergeben.
Ein momentan noch ganz 'wilder' Gedanke, wäre etwas wie ein extern gefertigter 5nm (Samsung oder TSMC ist dann evtl. sogar egal) EUV big.LITTLE Core Die, kombiniert mit 7nm Intel GPU, 10nm I/O und 4GB HBM.

Die Aussichten sind momentan echt verrückt. Statt jahrelangem, monolithischem, plenarem x86 Stillstand** explodiert der Markt geradezu.
HBM und Chiplets haben oder hatten wir in der ein oder anderen Form schon, jetzt kommen die erwähnten Neuerungen und mit ARM und RISC-V weitere Kandidaten für eine mittelgroße Revolution am Mark. Würde mich aktuell nicht wundern, wenn Intel noch mal Itanium rauskramt. :D

*Keine Ahnung, ob es verlässlich Informationen dazu gibt; ich habe jedenfalls auf die Schnelle keine gefunden.
**Rein auf die Herstellung bezogen
 
@estros

Warum Realsatire?
Meinst du AMD und Sk-Hynix haben umsonst Milliarden an F&E Anno 2009 in HBM gesteckt?

GDDR6X ist GDDR auf Steroiden. Das wird in dieser Dekade, vorallem gegen Ende, begraben werden. Diese Technik basiert auf F&E aus den Frühen 90ern.

NEC, Xilinx, Intel, Fujitsu, IBM, AMD, Qualcomm, Broadcom, TX Instr, ... Alle haben schon Erfahrungen mit HBM gemacht und werden HBM ganz sicher nicht begraben.

Das hat nichts mit Satire zutun.
Das ist Marktentwicklung, Fortschritt, Technologische Errungenschaft, Stetige Progression.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Floppes, IllusionOn und konkretor
KLingt ja erstmal solide was Du schreibst und könnte auch wirklich so kommen.
Aber...genau so wurde uns seinerzeit auch RDRAM, FB-DIMM,... verkauft. Das war jung, das hatte Potential, das war die Zukunft. Nur in die Gegenwart haben es diese Herausforderer nicht geschafft, trotz überzeugender technischer Parameter. (G)DDR hat bisher immer wieder gekontert. Mal sehen ob HBM es schafft die Festung zu knacken.
 
  • Gefällt mir
Reaktionen: Lübke82, Bigfoot29, konkretor und 2 andere
Ich denke auch, dass wir HBM im Consumer Bereich wiedersehen werden. GDDR6 und GDDR6X werden schon sehr heiß. Auch muss der DRAM räumlich zwecks Signalqualität immer dichter an die GPU gesetzt werden. Beides ist mit HBM zu lösen. Ich würde sogar sagen, es wird früher oder später wiederkommen müssen. Es freut mich daher, dass es bei den nächsten Xeons kommt. Aufjedenfall spannende Entwicklung.
 
Wenn schon offizielle bei Nvidia Dinge sagen wie „Computation is cheap, Data movement is expensive“ (paraphrasiert und bezogen auf aufzuwendende Energie), dann ist schon klar wo die Reise hingehen muss. Das wird natürlich bleiben und nur mehr adaptiert werden. Das ARM-Monster von Fujitsu setzt das sogar jetzt schon sehr aggressiv ein.
 
  • Gefällt mir
Reaktionen: Bigfoot29, -Ps-Y-cO- und 3faltigkeit
Kenne mich mit diesen Speichern zwar nicht aus, aber mich deucht, dass AMD mit HBM auf der Fury keinen allzu großen Erfolg verbuchen konnte.

Wahrscheinlich ist HBM gegenüber GDDR nach wie vor zu teuer, um ihn in preisbewusste Consumer-GPUs zu stecken.

Ich schätze einfach mal, dass die nächste GPU-Generationen von AMD, Nvidia und Intel noch auf GDDR setzen werden. Vielleicht sogar auch der Nachfolger.

Welche Vorteile hat man als Gamer oder Anwender denn, wenn HBM anstelle von GDDR in der GPU sitzt?
 
v_ossi schrieb:
big.LITTLE Core Die, kombiniert mit 7nm Intel GPU, 10nm I/O und 4GB HBM
Das wird den Preis aber kräftig nach oben treiben. Ob sich das in dem Segment lohnt?
Klar, wäre eine APU super, aber wer will das bezahlen?
Ergänzung ()

Strahltriebwerk schrieb:
wenn HBM anstelle von GDDR in der GPU sitzt?
Speicherbandbreite, da kommt man problemlos auf 1 Terabyte/s
Ergänzung ()

Hayda Ministral schrieb:
genau so wurde uns seinerzeit auch RDRAM
Der nicht schlecht war, nutzte Sony ja auch.
Aber, DDR war billiger und kühler. Ich weiß leider nicht, wie die Ausbeute war und wer den alles gefertigt hat, ausser Samsung.
 
Problem an rdram waren die extrem teure Lizenz die gekauft werden mußte um rdram zu bauen.

Rambus gibt es ja heute noch als Firma
 
  • Gefällt mir
Reaktionen: Hayda Ministral und -Ps-Y-cO-
Zurück
Oben