Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsHBM2E: Auf dem Papier und von Samsung offiziell mit 3,2 Gbps
HBM ist in der Speicherbranche so etwas wie der Ankündigungsweltmeister. Auf dem Papier sehr flott und stets sogar noch schneller in den Spezifikationen, sind echte Produkte mit den schnellsten Chips rar. Nun wird es noch flotter und Samsung wiederholt passend dazu eine Ankündigung von vor einem Jahr erneut.
Ja, sehr interessant...auf dem Papier. Schade, dass wir davon so wenig im Consumer Bereich sehen und testen dürfen.
So ein Big Navi oder Ampere damit wären schon sehr nice. Vielleicht bringt es aber NV mit Ampere oder AMD mit Arcuturus im HPC Bereich. Das wäre doch was.
Ich denke HBM kommt noch mal auf consumer Karten zurück.
GDDR6 wird auch wieder irgendwann zum Flaschenhals wenn GPUs schneller werden und dann kann HBM wieder helfen.
Gerade bei Auflösungen von 4K und 8K benötigt man sehr große Speicherbandbreiten und vor allem wenn man durch eine deutlich kleine Fertigungstechnologie die Units auf der GPU um 50% erhöht. Die zusätzlichen Units müssen auch mit Daten versorgt werden.
Kann mir jemand das erklären, ich verstehe es nicht: Demnach seien die Chips sogar für Geschwindigkeiten von bis zu 4,2 Gbps geeignet, die Transferrate würde damit letztlich auf 538 GB/s ansteigen
Wie wird das berechnet? bits auf bytes sind ja faktor 8. von 4.2gbits auf 538GB/s ist was ganz anderes.
HBM "leidet" ein wenig unter der Veröffentlichung von GDDR6. GDDR5 war über 10 Jahre der Platzhirsch, allerdings ist der Takt in dieser Zeit nur von 3,6Ghz auf 8Ghz angestiegen. GDDR6 hat jetzt mal direkt einen Sprung auf 14Ghz gebracht, wodurch selbst an kleinen Interfaces quasi HBM2-Bandbreiten möglich sind. Aber wenn die Entwicklung ähnlich wie GDDR5 läuft, wird es dort für etliche Jahre nur noch im Kriechtempo weitergehen und HBM wird wieder interessant. Wenn 2 HBM2EStacks so viel Bandbreite liefern wie ein klobiges 512bit Interface mit auf 18Ghz hochgeprügeltem GDDR6, wird im Highend die Entscheidung sicher pro HBM2E ausfallen.
Ich sehe den Vorteil von hbm vorallem im platzverbrauch dadurch besserem platinenlayout und besserer kühlung. Und so viel günstiger ist gddr6 unter Berücksichtigung aller Faktoren auch nicht.
Gddr6 ist ok für entry und midrange, aber big Navi bitte wieder mit hbm.
Gerade unter dem Aspekt, dass doch einiges an Hardware nur für Enthusiasten entwickelt wird, würde ich mich sehr über mehr HBM im Comsumermarkt freuen.
Kann mir jemand das erklären, ich verstehe es nicht: Demnach seien die Chips sogar für Geschwindigkeiten von bis zu 4,2 Gbps geeignet, die Transferrate würde damit letztlich auf 538 GB/s ansteigen
Wie wird das berechnet? bits auf bytes sind ja faktor 8. von 4.2gbits auf 538GB/s ist was ganz anderes.
Für (Nicht-Profi)-Grafikkarten ist HBM2 jetzt nicht unbedingt eine weise Wahl, aber ich würde mich freuen, wenn AMD mal so einen HBM2-Stack als Grafikcache mit auf die größeren APUs packen würde. Das würde dort bestimmt einen guten Sprung nach vorne bringen.
Wenn Samsung diese Speicherchips faktisch anbietet, die OEMs sich aber dann dagegen entscheiden, kann man Samsung den Vorwurf "Vaporware" nicht machen. Höchstens, dass ihr Produkt scheinbar nicht attraktiv (billig) genug ist.
"Ankündigungsweltmeister" würde ich eher mit Intel in Verbindung bringen: Wir hätten da noch 10 neue Lakes und 8 Canyons in 14 nm++++, die zusammen mit 30 neuen Chipsätzen irgendwann bis 2022 erscheinen sollen. Die Presse soll jetzt schon mal (am besten monatlich) berichten. Und bitte nur von Intel genehmigte Benchmarks verwenden.
Sehr schade, dass die Technik einfach nicht richtig Fuß fassen kann im "normalen" Markt. Eine massive Senkung der Kosten wäre das einzige, was da hilft. Aber das ist nicht in Sicht, denn die Erhöhung der Speicherdichte pro Stack nützt da nichts, weil mehr als ein Stack sowieso nicht genutzt wird.
HBM leidet überhaupt nicht. HBM ist GDDR technisch haushoch überlegen. Mit HBM fällt die Platine bis zu 90% kleiner aus, du sparst bis zu 50% Prozessorfläche für die PHYs ein und der Stromverbrauch von HBM ist gut dreimal niedriger als der von GDDR6. Von der höheren Bandbreite und der niedrigeren Zugriffszeit mal ganz zu schweigen.
Für Cloud Computing und HPC stellt sich die Frage "HBM oder GDDR" schon lange nicht mehr. Da wird konsequent HBM verbaut, einfach weil es durch die ganzen Einsparungen bei Platine, Prozessor und Strom hochskaliert auf ein ganzes Rechenzentrum die vielfach günstigere Lösung ist.
Das HBM in Gaming-Rechnern noch nicht der Standard ist, liegt einzig und alleine an den Kapazitäten. Die werden aber stetig ausgebaut und spätestens wenn auch Consumer-GPUs auf ein Chiplet-Design setzen, dann spricht überhaupt nichts mehr für GDDR, denn für Chiplets musst du ja sowieso einen Interposer einsetzen.
HBM gehört die Zukunft. In spätestens 5 Jahren wird niemand mehr auf GDDR setzen, alleine schon weil die Grenzen zwischen DDR und GDDR immer weiter verschwimmen und nur noch die Größe des Interfaces den Unterschied macht. Mich würde es nicht einmal wundern, wenn wir überhaupt kein GDDR7 mehr sehen werden.
HBM leidet überhaupt nicht. HBM ist GDDR technisch haushoch überlegen. Mit HBM fällt die Platine bis zu 90% kleiner aus, du sparst bis zu 50% Prozessorfläche für die PHYs ein und der Stromverbrauch von HBM ist gut dreimal niedriger als der von GDDR6. Von der höheren Bandbreite und der niedrigeren Zugriffszeit mal ganz zu schweigen.
HBM ist zwar überlegen. Aber sicherlich nicht billiger als GDDR6. HBM muss aufwendig implementiert werden weil man für HBM extra einen anderen Speicherkontroller benötigt, welcher nur bei den High-End-Chips verbaut wird und somit eine sehr geringe Abnahme besitzt.
Zudem benötigt man einen Interposer auf dem der HBM-Speicher sitzt und mit der Die der GPU verbunden ist. Das ist sehr schwer und aufwendig herzustellen.
Das HBM in Gaming-Rechnern noch nicht der Standard ist, liegt einzig und alleine an den Kapazitäten. Die werden aber stetig ausgebaut und spätestens wenn auch Consumer-GPUs auf ein Chiplet-Design setzen, dann spricht überhaupt nichts mehr für GDDR, denn für Chiplets musst du ja sowieso einen Interposer einsetzen.
HBM leidet seit HBM2 nicht mehr an einen Kapazitätsmangel wie bei der Fury X von AMD welche nur 4GB-Speicher zu lies. Schon die Radeon VII hatte 16GB Speicher wobei technisch auch schon 32GB möglich gewesen wären.
Und wie du schon schreibst, so macht der Interposer die Herstellung teuer und aufwendig. Daher werden wir HBM nicht im Midrange sehen.
Derzeit ist eh nicht die Hardware an sich der Kostentreiber von Grafikkarten im High-End Sektor, sondern schlichtweg das Fehlen an Konkurrenz. Solange NVIDIA oberhalb der 2070 eine Monopolstellung hat, diktieren die auch die Preise.
Bei Grafikkarten jenseits der 1000 Euro Grenze macht der Aufpreis zu HBM nicht mehr viel aus.