Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsHigh Bandwidth Memory: Samsung stapelt 12 Layer DRAM für 24-GB-Bausteine
Samsung hat seine Technik für Stacked DRAM mit Silizium-Durchkontaktierung (TSV) weiter verfeinert und stapelt nun zwölf statt bisher acht Schichten (Layer) übereinander, ohne dass das Chipgehäuse dicker wird. Damit soll die Speicherkapazität von High Bandwidth Memory (HBM) auf 24 GB pro Stapel steigen.
Man sieht ja bei AMD wie viel der HBM bei den Grakas bringt (im vergleich zu anderen Marktbeteiligten ohne HBM) - immerhin sind die Zahlen toll - lässt sich sicher gut verkaufen.
Man sieht ja bei AMD wie viel der HBM bei den Grakas bringt (im vergleich zu anderen Marktbeteiligten ohne HBM) - immerhin sind die Zahlen toll - lässt sich sicher gut verkaufen.
Eben, und man sieht wie die CUs von RDNA nun ausgelastet werden. Man ist damit auf Turing Niveau.
Ich vermute schon stark das AMD mit Navi 21/23 auf HBM2E setzen werden.
Aber auch NV könnte HBM greifen. Immerhin ist Samsung ihr Chiphersteller für 7nm Ampere nächstes Jahr.
Da würde ein Stack ja fast schon reichen auf dem Interposer zusammen mit einem Ryzen samt Vega, un auf dedizierten RAM zu verzichten. Vega wird damit schneller und Ryzen mit einem großen fast schon L4 Cache sicherlich auch. Kompakte Bauform inklusive...man wird ja wohl mal noch träumen dürfen.
Da würde ein Stack ja fast schon reichen auf dem Interposer zusammen mit einem Ryzen samt Vega, un auf dedizierten RAM zu verzichten. Vega wird damit schneller und Ryzen mit einem großen fast schon L4 Cache sicherlich auch. Kompakte Bauform inklusive...man wird ja wohl mal noch träumen dürfen.