@borizb
es ist ja nicht nur der verbrauch, sondern auch der platinen und kühleraufwand. es ist einfach die überlegene technologie. gddr6 ist budget. nvidia verbaut auf den hochwertigen karten auch hbm2. nur das "billigzeug" für gamer wird für mehr marge mit gddr6 bestückt - einfach weils billiger ist. nicht weils gleichwertig oder gar besser ist.
gddr6 braucht viel platz im gerät und auf der platine und einen extra anschluss am kühler. zudem muss man auf der platine vom vmem vrm leitungen zu den memory ICs legen und dann die datenleitungen zurück zum core.
hbm2 braucht vorallem bei großen kapazitäten viel viel viel viel weniger platz (memory ICs sowie memory interface), da die chips kleiner sind und gestackt werden können, hbm kommt auf einem package mit dem core, kann mit dem core gemeinsam über
eine coldplate gekühlt werden, man spart sich die traces zu den gddr modulen und den aufwand für hohe bandbreiten (takt) die traces und das layout entsprechend zu optimieren, weil alles sowieso auf einem gemeinsamen interposer liegt.
wir hatten bei nvidia sterbenden gddr6, weil unter den chips die core power plane durchgelaufen ist. einige billige navi karten hatten so schlechte kühler für den gddr6, dass die stock schon out of spec liefen. die chips sitzen direkt zwischen core und vrm und werden von allen seiten aufgeheizt, und können aber nur sehr schlecht gekühlt werden, weil man die über wärmeleitpads an dünne plättchen anschließen muss. in den allerwenigsten fällen hängt der gddr6 über eine heatpipe am kühler.
für hbm2 braucht man nur eine einzige gute coldplate für core und speicher und der rest läuft über die kühlleistung des kühlers selber.
hbm selber kostet zwar mehr als gddr6, dafür spart man aber aufwand und platz auf der platine und beim kühler. und bei so vielen speichermodulen wie bei der kommenden 3090 wird man auch probleme mit vdrop bekommen - oder die chips mit mehreren VRMs befeuern müssen.