News GDDR5X: Micron stellt jüngste GDDR6-Gerüchte klar

Wer "darf" denn eigentlich entscheiden, wie das Zeug nun heißt?
Am Ende ist es doch ein und das selbe, nur der Name ist anders?!
 
Nein HMC ist direkt am DIE und ohne Interposer. Es ist im Vergleich zu HBM auch anders angebunden und ist für HPC Markt optimiert. Kann gut sein dass die HMC Variante für Grafikkarte auch a des aussehen könnte und anders heißen. Es wird sich zeigen. Es ist aber wie mit GDDR und DDR. GDDR ist auch die DDR Speicher Variante die explizit für Grafikkarten angepasst wurde.
 
ist doch eigentlich perfekt; für die günstigen Serien GDDR 5, für die etwas teureren GDDR5X und für die Oberklasse HBM (2). :)
 
Darkscream schrieb:
Jo - das mit dem Stromverbrauch bei HBM wird ab HBM2.2 anscheinend wirklich ein Problem werden - dürfte aber noch ein wenig dauern bis die erste Stufe von HBM2 zum limitierenden Faktor wird.
Anhang anzeigen 531328

Nichts auf dieser Folie zeigt, das die Prognose für HBM schlechter ist als die Prognose für GDDR5(X).

Alles was ich auf der Folie sehe, ist das die Bandbreite disproportional zum Energieverbrauch ansteigen wird, in anderen Worten - die Energieeffizienz soll sich weiter verbessern. Was will man mehr?
Beziehungsweise, wie ist das ein Problem mit dem GDDR5(X) nicht jetzt schon heftig am kämpfen ist?
 
Aber die kleinen Schritte wie im CPU Bereich kommen zu jetzige Stand immer näher und näher - wenn man sich etwas mehr als die doppelte Bandbreite mit dem doppelten Stromverbrauch erkaufen muss heißt das nix gutes.
 
Darkscream schrieb:
Anhang anzeigen 531328
Die erste Stufe von HBM2 braucht ja noch weniger wie GDDR5, da gibt es nicht wirklich ein Problem.

Les' ich da auch raus.
Die erste HBM2 Version hat dort im Bild ca. die 3-4fache Bandbreite, bei weniger Stromverbrauch als GDDR5.
Schön. Dann kann Pascal mit HBM2 ja kommen.

Seh' da kein Problem.

Kasmopaya schrieb:
Graz schon mal an die Leute die extra auf Pascal HBM 2 gewartet haben.

Danke :)
 
Zuletzt bearbeitet:
Oromis schrieb:
Imho nicht verwunderlich. Micron hat, wie dem Artikel zu entnehmen ist, mit HBM ja nicht viel am Hut.

Man hat MCDRAM, bietet damit ähnliche Bandbreiten wie HBM von Hynix. Da ist man aber ausgelastet mit der KNL.

max_1234 schrieb:
Du meinst HMC, nicht vergleichbar mit HBM.

Macht auch nichts anderes als einen schnellen Speicher zur Verfügung zu stellen. Aktuell kann man mit HMC weit mehr als 4GB liefern.

Übersicht aller Technologien gerne: http://www.extremetech.com/computin...-between-wide-io-hbm-and-hybrid-memory-cube/2

pipip schrieb:
Nein HMC ist direkt am DIE und ohne Interposer.

Wo hast du denn das her. Von unserem Eklinator aus dem Hardwareluxx Forum? Die KNL, welches MCDRAM verwendet, hat auch einen Interposer. Auch wenn dieser nicht so kompliziert wie bei Hynix integriert werden muss:

Each of these high-bandwidth controllers link out to a the on-package MCDRAM (we believe stacked 20nm Micron Planar DRAM) through an on-package interposer, offering 400+ GB/s of bandwidth when all the memory is used in parallel. This sounds similar to AMD’s Fiji platform, which offers 4GB of memory over four HBM (high bandwidth memory) packages, but Intel is prepared to offer 16GB of MCDRAM ‘at launch’. The fact that Intel says at launch could be suggested that there are plans to move into higher capacities in the future.

Quelle: http://www.anandtech.com/show/9794/a-few-notes-on-intels-knights-landing-and-mcdram-modes-from-sc15 oder auch hier https://www.micron.com/~/media/documents/products/presentation/linley_presentation_2012.pdf


Sieht man doch gleich an den Positionen der Stacks bei beiden. Die sind ja fast gleich:

R9-FURY-X-2-16.png
Intel_KnightsLanding_HMB_BadHardware.jpg

pipip schrieb:
Es ist im Vergleich zu HBM auch anders angebunden und ist für HPC Markt optimiert.

Optimiert ist dar gar nichts für den HPC Markt. Es ist optimiert zur Lieferung von hoher Bandbreite wie auch HBM von Hynix. Ob die Bandbreite nun in einem Spielrechner genutzt wird oder in einem Server ist dann egal.

Darkscream schrieb:
Jo - das mit dem Stromverbrauch bei HBM wird ab HBM2.2 anscheinend wirklich ein Problem werden - dürfte aber noch ein wenig dauern bis die erste Stufe von HBM2 zum limitierenden Faktor wird.
Anhang anzeigen 531328
Die erste Stufe von HBM2 braucht ja noch weniger wie GDDR5, da gibt es nicht wirklich ein Problem.

Da sieht es mit HMC nach Pascal ja nicht schlecht aus. Wie die KNL zeigt, können auch 16GB noch effizient integriert werden ohne gleich unverhältnismäßig viel Saft zu schlucken.
 
Zuletzt bearbeitet:
Jemand postet ein Bildchen wo Nvidia von einer Krise ausgeht was Stromverbrauch von HBMv2 angeht und die Leute drehen völlig am Rädchen...niedlich.

Auf den Furien taktet der HBM nicht mal mit vollem Speed, weil die Bandbreite unnötig ist. Mit HBMv2 verdoppelt man nochmal die Bandbreite, und könnte daher den Speicher nochmal niedriger takten.
Da könnt ihr bei solchen Bildchen noch lange heulen.

@Topic: Ich bin gespannt welche Produkte mit dem Speicher erscheinen. Vorallem auch wieder witzig, da es nur Gerüchte über den Stromverbrauch von GDDRX gibt, und auch hier die Leute wieder am Rad drehen.
Sollte es vielmehr nicht so sein, wenn GDDRX doppelt so viele Daten pro Takt überträgt, dass man gegenwärtige Bandbreiten bei halben Takt realisieren könnte? Oder sehe ich das falsch?

Dass irgendwann GDDRX mit 16Gbit/s doppelt so viel Strom zieht wie GDDR mit 8Gbit/s...ja ne is klar.
 
Sehe den Sinn hinter HBM immer noch nicht!

Es ist 1.teuer und 2.keine Stromersparnisse sprich nicht effizienter.

Wozu all die Speicherbandbreite, im Endkonsumentenbereich? Der Speicher ist sicherlich nicht der limitierende Faktor.

Von daher hat für mich AMD wieder eine Fehlinvestition betätigt.
 
Darum ja auch das Pascal Tapeout mit HBM... :rolleyes:
 
r4yn3 schrieb:
Darum ja auch das Pascal Tapeout mit HBM... :rolleyes:

Ja, aber auch nur das Highendmodell, was nur als Aushängeschild dient.

Eine AMD Radeon Nano mit GDDR5 Speicher wäre günstiger gewesen, hätte mehr Umsatz gehabt und dementsprechend mehr Gewinn gebracht für AMD.
 
SSJ schrieb:
Sehe den Sinn hinter HBM immer noch nicht!

Es ist 1.teuer und 2.keine Stromersparnisse sprich nicht effizienter.

Von daher hat für mich AMD wieder eine Fehlinvestition betätigt.

Auch wenn es jetzt noch nicht der limitierende Factor ist wird er es bei der nächsten Generation sein.
Wenn ich mit 10% weniger Verbrauch zu GDDR5 mehr als den doppelten Speicherdurchsatz erreiche ist es was??
Wenn AMD diesen Schritt nicht gemacht hätte würde es wohl ziemlich traurig ausschauen um sie, eine Fury X würde gleich mal 35W mehr verbrauchen und eventuell noch 2-3% an Leistung verlieren.
 
Darkscream schrieb:
Jo - das mit dem Stromverbrauch bei HBM wird ab HBM2.2 anscheinend wirklich ein Problem werden - dürfte aber noch ein wenig dauern bis die erste Stufe von HBM2 zum limitierenden Faktor wird.
Anhang anzeigen 531328
Die erste Stufe von HBM2 braucht ja noch weniger wie GDDR5, da gibt es nicht wirklich ein Problem.

Naja die I/O Power ist Trotzdem um welten Besser als bei GDDR5...
und die Row Power definitiv auch!
Was mit Column Power gemeint ist (was ja schließlich den Größten anteil des Balkens darstellt) muss geklärt werden...

Column hat was mit Daten, Zahlen, Spalten, Folgen, Senkrecht, Zweispaltig und ähnlichem zutun
was das im einzelnen Bedeutet ... keine ahnung!
Jedenfalls sehe ICH das so dass das nur ein MAXIMALER wert ist
Und wenn HBM 2.0 120 Watt verbraucht, der Chip dann durch 14nm Geshrinkt ist und eben Weniger verbraucht sind wir wieder bei 280W .... 120W(HBM)+160W(GPU)

Also alles kein Grund zur Panik
Wobei diese Zahlen ja auch nur auf Grundlage von EXTREM werten liegen welche man ja nicht ausreizen MUSS!
 
-Ps-Y-cO- schrieb:
Jedenfalls sehe ICH das so dass das nur ein MAXIMALER wert ist

Eben. Da steht doch power at peak bandwith.
Das wird man z.B. beim Zocken so gut wie nie erreichen.

Vor allem nicht, wenn man 16GB HBM2 drauf hat ;)

Wird alles nich so heiß gegessen, wie's gekocht wird.
 
auf lange Sicht ist HBM bei AMD keine Fehlinvestition, in den aktuellen Karten aber eher, ich nenns mal, unglücklich. Gut - man weiß nicht ob Fury mit GDDR5 überhaupt gegangen wäre und wie da der Verbrauch aussähe.

HBM ist "dank" V1 noch viel zu unflexibel und teuer, auch der Interposer nagelt einen fest. Viele Karten werden deshalb 2016 auch ohne HBM kommen und wenn es geht wird man auf HBM 2 setzen um auch die Speichergrößen zu skalieren. Fiji war von Anfang an auf HBM ausgelegt, hoffentlich ist das bei Arctic Island nicht auch so, außer HBM 2.0 ist ausgereift und wirtschaftlich - sonst sehen wir da wieder max 4GB was bitter wäre.

AMD hatte wohl mit mehr Auswahl und früherer HBM Einführung gerechnet. Die Tonga XT zeigt auch mit dem beschnittenen SI gut dass AMD vor 3-5 Jahren (Design Tonga & Fiji / GCN 1.2) mit deutlich weniger Potential bei GDDR5 gerechnet hat bzw Speicherbandbreite überbewertete- wie damals schon bei der R600 aka HD2900X mit 512 Bit. Plötzlich kam der Nachfolger mit mehr Leistung bei halbem SI.

Mich wundert bei Fiji eher, dass die angegebenen 512 GB/s bei weitem nicht erreicht werden und sie nicht überdeutlich mehr Bandbreite als eine 980 TI vorweißen kann. Ob eine Fiji mit 7Ghz GDDR5 und 8 GB Vram nicht attraktiver gewesen wäre...
Glaube nicht dass AMD aktuell durch den HBM groß DIE oder Strom spart. Die meisten HBM Angaben beziehen sich ja rein auf SI und Ram selbst und ich denke nicht dass bei ner 250W GPU das Memory System 100W frisst. Viel eher wird man um 50% von 50W einsparen.
 
Zuletzt bearbeitet:
Das mit den HBM Takt ist auch etwas was mir bis heute keine Ruhe lässt. AMD wird schon seine Gründe haben, darüber zu schweigen und den Takt zu locken. Vllt könnte man noch mehr rausholen, aber die Yields der Speicher ließen den Takt nicht zu. Vllt steigt die Leistungsaufnahme mehr als die Leistung die rauskommt. Man weiß es nicht, und wird es wohl nie wissen.

Aber ja, AMD geht halt über den Umweg, zuerst einen HBM Prototypen zu bauen, und den dann zu shrinken. Nvidia muss das in einem Ruck schaffen.
 
der Takt ist bei den Fury ja okay, die Bandbreite ausreichend, aber für die angegebenen und aus Takt + SI errechteten 512 GB/s liegt man mit nich mal 350 GB/s schon etwas weiter weg. Bei Random Texture werden in einem der wenigen Tests "nur" 333GB/s gemessen, klar, immer noch deutlich vor GM200 aber bei einer nicht randomisierten Textur nähern sich beide an. Und 333GB/s zu 512GB/s is schon ein Unterschied der erklärt sein will... rein technisch wie ich finde weil in-Game sollten auch die 333GB/s mehr als ausreichen.

Edit: Viele Bandbreiten Tests gibts auch nicht wies scheint, kann natürlich auch sein dass der Bench da einfach Müll is aber die Unterschiede sollten mein ich rechnerisch schon deutlich größer sein dank HBM.

Edit2:
In 80nm waren 512 Bit GDDR SI sowohl von der Komplexitäts des PCB als auch verbrauchstechnisch möglich. Auch Hawaii hat 512 Bit. Mit 7-8G GDDR5 und 512 Bit SI sollten sich in 16nm dennoch effiziente schnelle GDDR5 Karten bauen lassen die eine Bandbreite jenseits der heutigen Fury bieten. Auch dank Speicherkompression.
 
Zuletzt bearbeitet:
@HBM; Der große Vorteil, den AMD durch den frühen Gebrauch in Konsumentenprodukten gezogen hat, hat irgendwie noch gar niemand erwähnt. Die Furys waren sicherlich nicht die Überflieger, aber AMDs Ingenieure haben dadurch sicherlich viel mehr gelernt, als Nvidias. Und HBM dürfte sicherlich die wichtigste Speicherinnovation bis mind. 2017 bleiben.

a-u-r-o-n schrieb:
Glaube ich weniger GDDRX5 verbraucht exorbitant mehr Strom als GDDR5

Exorbitant?
Ist selbst GDDR5 nicht einer der Bauteile, die nur 10~20, übertaktet vielleicht 30 Watt brauchen?
Aber ich mag mich da auch täuschen.
 
Zuletzt bearbeitet:
Zurück
Oben