News GDDR5X: Micron stellt jüngste GDDR6-Gerüchte klar

Ap2000 schrieb:
@HBM; Der große Vorteil, den AMD durch den frühen Gebrauch in Konsumentenprodukten gezogen hat, hat irgendwie noch gar niemand erwähnt.

Das würde ich jetzt nicht so behaupten. Wer viel gelernt hat sind die Fertiger. Denn da stecken die größten Probleme dahinter. NV wird sicherlich schon die eigenen Samples des Speicher erhalten haben und so im Labor getestet haben. Dann kann NV auch die entsprechende Algorithmen entwickeln ohne ein Produkt rauszubringen. Da jetzt einen großen Vorteil zu sehen kann man schwerlich sagen. NV setzt sich da eher in das gemacht Nest, denn die Produkt läuft.
 
SSJ schrieb:
Ja, aber auch nur das Highendmodell, was nur als Aushängeschild dient.

Eine AMD Radeon Nano mit GDDR5 Speicher wäre günstiger gewesen, hätte mehr Umsatz gehabt und dementsprechend mehr Gewinn gebracht für AMD.

Mh. Lasss mich mall kurz überlegen, eine Nano mit GDDR5 mh, welcher Technik hatt die nano nochmall ihre große zu verdanken?
 
SSJ schrieb:
Sehe den Sinn hinter HBM immer noch nicht!

Es ist 1.teuer und 2.keine Stromersparnisse sprich nicht effizienter.

Wozu all die Speicherbandbreite, im Endkonsumentenbereich? Der Speicher ist sicherlich nicht der limitierende Faktor.

Von daher hat für mich AMD wieder eine Fehlinvestition betätigt.
Nicht mal die lächerliche Folie von Nvidia interpretieren können. Meine Güte, was man hier wieder alles lesen muss, sobald man auf "Kommentare" klickt. Dumme Angewohnheit... Aber das sprengt wohl jeglichen Rahmen...

Ich sehe schon wie Nvidia sich die Hände reibt, weil HBM "nicht effizienter" sei als GDDR5(X) sonstwas... Mission accomplished. Irgendwer mit genügend "Sachverstand" findet sich immer, und schließlich ist das dann die Hauptzielgruppe von Nvidia (was natürlich nicht gänzlich jede andere Zielgruppe einschließt :))

Vielleicht nur zum Verständnis: auch lt. den Nvidia Folien ist HMB/HBM2 mit abstand wesentlich effizienter als GDDR5 bei jeder Taktrate. Netterweise habe sie es etwas anders verpackt, aus welchen Gründen auch immer ;)

Aber dass sich dann noch Experten finden, die es nicht interpretieren können... hätte ich kaum für möglich gehalten.
 
Zuletzt bearbeitet:
[F]L4SH schrieb:
So viel kann man auf Fudzilla geben

Ich dachte, jeder würde die regel kenne: Alles, was von Fudo kommt, ist erst einmal als absoluter Unsinn zu betrachten...

-Ps-Y-cO- schrieb:
Naja die I/O Power ist Trotzdem um welten Besser als bei GDDR5...
und die Row Power definitiv auch!
Was mit Column Power gemeint ist (was ja schließlich den Größten anteil des Balkens darstellt) muss geklärt werden..

Der RAM ist in Reihen und Spalten organisiert. Es kostet Strom, die Reihen- und Spaltenadresse aufzumachen und und es kostet Strom, die Daten zu übertragen. Da hast Du Row Power, Column Power und I/O Power.
Um die hohen Latenzzeiten von Grafikspeicher zu verstecken, adressiert die GPU immer viele Speicherorte gleichzeitig und im Voraus.
Wegen der vergleichsweise sehr kurzen Anbindung von HBM gegenüber GDDR5 ist die Leitungsdämpfung natürlich viel niedriger, wegen der hohen Parallelität werden viel mehr RAM-Adressen offengehalten.

r4yn3 schrieb:
Sollte es vielmehr nicht so sein, wenn GDDRX doppelt so viele Daten pro Takt überträgt, dass man gegenwärtige Bandbreiten bei halben Takt realisieren könnte? Oder sehe ich das falsch?

Ja, das siehst Du falsch.
GDDR5X stellt doppelt so viele Daten in den Ausgabepuffer des RAMs pro internem Speichertakt wie GDDR5.
Von der Datenübertragung ist da noch gar keine Rede.
Da sich extern am RAM-Chip nichts ändern soll (also keine Verdopplung der Dateninterfacebreite), kommt nur eine Verdopplung des Datentransfertaktes in Frage, um die doppelte Menge an Daten aus dem RAM-Chip auch rauszubekommen.
Eine andere Möglichkeit wäre GQDR5, also 4 Datenübertragungen pro Datentransfertakt statt bisher 2. Nur da verlöre man die Kompatibilität mit bisherigen GPUs.

Krautmaster schrieb:
Ob eine Fiji mit 7Ghz GDDR5 und 8 GB Vram nicht attraktiver gewesen wäre...

Es gibt kein GDDR5-RAM mit 7GHz Takt, bei 4GHz auf den Datenleitungen ist z.Z. Schluß.

Krautmaster schrieb:
Glaube nicht dass AMD aktuell durch den HBM groß DIE oder Strom spart. Die meisten HBM Angaben beziehen sich ja rein auf SI und Ram selbst und ich denke nicht dass bei ner 250W GPU das Memory System 100W frisst. Viel eher wird man um 50% von 50W einsparen.

Die Angaben beziehen sich meist auf den Stromverbrauch von RAM + Speichercontroller der GPU.
 
Zuletzt bearbeitet von einem Moderator:
Ap2000 schrieb:
@HBM; Der große Vorteil, den AMD durch den frühen Gebrauch in Konsumentenprodukten gezogen hat, hat irgendwie noch gar niemand erwähnt. Die Furys waren sicherlich nicht die Überflieger, aber AMDs Ingenieure haben dadurch sicherlich viel mehr gelernt, als Nvidias. Und HBM dürfte sicherlich die wichtigste Speicherinnovation bis mind. 2017 bleiben.

ich denk nicht wirklich, dass AMD da n Vorteil hat. AMD hatte nur Fury X, keinen anderen Chip. Man musste mit HBM kommen, vielleicht zähneknirschend da vergleichsweise unwirtschaftlich. Man stelle sich vor AMD hätte bis 2016 keine neue GPU oben raus gebracht und müsste mit Hawaii klarkommen.

Ich denke AMD hätte wie Nvidia eher bis HBM 2.0 / >4GB und mehr Flexibilität gewartet sofern es gegangen wäre. Anzunehmen dass auch Nvidia 2016 erstmal einen Tesla Ableger für teuer Geld mit HBM bringt, wenn überhaupt.
Ergänzung ()

smalM schrieb:
Es gibt kein GDDR5-RAM mit 7GHz Takt, bei 4GHz auf den Datenleitungen ist z.Z. Schluß.
das is mir klar, ich meine aber dass die generelle Bezeichnung nach außen von "7G" spricht oder so. Siehe zB
http://hexus.net/tech/news/graphics/77445-sk-hynix-now-shipping-8ghz-gddr5-memory/

Die Angaben beziehen sich meist auf den Stromverbrauch von RAM + Speichercontroller der GPU.

selbiges schrieb ich ja. Die Frage ist... wieviel macht das Speichercontroller + Ram bei einer 250W TDP Grafikkarte aus? Sicher keine 200W. Eher 50W. Und bezogen auf den Wert spart man mit HBM eben dann angeblich deutlich was ein.
Ergänzung ()

masl_19 schrieb:
Mh. Lasss mich mall kurz überlegen, eine Nano mit GDDR5 mh, welcher Technik hatt die nano nochmall ihre große zu verdanken?

richtig, dank HBM is die Nano so klein -> aber die Nano ist eher ein Resultat daraus dass man dann natürlich vermarkten konnte/musste. Fiji hat kein GDDR5 SI, ergo steht GDDR5 ja auch nicht zur Diskussion. Wenn es Fiji mit GDDR5 SI geben würde hätte man höchst wahrscheinlich auf die Größe der Nano gepfiffen und sich zugunsten der Marge und flexiblerem VRAM Ausbau entscheiden.
 
GDDR5 Speicher + Interface verbrauchen auf einer R9 290 ca. 80-110W. Diese hat letztendlich aber auch ein 512Bit Interface. Eine 970 mit 224Bit Interface wird vermutlich leicht weniger verbrauchen. Auf der R9 Nano darf sich der Grafik-Chip alleine ca. genauso so viel an Energie gönnen wie der Grafik-Chip einer R9 290 ( ca. 150W, wurde von Raja Koduri bei der Nano Einführung mal erläutert). Die Nano verbraucht dabei insgesamt ca. 180W --> HBM davon ca. 30W. Den Verbrauch einer 290 kenn man ja, ca. 230W.


Eine etwas älteren aber durchaus interessanten Artikel hat 3DCenter zu GDDR5X
 
Ist es denn schon offiziell bestätigt dass bei Pascal HBM verbaut werden wird?
Ich dachte bisher sei das alles nur ein Gerücht...
 
Krautmaster schrieb:
Und 333GB/s zu 512GB/s is schon ein Unterschied der erklärt sein will...

Wurde doch bereits?
Wenn der Speicher sein volles Potential nutzen soll, müsste man ihn höher takten.
Da, wie du bereits erkannt hast, die Speicheranbindung alles andere sowieso bereits im Schatten stehen lässt, ist das nicht notwendig.

Wieso das volle HBM Potential bereitstellen wenn es nicht gebraucht wird und zusätzlich den Verbrauch erhöht?
Dann doch lieber mit Sweet Spot und immer noch schneller als alle anderen Speicher-Lösungen auf dem Markt.

mfg,
Max
 
wieso, die 512GB/s bei Fury dürften sich doch aus dem Takt ergeben auf dem er heute bereits taktet. Hab die Taktraten aber gerade nicht im Kopf (500 Mhz mein ich). Klar kann der in Zukunft generell noch weiter ansteigen, wird er auch - und damit HBM schneller.
 
Zuletzt bearbeitet:
smalM schrieb:
Ja, das siehst Du falsch.
Danke für die Erläuterung. Leider ist mir das als Laie nicht sonderlich klar was das heißt. Wieso verdoppelt man die Daten in den Ausgabepuffer wenn man ohnehin den Transfertakt erhöht? Oder macht das eine ohne dem anderen keinen Sinn, und es ist daher nur ein Mittel zum Zweck?
 
Darkscream schrieb:
Auch wenn es jetzt noch nicht der limitierende Factor ist wird er es bei der nächsten Generation sein.
Wenn ich mit 10% weniger Verbrauch zu GDDR5 mehr als den doppelten Speicherdurchsatz erreiche ist es was??
Wenn AMD diesen Schritt nicht gemacht hätte würde es wohl ziemlich traurig ausschauen um sie, eine Fury X würde gleich mal 35W mehr verbrauchen und eventuell noch 2-3% an Leistung verlieren.

fury x würde wen amd wider ein 512er interface drauf baut warscheinlich nochmal so 75 watt mehr brauchen xD

den mit 6gb (384 bit interface 1.5,3,6,12gb) gddr5 hätten die nicht kommen können wen 390 und 390x 8gb ab werk haben.
256 ist denke ich zu klein um fiji zu versorgen 1,2,4,8gb mehr geht aktuell nicht da die chips nicht groß genug sind.

384 bit ist meiner meinung nach grade so ok für high end 256 bit für das zeug darunter.
nvidia musste ja auch schon 1x auf 512 bit zurückgreifen.

fury x ist so schon ein strom fresser mit normalem gddr5 hätte sie die 290x und die 480 warscheinlich geknackt.

smalM schrieb:
Es gibt kein GDDR5-RAM mit 7GHz Takt, bei 4GHz auf den Datenleitungen ist z.Z. Schluß.


Die Angaben beziehen sich meist auf den Stromverbrauch von RAM + Speichercontroller der GPU.

ist nicht ganz richtig offiziel ist bei 4ghz ende.
aktuell wird von nvidia 3500mhz benutzt.

erreicht wurden aber schon 4,25ghz da ist die ausbeute aber schlecht somit wird einfach 4ghz benutzt.


man merkt aber das aktuell wenig druck da ist die bandbreite reicht locker.

die hersteller arbeiten mit 192 224 und 256 bit interface die teils in high end karten stecken. gtx980 hat auch nur 256 bit und keine probleme weder vs 512bit 390x noch gegen fury chips die theo 512gb/s haben.

würde also behaupten mit gddr5 könnten wir noch 1 generation durchhalten wen es sein muss.

einfach die 4ghz ausnutzen dazu 384 oder 512 bit interface und wir würde klarkommen.

zumindest nvidia ob amd dann noch mit dem strom klarkommt kommt auf arctic island an.


HBM ist nur ein zwischenlösung sehe ich genauso deswegen wird auch gddr5X neben bei mitlaufen.

der vram muss irgent wan 3d technisch wirklich auf der rückseite der gpu sitzen also gpu ist direckt am kühler und auf der anderen seite ist der vram mit noch kürzerem weg (latenz) aber nicht extra sonder wirklich eine einheit in 3d bauweiße evtl sogar mitte vram und auf beiden seiten gpu bauteile.

ist aber noch zukunft :P
 
Zuletzt bearbeitet:
Zurück
Oben