News GDDR5X: Neuer Standard für Grafikspeicher verabschiedet

Schauen wir mal, was 2016 so bringt. Da meine GTX 770 noch mit 2GB läuft, wird da sicher dieses mal was besseres angeschafft. Ob es bei mir nun Nvidia oder AMD wird, werden die Tests bzw. die Preise zeigen. Aber dieses mal wird es eine x80 oder Äquivalent.
 
Kannst Du Dir sehr leicht selbst beantworten, wenn Du mal überlegst, ob die Latenz von GDDR jemals (letzte 20 Jahre) wirklich eine Rolle gespielt hat.
Ist in der Regel dem extrem breiten SMT von GPUs geschuldet. GCN kann zum Beispiel bis zu 10 Hardware Threads pro SIMD-Unit bzw. 40 Hardware Threads pro Kern gleichzeitig bearbeiten. Bei Maxwell sind es 16 Hardware-Threads pro processing block bzw. 64 Hardware-Threads pro Kern. Dadurch funktioniert das Latency Hiding von GPUs in der Regel auch sehr gut.
 
Zuletzt bearbeitet:
Oh - bedeutend höhere Bandbreite je Chip?

Dann kann NVIDIA seine "High End" Karten mit den 04er Chips ja endlich mit einem noch kleineren Speicherinterface ausstatten und die Chips noch mal schrumpfen, damit sie noch mal bedeutend kleiner sind als die früheren Mittelklassekarten. 128bit ergeben ja auch viel rundere Speichermengen :evillol:
Die 06er Chips (GTX X60/50 bekommen dann 64Bit mit schön hohem Speichertakt :freak:
 
Also sicher ist ja das die nächsten High End Karten HBM 2 haben werden. Wie das sich jetzt mit dem GDDR5X allerdings einordnen wird in den Klassen darunter bzw. in welchen Klassen HBM noch zum Einsatz kommen wird ist unklar. Was ich hoffe ist das sich die Speichertypen alle eine Klasse nach unten ordnen und DDR3 endlich aus GPU's verschwindet vor allem bei Notebook GPU's. Auch hoffe ich das HBM in Notebooks zum Einsatz kommt da sparsamer und kompakter.
 
mesohorny schrieb:
Nach offiziellen Aussagen von AMD selbst, sind nur die neuen Flagschiffe mit HBM2 geplant, alles andere kommt mit GDDR5.

Kann ich bitte mal die Quelle dafür haben das nur hbm 2 und gddr5 verwenden wird. Danke im voraus
 
Müssen die Abstände in dem Diagramm erst so groß sein und dann schrumpfen damit man den unterschied überhaupt sieht? :D
 
Also imho ist der Speicherdurchsatz bei Modernen Grafikkarten nicht der Flaschenhals also egal ob ich GDDR5, GDDR5X oder HBM1/2 habe wird sich am speed der GPU nicht viel ändern. Aber gut sie müssen ja immer neue Standards verabschieden um aktuell zu bleiben.
 
Es geht schlicht darum, dass Speicherinterface durch hohe Taktraten klein zu halten. Das spart Konstruktionskosten und Produktionskosten.

Ansonsten braucht man ein breiteres Speicherinterface mit höheren kosten.
 
Xes schrieb:
Ich hoffe ja darauf, dass auch die GTX 1070 und GTX 1080 auf HBM2 setzen.
Bei AMD würde es mich ehrlich gesagt garnicht wundern, wenn sie die Fury(X) mit 8GB HBM2 als R9 490(X) "neu" herausbringen würden.

"GTX1080TI", GP100, 12GB HBM2, ~500GB/s
"Pascal-Titan", GP100, 24GB HBM2, ~500GB/s
"GTX1080", GP104, 8GB GDDR5X, 256 Bit, ~300GB/s
"GTX1070", GP104, 8GB GDDR5X, 256 Bit, ~300GB/s (Liebe Nvidia-Entwickler, bitte hier nicht wieder den Kunden betrügen. ;) )
"GTX1060", GP106, 4-8GB GDDR5, 128-256 Bit, ~150-~200GB/s

[/Glaskugel]

Aber eigentlich wäre doch flächendecken HBM2 schön, zumindest bis in die Mittelklasse runter, also alles bis GP106. Die Ursache wegen kaputten Grafikkarten weg - defekter Speicher, bzw. dessen Lötstellen. Der GPU-Die geht ja eher nicht kaputt, was ich auch dem Speicher am GPU-Die zuschreiben würde.
Ergänzung ()

terraconz schrieb:
Also imho ist der Speicherdurchsatz bei Modernen Grafikkarten nicht der Flaschenhals also egal ob ich GDDR5, GDDR5X oder HBM1/2 habe wird sich am speed der GPU nicht viel ändern. Aber gut sie müssen ja immer neue Standards verabschieden um aktuell zu bleiben.

Die GTX980TI profitiert schon von einem größeren SI, zumindest in bestimmten Spielen. Selbst wenn ich meine Superclocked auf Stock-GPU-Takt lasse und nur den Speicher um 200MHz (100MHz in GPU-Z) erhöhe, habe ich so um die 1-2% mehr FPS. Der GM200 hätte schon was anfangen können mit einer 384 Bit großen GDDR5X-Speicherausstattung, so mit ~400GB/s.
 
Zuletzt bearbeitet:
Toll *gähn* gut das speichertakt/-Geschwindigkeit überhaupt keine mehrleistung bringt. Hbm,gddr.....mir latte, packt ordentlich speicher auf die karten und gut ist. Alles andere ist marketing für lemminge (ähnlich wie bei ssds)
 
Mortal1978 schrieb:
Es geht schlicht darum, dass Speicherinterface durch hohe Taktraten klein zu halten. Das spart Konstruktionskosten und Produktionskosten.

Ansonsten braucht man ein breiteres Speicherinterface mit höheren kosten.

Dass die Preisersparnis an den Kunden weitergegeben würde, ist aber Träumerei. AMD und nVidia (insbesondere letztere) haben es ja mittlerweile erfolgreich geschafft, dass €700 Grafikkarten im High End salonfähig geworden sind. Ohne akute Absatznot werden die davon nicht mehr abrücken und wenn man sieht wie viele Gamer (mich eingeschlossen) nach dem 28nm Dauerzustand schon auf Pascal und Polaris geiern, dann wird sich daran mit Sicherheit nix ändern, sondern eher im Gegentum die Daumenschrauben vielleicht sogar noch fester angezogen. Denn, wenn sich AMD und nVidia auch nur in einem Punkt einig sind, dann darin, dass fette Margen besser sind als magere Margen ;) .
 
NuminousDestiny schrieb:
Müsste es nicht günstiger sein, wenn man GDDR5X einfach vernachlässigt und dann eine höhere Anzahl an HBM/2 Chips ordert?

Ich weiß nicht ob die Weiterentwicklung von GDDR so noch sinnvoll ist. Kurzfristig mag es ja noch als Konkurrenz zu HBM bestehen aufgrund des P/L Verhältnisses, aber langfristig hat HBM einfach Vorteile und wird wohl auch günstiger werden.

Zumal erst jetzt der Standard verabschiedet wurde, bei HBM2 die Produktion wohl aber schon längst läuft.

Zitat aus einer älteren News von CB
in Vorteil von GDDR5X liegt darin, dass bestehende GDDR5-Designs weiter genutzt werden können. Bei HBM werden neue Platinendesigns nötig, da der Speicher mittels Interposer direkt neben der GPU sitzt. Auch bei den Kosten wird GDDR5X voraussichtlich die Nase vorn haben.
Ich weiß auch noch nicht in welcher Menge HBM hergestellt werden kann, aber wenn es irgendwann mal zu Lieferengpässe kommt, weil man mit der Produktion von HBM nicht mehr hinterher kommt kommt das schon ziemlich doof.

masl_19 schrieb:
Kann ich bitte mal die Quelle dafür haben das nur hbm 2 und gddr5 verwenden wird. Danke im voraus

Quelle
http://www.pcgameshardware.de/Grafi...80/News/AMD-Nvidia-GDDR5X-neben-HBM2-1175660/

Wobei es da wirklich eher nach "vielleicht" anhört.
 
Redirion schrieb:
Wäre es nicht wahrscheinlich, dass GDDR5 dann durch DDR4 verdrängt wird? Der ist technisch etwas moderner und gerade durch Stacking wohl auch günstiger und bietet ebenfalls höhere Taktraten als DDR3 bzw. kommt GDDR5 schon nahe.
Äh was? DDR4 kommt mit auf 4000 GT/s. GDDR5 schafft das doppelte.
Und warum sollen die Dies billiger werden, wenn man sie übereinander stapelt? :confused_alt:

Mr.Kaijudo schrieb:
GDDR6 würde auf DDR4 basieren was weniger Bandbreite als DDR3 hat.
Und was hat jetzt Intels Speichercontroller mit Grafikspeicher zu tun?

smalM schrieb:
Und kein Piep zur Latenz - warum wohl...
Weils egal ist?

Scythe1988 schrieb:
Toll *gähn* gut das speichertakt/-Geschwindigkeit überhaupt keine mehrleistung bringt.
Hä? Das ist ja auch nicht für jetzige Karten sondern für die Kommenden. Und in 14/16 nm FF wird die Rechenleistung mal eben verdoppelt. Die ALUs wollen auch gefüttert werden.
 
masl_19 schrieb:
Er behauptete aber das laut einer meldung nur hbm 2 und gddr5 und nicht gddr5x kommt.
​Ich nehme mal an, dass er das X einfach nur vergessen hat, da man aus Gewohnheit nur DDR5 schreibt.
 
Banger schrieb:
"GTX1080TI", GP100, 12GB HBM2, ~500GB/s
"Pascal-Titan", GP100, 24GB HBM2, ~500GB/s
"GTX1080", GP104, 8GB GDDR5X, 256 Bit, ~300GB/s
"GTX1070", GP104, 8GB GDDR5X, 256 Bit, ~300GB/s (Liebe Nvidia-Entwickler, bitte hier nicht wieder den Kunden betrügen. ;) )
"GTX1060", GP106, 4-8GB GDDR5, 128-256 Bit, ~150-~200GB/s

[/Glaskugel]

Aber eigentlich wäre doch flächendecken HBM2 schön, zumindest bis in die Mittelklasse runter, also alles bis GP106. Die Ursache wegen kaputten Grafikkarten weg - defekter Speicher, bzw. dessen Lötstellen. Der GPU-Die geht ja eher nicht kaputt, was ich auch dem Speicher am GPU-Die zuschreiben würde.
Ergänzung ()

Die GTX980TI profitiert schon von einem größeren SI, zumindest in bestimmten Spielen. Selbst wenn ich meine Superclocked auf Stock-GPU-Takt lasse und nur den Speicher um 200MHz (100MHz in GPU-Z) erhöhe, habe ich so um die 1-2% mehr FPS. Der GM200 hätte schon was anfangen können mit einer 384 Bit großen GDDR5X-Speicherausstattung, so mit ~400GB/s.

SI ist aber nicht der Speicher und hat nur begrenzt Einfluß auf den Durchsatz im Sinne das wenn es nicht limitiert ein größeres SI nichts bringt.
 
Ich kann mir gut vorstellen, dass man NV und AMD einen großen Chip mit HBM verbauen würde. Danach folgen dann die unteren High-Performance Grafikkarten. Je nachdem, ob diese auch in den HPC Markt kommen sollen, wäre GDDR5X interessant, weil dieser ja im Vergleich (soviel ich verstanden habe) doppelte so viel VRAM Menge erlauben soll.
Wie in der News steht Kapazitäten bis 16 Gigabit pro Chip. Samsung bietet aktuell ja nur 8 Gigabit für GDDR5 an.

Sonst stelle ich die Frage, wer aller GDDR5X fertigt, sodass alle Grafikkarten darunter wohl eher GDDR5 verbauen werden, weil auf die Menge und Fertiger gesehen, GDDR5 weiterhin günstiger sein sollte und bei günstigeren Karten gern das Layout des Boards immer mehr "abspeckt".

Was auch eine interessante Frage ist. Da GDDR5X schneller takten kann (auch aber mehr verbraucht), könnte AMD und NV theoretisch die Chips kleiner halten, indem sie hier dank Kompression noch kleinere Speichercontroller verbauen können oder schlicht und einfach bei 386 Bit für die obere Klasse bleiben.

Es gibt nur einen einzigen VRAM (ich nenne es mal so) Typ, den ich nicht mehr sehen möchte und das ist GDDR3. Aber mittlerweile werden die durch die AMD & Intel APUs sowieso obsolet, da beide bald (bald weil bei AMD es noch nicht der Fall ist) auf DDR4 setzten.

@terraconz

Es muss sich nicht immer alles um die High-End Karten drehen.
Ich persönlich würde mir einen 220 mm^2 Chip mit 4GB HBM Speicher für 1080p wünschen. Da würde es durchaus interessante Möglichkeiten für Notebooks, low profil GPUs ect geben.
Der Interposer wäre auch nicht so groß und 4GB könnte man mit einem Stapel Gen2 und das wäre mit 1Ghz Takt bereits 256 GB/sec. Zum Vergleich die 960 GTX hat 112,2 GB/s, 380 179,2 GB/s und die R9 380X hat 192 GB/s.

Von Tonga ausgehend, bessere Architektur, shrinke, 1 HBM Stapel 4GB mit 256 Gb/s, deutlich kleineren Interposer als es bei Fury der Fall ist, muss die Karte auch nicht Unmengen kosten und kann wirtschaftlich sein, wenn man diese dann auch als High-End Lösung für Notebooks oder AiO verbauen kann.
 
Zuletzt bearbeitet:
Dann kommt ja hoffentlich mal wieder Bewegung in den Garfikkartenmarkt...
Bin gespannt was AMD und Nvidia daraus machen.

LG LilaMicra
 
pipip schrieb:
Es gibt nur einen einzigen VRAM (ich nenne es mal so) Typ, den ich nicht mehr sehen möchte und das ist GDDR3. Aber mittlerweile werden die durch die AMD & Intel APUs sowieso obsolet, da beide bald (bald weil bei AMD es noch nicht der Fall ist) auf DDR4 setzten.
GDDR3 wird seit Jahren nicht mehr verwendet und auch gar nicht mehr hergestellt.

Und obsolet sind diese Lowcost-Karten auch nicht, solange es noch CPUs ohne IGP gibt.
 
Zurück
Oben