News GDDR5X: Neuer Standard für Grafikspeicher verabschiedet

Im Bereich Grafikleistung muss es auch dringend mal vorwärts gehen wenn man mal akzeptable Frameraten in 4K haben möchte.
 
2016 is endlich mal High-Performance angesagt ;)
Dieser Technologischer fortschritt wird uns Hoffentlich in die Gaming-Zukunft Katapultieren
Aber auch Industrie profitieren von dem Technologischen Fortschritt immens.

Kann uns alle nur freuen!



Meine These: AMD wird fast ausschließlich auf HBM setzen ;)
Zumindest sagt mir das meine Hoffnung.
Ich meine, schaut mal wie lange sie daran gearbeitet haben... Warum jetzt auf GDDR5X setzen? Zumal da wohl auch Verträge mit SK Hynix wohl laufen usw. Usf. Da gibt's gewisse Dinge bzw. Vertragspflichten die die Partner einhalten müssen, sonst -> Sanktionen...
Könnte auch so dumm laufen dass wir Nichtnur 2 Gegner haben sondern 2 Gegner mit 2 unterschiedlichen Speichern...
AMD: HBM
Nvidia:GDDR5X (bis evtl. Auf die Wirklichen Flaggschiffe ala Titan)

Wer weiss?
Jedenfalls hat mich der Gedankengang beim Schreiben eingeholt und wie man es aus dem Tech. Sektor kennt = Nichts ist sicher, ausser 0 und 1
 
Erfreulich. Auch wenn ein neuer Standard, der bereits langsamer ist als verfügbarer HBM (jaja, teuer) ist, etwas enttäuscht. Wozu eigentlich der "Aufruhr"? Ich denke Grafikspeicher ist eh nicht das Nadelöhr bei momentanen Anwendungen (mal von 4K oder derartigem abgesehen).
 
Ich kann mir eine Dreiteilung vorstellen. HBM kommt bei den High End Karten zum Einsatz, Sprich GTX Titan, GTX980ti, R9 Fury und R9 FuryX. GDDR5X kommt bei den oberen mainstreamkarten zum Einsatz, sprich GTX 970, GTX 980, 390, 390x. Und die Karten darunter setzen auf GDDR5.


Das die 1070, 1080 HBM2 haben, halte ich für unrealistisch. Dafür ist das package zu klein. Zudem hatte sie doch mal einen Fakeaussteller, der angeblich auf Pascal Chips basierte. Waren letztlich zwar doch Maxwell chips, aber sie haben auch dort kein HBM draufgesetzt. HBM wird wohl nur beim GP100 zum einsatz kommen... auch bei AMD glaube ich wird man nur im High end bereich HBM einsetzen.
 
Sehe ich ähnlich, der GP104 wird nVidias Cash-Cow, da werden sie sicher nicht den teuersten Speicher verbauen, wenn es nicht unbedingt notwendig ist.
 
HeinzNeu schrieb:
Auf den Nachfolger der Titan-X mit entsprechend neuen Chips bin ich schon gespannt.

Ich ebenfalls. Ich möchte endlich meine Titan-X ersetzen, weil ohne SLI bin ich doch oft von den gewünschten 60 FPS@ 2160p entfernt. Allerdings erwarte ich den Titan-X Nachfolger erst im Jahr 2017. 2016 wird es eher einen Nachfolger für GM204 in Form von GP104 geben, der aber auch 10-30% auf GM200 - je nach Szenario - drauflegen könnte.

Du bist auch in jedem Forum. :p
 
Immerhin besser, als dann noch weiterhin auf GDDR5 bei den Mittelklassekarten zu setzen! So bekommt also der Käufer jeder Preisgruppe doch einen neuen Speicher und damit bessere Performance.

Aber wenn der Standard jetzt erst verabschiedet wurde...dauert es doch sicherlich bis mindestens 1 Jahr danach, bis das für den Endverbrauchermarkt reif ist? Also wird die nächste AMD Mittelklassegeneration vllt. doch kein GDDR5X haben?
 
Das beide Hersteller evtl komplett ihre "eigene " Technik nutzen wäre auch egal solange das Endresultat dann dasselbe ist was Performance und Effizienz angeht.
Heisst das nun das mit einem 128bit Interface dieselbe Leistung mit GDDR5X erreicht werden kann mit theoretischen 8 gbit wie bei gddr 5 mit 256 bit und 8gbit?

Dann würde ja ein 256bit SI mit 10 gbit ja Bandbreite liefern die ähnlich HBM 1 wäre .
Ich hoffe nur sie machen dann keine krummen 192 bit SI karten mit 6GB, sondern gehen zumindest bei 1070 und 1080 von 256bit und 8GB VRAM aus.
Darunter dann gerne nur 192 bit und 6 GB VRAM.
Bleibt die Frage was nun effektiver ist und wenn ja um wieviele effektiver als auch wie es preislich aussieht.

Ich finde es gut so ist wieder frischer Wind für spekulationen offen auch wenn egal was eingesetzt wird die Bandbreite nicht das Problem sein sollte bei dieser Generation.
 
Zuletzt bearbeitet:
Wie steht es eigentlich mit der Leistungsaufnahme HBM2 gegen GDDR5X? Wie skaliert die Leistungsaufnahme im Verhältnis zur Speichergröße und Takt?

Ich habe mal gelesen (kein Plan wo und ob es seriös war), dass HBM2 mit mehr als 4GB deutlich mehr Leistung aufnimmt, als es noch bei HBM mit 4GB der Fall ist. Denn wenn GDDR5X und HBM2 dann gleich aufliegen, ist natürlich die Frage, ob mit HBM2
bereits starke Konkurrenz
vorhanden ist oder ob die dann gleich aufliegen?

btw: es geht mir nicht um die Stromkosten, sondern um die Kühlbarkeit (Ist das überhaupt ein Wort?).
 
Xes schrieb:
Ich hoffe ja darauf, dass auch die GTX 1070 und GTX 1080 auf HBM2 setzen.

Daran glaube ich nach den neuesten (durchaus glaubhaften) Gerüchten, dass sich Big Pascal (GP100) auf die zweite Jahreshälfte verschiebt, nicht mehr. Ich denke im Mai/Juni wird erst mal der GP104 kommen, aber mit GDDR5/GDDR5-X und die GTX 1080/1070 befeuern. Im Herbst/Spätherbst wird dann irgendwann GP100 als Titan/1080Ti mit HBM2 zu Mondpreisen folgen.
 
Wird es zwar nicht geben, aber eine Karte in X und non-X Version mit sonst gleicher Bauweise und Chips wäre schon interessant.
 
On die wohl grössere Speicherbausteine verwenden werden? Mit 1GB Chips könnte man denn Speicher der Titan X auf eine Seite beschränken. :o
 
da es an der Speicher-Geschwindigkeit (ab Mittelklasse) eh nie gelegen hat, wenn eine Graka zu langsam war - wayne juckts!?!
Scheint mir eher eine Gegenreaktion auf HBM zu sein, für die, denen HBM zu teuer, zu exklusiv, zu wenig verfügbar ist, für die ist halt GDDR5X da. An der Geschwindigkeit der Pixel-Beschleuniger ändert das gar nichts........
 
paccoderpster schrieb:
Wie steht es eigentlich mit der Leistungsaufnahme HBM2 gegen GDDR5X? Wie skaliert die Leistungsaufnahme im Verhältnis zur Speichergröße und Takt?

Ich habe mal gelesen (kein Plan wo und ob es seriös war), dass HBM2 mit mehr als 4GB deutlich mehr Leistung aufnimmt, als es noch bei HBM mit 4GB der Fall ist. Denn wenn GDDR5X und HBM2 dann gleich aufliegen, ist natürlich die Frage, ob mit HBM2 vorhanden ist oder ob die dann gleich aufliegen?
HBM2 verringert die Spannung und somit auch die Leistungsaufnahme ggü HBM. HBM2 wird also entsprechend weniger verbrauchen als HBM, die Größe ist hierbei fast irrelevant (wie bei GDDR5). Der Verbrauch von GDDR5X ist höher als bei GDDR5. Es bleibt also alles beim alten, HBM2 wird mit abstand der effizienteste aber auch der teuerste Speicher bleiben.

Sowohl AMD als auch Nvidia werden HBM2 nur in den High-End GPUs verbauen. Im Performance-Bereich dann wie gewohnt GDDR5 oder 5X.


Lars_SHG schrieb:
An der Geschwindigkeit der Pixel-Beschleuniger ändert das gar nichts........
Bei der Mittelklasse wird auch sicher kein HBM2 eingesetzt. Eben weil die Bandbreite dort nicht der limitierende Faktor ist.
Aber allgemein gesehen ist die Aussage natürlich quatsch, weil es eben auf das Bandbreitenlimit ankommt.
 
Zuletzt bearbeitet:
Müsste es nicht günstiger sein, wenn man GDDR5X einfach vernachlässigt und dann eine höhere Anzahl an HBM/2 Chips ordert?

Ich weiß nicht ob die Weiterentwicklung von GDDR so noch sinnvoll ist. Kurzfristig mag es ja noch als Konkurrenz zu HBM bestehen aufgrund des P/L Verhältnisses, aber langfristig hat HBM einfach Vorteile und wird wohl auch günstiger werden.

Zumal erst jetzt der Standard verabschiedet wurde, bei HBM2 die Produktion wohl aber schon längst läuft.
 
smalM schrieb:
Und kein Piep zur Latenz - warum wohl...

Ist die bei HBM2 (bemerkbar) geringer oder wieso?

berkeley schrieb:
HBM2 verringert die Spannung und somit auch die Leistungsaufnahme ggü HBM. HBM2 wird also entsprechend weniger verbrauchen als HBM, die Größe ist hierbei fast irrelevant (wie bei GDDR5). Der Verbrauch von GDDR5X ist höher als bei GDDR5. Es bleibt also alles beim alten, HBM2 wird mit abstand der effizienteste aber auch der teuerste Speicher bleiben.

Danke für die Info :)
 
Dafür stinkt GDDR5X im Vergleich zu HBM bei random access (64 Byte vs 32 Byte Transaktionen) total ab. Bei AMD sollte es egal sein, da Cache-Lines 64 Byte sind. Bei NVIDIA sind sie aber 4x32 byte - wäre also dort ungut.
 
Zuletzt bearbeitet:
smalM schrieb:
Und kein Piep zur Latenz - warum wohl...

Kannst Du Dir sehr leicht selbst beantworten, wenn Du mal überlegst, ob die Latenz von GDDR jemals (letzte 20 Jahre) wirklich eine Rolle gespielt hat.
 
Zurück
Oben