Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGrafikspeicher: Auch Samsung wird GDDR6 mit 16 Gbit/s zur CES 2018 zeigen
Die von Samsung publizierte Liste der im Januar zu erwartenden CES 2018 Innovation Awards hat nicht nur das neue High-End-SoC Exynos 9810 publik gemacht. Der Konzern hat auch die Präsentation erster GDDR6-Speicherbausteine mit 16 Gbit/s bei 2 GB pro Chip in Aussicht gestellt. Auch die Konkurrenz dürfte zur Messe liefern.
Ich glaube nicht das AMD auf GDDR6 bei den Flagship setzten wird. Ich denke die wollen HBM weiter ausbauen. Wenn 2018 noch PCIE 4 kommt mit GDDR6 dann könnte das ein interessantes Jahr werden. Eventuell mit 2080TI oder VEGA 2. Wobei die nächste Vega vermutlich erst 2019 kommt.
1. Nein, dafür ist die Ersparnis des Platzes und die potentielle Stromersparnis bei HBM2 einfach zu groß.
2. Ja, der Massenspeicher wird auf absehbare Zeit 3-4 Jahre sicherlich noch GDDR bleiben.
HBM hat noch ein paar Vorteile. Einerseits dürfte das SI weiterhin weniger Platz auf dem Chip einnehmen als bei GDDR. Auch sollte es weniger Energie brauchen, schließlich läuft es mit weniger Takt und Spannung. Dem gegenüber stehen höhere Kosten für den Speicher und den Interposer.
Hejo schrieb:
GDDR6 mit QDR wäre eine feine Sache, dann wären über 1000 GB/sec drin.
Die Spezifikation überlässt es den Herstellern DDR oder QDR zu nutzen. Einen Unterschied bei der Bandbreite soll das aber nicht machen, denn im Fall von DDR ist die doppelte Taktfrequenz für Datentransfers vorgesehen.
Der Platz ist praktisch komplett irrelevant und teilweise ist das sogar eher ein Problem. >90% der Karten sind Fullsize und wie die ganzen ITX-Varianten der Nvidia Karten immer beweisen, lässt sich auch mit konventioneller Architektur eine kleine Karte bauen.
Das einzige Szenario in dem die Platzeinsparung wirklich was bringen würde, wären Notebooks. Nur dass jede GPU die schnell genug wäre um überhaupt auf HBM angewiesen zu sein, wieder so viel Abwärme produziert, dass die Ultrakompaktbauweise allein deshalb schon wieder nicht möglich ist.
Und auf normalen Karten ist der gesparte Platz dann auch noch eher ein Problem. Bei GDDR verteilt sich die Abwärme über die Karte und wird dementsprechend in den ganzen Kühler abgegeben. Bei HBM wird die Abwärme des Speichers direkt neben dem Die der GPU ins Heatsink abgegeben. Das macht es noch schwieriger und teurer die Karte zu kühlen, weil man noch mehr und noch bessere Heatpipes braucht und das ist sicherlich auch einer der Gründe, warum die Vega Referenzkühler so eine Lautstärke entwickeln.
Und den Nachweis, dass HBM tatsächlich in Effizienz GDDR um Längen überlegen ist, sind uns bisher sowohl AMD als auch Nvidia schuldig geblieben (Die Teslas sind schließlich auch kein Wunderwerk an Effizienz. Die P100 hat 3584 Shader und 250W TDP. Absolut identisch zur 1080 Ti).
Ich wäre dementsprechend nicht überrascht, wenn der HBM bei der nächsten Generation der Teslas wieder verschwunden wäre und Nvidia dann auf GDDR6 setzt.
Es geht um den Platz des SI auf dem Die. Ist aber bei 384 und 512 Bit dennoch sehr klein. Das ging schon bei der 2900 XT mit 512 bit, hat damals aber sicher 20% des Die ausgemacht. Heute dürften es max 10 oder eher weniger sein.
Ob HBM2 wirklich so viel sparsamer ist... Dachte da gab's mal ne Grafik die zeigte dass mit mehr Bandbreite der Verbrauch auch deutlich ansteigt pro Stack. Vega könnte man jetzt nicht grad behaupten dass HBM2 den Unterschied bei Effizienz und Chipgröße macht.
Nvidia dürfte mit GDDR6 weiterhin auf 256/384Bit für Consumer Produkte setzen. Is einfach noch rentabler.
Tesla wird HBM behalten. Da hat man ja auch 4Stacks oder vllt gar mehr in der nächsten Stufe. Das ist nochmal ne Ecke mehr Bandbreite als GDDR6.
Wäre es eigentlich mit Intels neuer Technik, die sie ja bei den Mobile-CPUs mit Vega-GPU nutzen wollen, möglich, ohne großen Leistungsverlust den Interposer für HBM wegfallen zu lassen? Damit würde HBM ja wesentlich günstiger werden. Ansonsten denke ich wird sich GDDR6 durchsetzen.
Die Gerüchte gehen dahin, dass AMD Vega 11 früher mal mit HBM2 geplant hatte, dann aber aus Kosten- und Verfügbarkeitsgründen auf GDDR umgeschwenkt ist. Das würde auch erklären, warum Vega 11 bisher noch nicht erschienen ist. Wäre Vega 11 einfach nur ein kleinerer Vega 10 müsste der Chip eigentlich schon draußen sein oder zumindest für das Weihnachtsgeschäft bereits angekündigt. Polaris 10 und 11 kamen ja auch relativ kurz nacheinander.
Krautmaster schrieb:
Es geht um den Platz des SI auf dem Die. Ist aber bei 384 und 512 Bit dennoch sehr klein. Das ging schon bei der 2900 XT mit 512 bit, hat damals aber sicher 20% des Die ausgemacht. Heute dürften es max 10 oder eher weniger sein.
Grundsätzlich richtig, allerdings gehört das SI zu den Blöcken auf dem Chip die nicht beliebig verkleinert werden können, da viele I/O Pins gebraucht werden. HBM hat zwar noch mehr Pins, diese werden aber per TSV über den ganzen Chip verteilt.
Krautmaster schrieb:
Ob HBM2 wirklich so viel sparsamer ist... Dachte da gab's mal ne Grafik die zeigte dass mit mehr Bandbreite der Verbrauch auch deutlich ansteigt pro Stack. Vega könnte man jetzt nicht grad behaupten dass HBM2 den Unterschied bei Effizienz und Chipgröße macht.
Wieviel HBM im Vergleich zu GDDR bringt kann man ohne einen Chip, der bis auf das SI identisch ist nur schwer sagen, denn der Einfluss des Speichers auf Gesamtleistung und -verbrauch ist dafür zu gering.
Krautmaster schrieb:
Nvidia dürfte mit GDDR6 weiterhin auf 256/384Bit für Consumer Produkte setzen. Is einfach noch rentabler.
Da stimme ich voll und ganz zu und auch bei AMD vermute ich, dass alle Chips bis auf das High-End Modell bei GDDR bleiben werden, zumindest in der aktuellen Generation (HBM2, GDDR5X/6).
Krautmaster schrieb:
Tesla wird HBM behalten. Da hat man ja auch 4Stacks oder vllt gar mehr in der nächsten Stufe. Das ist nochmal ne Ecke mehr Bandbreite als GDDR6.
Naja, GDDR6 am 512-Bit SI schaffen 1024GB/s und damit genau so viel wie HBM2 mit 4 Stacks. Bei den großen Chips dürfte aber die Größe des SI auf dem Chip und der Stromverbrauch eine bedeutendere Rolle spielen.
Ich dachte, mit HBM3 wird die Technik ohnehin stromfressender und daher nur etwas für Server.
Es war jedenfalls die richtige Entscheidung von NVIDIA bei Pascal hauptsächlich auch GDDR5(X) zu setzen. Der deutlich schnellere Nachfolger macht hier nur Sinn.
Bin gespannt wie viel VRAM auf die Grakas gepflanzt werden.
Gibt es schon Games die wirklich mehr als 8GB Vram benötigen?
Bei der vorherigen Generation wars ja so, dass das Top Modell (980 ti) mit 6gb Vram in manchen Games, in höheren Auflösungen, bereits vollgelaufen ist (ROTTR z.B.)
Gibt es nun Fälle wo man mit 8gb zu wenig hat?
Hatte nie über 6gb Vram belegt bei mir @ 1440p mit Ultra/AA etc. Vielleicht spiele ich halt einfach die "falschen" Games, deshalb hier die Frage.
Zusatz: Die Quake Arena Beta hat alles belegt gehabt, aber das tat das Game bei jedem System, egal ob 4 6 8 oder 11gb. ^^
[...]Und den Nachweis, dass HBM tatsächlich in Effizienz GDDR um Längen überlegen ist, sind uns bisher sowohl AMD als auch Nvidia schuldig geblieben (Die Teslas sind schließlich auch kein Wunderwerk an Effizienz. Die P100 hat 3584 Shader und 250W TDP. Absolut identisch zur 1080 Ti). [...]
In erster Linie würde ich hier darauf 'vertrauen', dass eine Heerschar von Ingenieuren bei NVidia und AMD/RTG mit Zugang zu den genauen Daten von den Speicherherstellern und den Simulationstools für die eigenen GPUs keinen so gravierenden Fehler macht und 'den falschen' Speicher verbaut.
Und vlt. sind die Teslas ja ein 'Wunderwerk an Effizienz'. Gibt es Benchmarks, in denen die HBM Teslas gegen eine Consumer 1080Ti antreten? (Keine Spiele Benchmarks, darauf sind sie schließlich nicht ausgelegt)
Vlt. haben die Teslas ja auf der GPU Seite mehr Spielraum, weil der Speicher weniger Strom verbraucht? Also vlt. kein 80/20 Verhältnis beim Verbrauch von GPU zu Speicher, sonder 90/10.