News Samsung GDDR6W: Doppelte Bandbreite und Kapazität für GPUs dank Stacking

Ich sehe abgesehen von den Kosten (dazu gibt es keine Zahlen) keinen Vorteil gegenüber HBM.
 
PegasusHunter schrieb:
Oh das ist ja toll, dann hat ja die 5090 auch 512 Bit Speicherbandbreitenanbindung, wie meine alte AMD R9 290X, jaja der Fortschritt ist nicht aufzuhalten :schluck: Wenn dann noch der Preis passt...
Fortschritt ist für mich nicht immer das Technisch machbare sondern auch das Bezahlbare. Wenn ich Ingenuer wäre, dann sorge ich doch dafür das der Kunde meine endwicklung auch bezahlen kann
 
Volker schrieb:
HBMs größter Vorteil war bisher die unerreichte Bandbreite, der größte Nachteil die kleine Kapazität und der hohe Preis. GDDR6 hat klar einen Bandbreitennachteil, konnte jedoch in der Kapazität und beim Preis überzeugen. GDDR6W soll nun die Lücke in der Bandbreite schließen...

HBMs größter Vorteil bei Bandbreite bleibt auch mit GDDR6W. GDDR6W erhöht die Bandbreite nicht bei gleich bleibendem Speicherinterface der Grafikkarte.

Eine verdopplung des Speicherinterfaces für GDDR6(W) kostet aber nicht nur wertvolle Chipfläche, sondern auch eine menge Energie, die man dann nicht mehr fürs Berechnen benutzen kann. Deswegen sind die GDDR6-Interfaces zuletzt eben nicht 512 bit, sondern max 384 bit und daran wird auch der neue GDDR6W nichts ändern. Deswegen solltest du deine News dahingehend korigieren, den der Zitierte Absatz ist nicht korrekt, den es gibt keinen Bandbreitenvorteil mit GDDR6W.

Den Bandbreitenvorteil gebe es nur dann, wenn GDDR7 bei gleich bleibendem Speicherinterface mehr Bandbreite liefern würde, oder wenn das doppelte Speicherinterface weniger Stromhungrieg wäre und weniger Die-Fläche bei der Grafikkarte verbrauchen würde, so wie dies bei HBM der Fall ist. Aber am Interface ändern GDDR6W ja nichts. Es sind einfach nur zwei Chips, die jetzt nicht neben einander liegen, sondern auf einander liegen. Das wars.
 
  • Gefällt mir
Reaktionen: bensen
ghecko schrieb:
Wenn sich die Bandbreite verdoppeln soll, muss das halt trotzdem entweder über die Frequenz vom Bus oder dessen Busbreite passieren. Und wie es aussieht wollen sie die Frequenz verdoppeln, damit man sich die teure Verbreiterung des Bussystems spart (breiteres Speicherinterface, mehr Pins, mehr Traces).
Ist halt von der Übertragungsphysik auch nicht unkritisch, da sehe ich bei HBM eine höhere Datenintegrität bei der Übertragung.
Naja, wenn man immer mehr VRAM auf die Grafikkarten packt und das mit normalem GDDR-Speicher dann zu immer mehr Chips führt - die entsprechen auch nicht alle besonders nah an der GPU sitzen können - ist das für die Signalübertragung und die mögliche Taktrate ebenfalls ungünstig.
Wenn man durch GDDR6W nur halb so viele Chips braucht und die näher an die GPU bringen kann, sind auch höhere Taktraten drin.

Dass HBM trotzdem besser wäre, ist klar, aber solange die Hersteller abseits von HPC-Gedöns keine Lust haben die Mehrkosten für HBM-Speicher zu tragen, ist das latz.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Beeindruckend, aber ich frage mich immer wie so ein neues Verfahren entwickelt wird? Wie man auf die Ideen und Umsetzung kommt?
 
Chesterfield schrieb:
wenn der Preis für den Endkunden nicht noch mehr ansteigt ( wahrscheinlich der Fall) , könnte man Potential sehen dass es sich durchsetzen kann.
Das ist jedoch auch mit Vorsicht zu genießen, denn das haben sie für HBM2 auch schon gesagt, dass es das neue "Mainstream" wird...

In der Technik setzt sich nicht immer das Beste, sondern das was breitflächig Akzeptanz findet durch.
Text gelesen oder mir überschrift? Weil darauf wird im Text eingegangen
Ergänzung ()

Shottie schrieb:
Beeindruckend, aber ich frage mich immer wie so ein neues Verfahren entwickelt wird? Wie man auf die Ideen und Umsetzung kommt?
Geld ist die Antwort
 
ghecko schrieb:
Und wenn ein GDDR6W Chip im Vergleich zu seinem Vorgänger die doppelte Bandbreite bietet, aber die Busbreite dieselbe bleibt, dann muss sich wohl die Übertragungsrate verdoppeln. So liest sich das aus dem Artikel.
Das steht da aber gar nicht und zusätzlich ist dort ein Bild mit den Spezifikationen abgebildet.

Wenn es hier um die Verdoppelung der Chipanzahl geht oder eine Mischung aus beidem, dann weiß ich nicht was jetzt der große Vorteil sein soll der hier hervorgebracht wird.
Sag ich ja. Letztendlich packen sie lediglich 2 Dice in ein Gehäuse. Das sagt auch der Text.

Außerdem ist dann die Aussage im Artikel faktisch falsch.
Nein, ist sie nicht, du interpretierst nur Dinge rein, die da nicht stehen. Allerdings kann man den Text durchaus missverstehen - da ist IMHO Luft nach oben.
 
Volker schrieb:
Genau hier liegt das Geld, ein Ada-Nachfolger mit 96 GB GDDR6W und kaum zusätzlichen Kosten gegenüber den RTX 4090/4080 wäre doch eine Gelddruckmaschine für Nvidia.
Passt dann aber nicht zu deiner News. Dann bräuchte die GPU ja auch ein doppelt so großes Speicherinterface.
Oder bietet dann Samsung x8 DRAM Dies an?
 
Chilisidian schrieb:
Der technische Fortschritt ist natürlich immer zu begrüßen. Speicherbandbreite ist jedoch bei der aktuellen Generation nichts, was die Leistung dieser Karten begrenzt.
Klar ist das der Fall. Wieso glaubdt du setzt NV zum Bsp einen so großen L2 Cache im Vergleich zum Vorgänger ein? Wenn sie es könnten, würden sie stattdessen auf mehr shader oder kleineren Chip nehmen. I/O und L2 Cache machen bei der 4090 ca (glaube ich) 30% des Chips aus.
 
Haldi schrieb:
Bei der RTX3090 war der RAM ja auch noch auf der Rückseite verbaut.
Bei der RTX4090 auch oder?
Die 3090 hat insgesamt 24 Chips à 8Gbit auf Vorder und Rückseite mit der Spezifikation 19,5Gbps
Die 3090Ti hat nur noch 12 Chips à 16Gbit auf der Vorderseite mit der Spezifikation 21Gbps
Die 4090 hat auch nur 12 Chips à 16Gbit auf der Vorderseite mit der Spezifikation 21Gbps
Die 4080 hat 8 Chips à 16Gbit auf der Vorderseite mit der Spezifikation 22,4Gbps

Micron hat aber auch schon seit nem guten halben Jahr 24Gbps GDDR6X gelistet.
 
pipip schrieb:
Klar ist das der Fall. Wieso glaubdt du setzt NV zum Bsp einen so großen L2 Cache im Vergleich zum Vorgänger ein? Wenn sie es könnten, würden sie stattdessen auf mehr shader oder kleineren Chip nehmen. I/O und L2 Cache machen bei der 4090 ca (glaube ich) 30% des Chips aus.
Der Sinn dieses L2 bei ADA und des Infinity Caches bei RDNA 2/3 ist es die erforderliche Speicherbandbreite bereitzustellen. Auf den externen Grafikspeicher muss nur bei Cachemisses zugegriffen werden und für diese Cachemisses benötigt man auch keine so hohe Speicherbandbreite, wie es der Fall wäre ohne großen internen Cache.

Dass die Speicherbandbreite zum externen Grafikspeicher nicht mehr kritisch ist, siehst Du daran, dass Nvidia bei 384 bit geblieben ist.

IMO ist dieser Speicher für Gaminggrafikkarten vollkommen uninteressant. Auf was bei Gaminggrafikkarten alle warten sind GDDR-Chips mit demselben Speicherinterface (32 bit) und 3 oder 4 GByte je Chip.

ruthi91 schrieb:
Micron hat aber auch schon seit nem guten halben Jahr 24Gbps GDDR6X gelistet.
Wo? Ich sehe auf der Micron-Website nur 2 Varianten mit 19 und 21 Gbps. Allerdings haben die nur 1 GByte.
 
Nun, ich mag die HBM2 Chips mit 2048 Bit Anbindung doch sehr in meiner Asus ROG Strix Arez Vega 64 OC. Mit 260 Watt läuft einfach alles auf Vollen Presets da ich nur auf Full HD spiele. Der Neue GDDR6 Samsung Speicher ist einfach zu teuer. Egal, Samsung will doch Samsung Extra Dollar haben. So wie Nvidia bei ihren extrem Überteuerten Grafikkarten. Am besten verkauft Nvidia ihre GPUs ab sofort inklusive einem STROM VERTRAG!
Ergänzung ()

bensen schrieb:
Passt dann aber nicht zu deiner News. Dann bräuchte die GPU ja auch ein doppelt so großes Speicherinterface.
Oder bietet dann Samsung x8 DRAM Dies an?
Ich hoffe wirklich dass Nvidia US so krass auf den Hintern fällt mit ihren Horenden GPU Preisen. Ich werde sicher keine Tausend Euro oder mehr für etwas bezahlen das drei Jahre Garantie hat oder auch mal vier Jahre. Aber das ist bei dem Stromverbrauch einfach eine wie ich finde eine absolute Frechheit! Gerade in der heutigen Zeit wo unsere Politiker versagt haben und nun schon Angst machen das im Januar oder Februar das Stromnetz zusammenbrechen könnte und man solle sich vorbereiten und Lebensmittel, Kerzen und Taschenlampen wie Batterien zu kaufen und Campinggas Kocher. Aber wer Rente von 700€ bekommt und davon 450€ für Miete und Strom den lässt die Politik dann doch lieber ganz still und heimlich, Sterben...Was soll's. Wer tot ist kann sich nicht mehr beschweren.
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Wo? Ich sehe auf der Micron-Website nur 2 Varianten mit 19 und 21 Gbps. Allerdings haben die nur 1 GByte.
https://www.micron.com/products/ultra-bandwidth-solutions/gddr6x/part-catalog
https://investors.micron.com/news-r...icron-gddr6x-increases-bandwidth-and-capacity
1669816568225.png

1669816667465.png
 
ETI1120 schrieb:
Der Sinn dieses L2 bei ADA und des Infinity Caches bei RDNA 2/3 ist es die erforderliche Speicherbandbreite bereitzustellen.
Danke für die Erklärung. Was ich meine, skaliert man ADA (oder potentiellen Nachfolger, selbst wenn es um 3nm geht) hoch wird der L2 Cache einen Großteil des Chip einnehmen. Wenn die Bandbreite von GDDRX nicht limitieren würde, würde man das nicht tun, weil Chipfläche teuer ist.
Und warum man das Si nicht vergrößert, dürfte wohl an dem Bedarf von noch mehr Fläche und eventuell komplizierteren Layout sowieso höheren Verbrauch liegen. Dazu braucht man nur r9 290 ansehen.
 
Zuletzt bearbeitet:

Ähnliche Themen

Zurück
Oben