Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Samsung GDDR6W: Doppelte Bandbreite und Kapazität für GPUs dank Stacking
- Ersteller Volker
- Erstellt am
- Zur News: Samsung GDDR6W: Doppelte Bandbreite und Kapazität für GPUs dank Stacking
Zimperlich
Cadet 2nd Year
- Registriert
- Sep. 2022
- Beiträge
- 26
Fortschritt ist für mich nicht immer das Technisch machbare sondern auch das Bezahlbare. Wenn ich Ingenuer wäre, dann sorge ich doch dafür das der Kunde meine endwicklung auch bezahlen kannPegasusHunter schrieb:Oh das ist ja toll, dann hat ja die 5090 auch 512 Bit Speicherbandbreitenanbindung, wie meine alte AMD R9 290X, jaja der Fortschritt ist nicht aufzuhalten Wenn dann noch der Preis passt...
Volker schrieb:HBMs größter Vorteil war bisher die unerreichte Bandbreite, der größte Nachteil die kleine Kapazität und der hohe Preis. GDDR6 hat klar einen Bandbreitennachteil, konnte jedoch in der Kapazität und beim Preis überzeugen. GDDR6W soll nun die Lücke in der Bandbreite schließen...
HBMs größter Vorteil bei Bandbreite bleibt auch mit GDDR6W. GDDR6W erhöht die Bandbreite nicht bei gleich bleibendem Speicherinterface der Grafikkarte.
Eine verdopplung des Speicherinterfaces für GDDR6(W) kostet aber nicht nur wertvolle Chipfläche, sondern auch eine menge Energie, die man dann nicht mehr fürs Berechnen benutzen kann. Deswegen sind die GDDR6-Interfaces zuletzt eben nicht 512 bit, sondern max 384 bit und daran wird auch der neue GDDR6W nichts ändern. Deswegen solltest du deine News dahingehend korigieren, den der Zitierte Absatz ist nicht korrekt, den es gibt keinen Bandbreitenvorteil mit GDDR6W.
Den Bandbreitenvorteil gebe es nur dann, wenn GDDR7 bei gleich bleibendem Speicherinterface mehr Bandbreite liefern würde, oder wenn das doppelte Speicherinterface weniger Stromhungrieg wäre und weniger Die-Fläche bei der Grafikkarte verbrauchen würde, so wie dies bei HBM der Fall ist. Aber am Interface ändern GDDR6W ja nichts. Es sind einfach nur zwei Chips, die jetzt nicht neben einander liegen, sondern auf einander liegen. Das wars.
Beitrag
Fleet Admiral
- Registriert
- Nov. 2011
- Beiträge
- 10.791
Naja, wenn man immer mehr VRAM auf die Grafikkarten packt und das mit normalem GDDR-Speicher dann zu immer mehr Chips führt - die entsprechen auch nicht alle besonders nah an der GPU sitzen können - ist das für die Signalübertragung und die mögliche Taktrate ebenfalls ungünstig.ghecko schrieb:Wenn sich die Bandbreite verdoppeln soll, muss das halt trotzdem entweder über die Frequenz vom Bus oder dessen Busbreite passieren. Und wie es aussieht wollen sie die Frequenz verdoppeln, damit man sich die teure Verbreiterung des Bussystems spart (breiteres Speicherinterface, mehr Pins, mehr Traces).
Ist halt von der Übertragungsphysik auch nicht unkritisch, da sehe ich bei HBM eine höhere Datenintegrität bei der Übertragung.
Wenn man durch GDDR6W nur halb so viele Chips braucht und die näher an die GPU bringen kann, sind auch höhere Taktraten drin.
Dass HBM trotzdem besser wäre, ist klar, aber solange die Hersteller abseits von HPC-Gedöns keine Lust haben die Mehrkosten für HBM-Speicher zu tragen, ist das latz.
Easy1991
Lt. Commander
- Registriert
- Mai 2022
- Beiträge
- 1.053
Text gelesen oder mir überschrift? Weil darauf wird im Text eingegangenChesterfield schrieb:wenn der Preis für den Endkunden nicht noch mehr ansteigt ( wahrscheinlich der Fall) , könnte man Potential sehen dass es sich durchsetzen kann.
Das ist jedoch auch mit Vorsicht zu genießen, denn das haben sie für HBM2 auch schon gesagt, dass es das neue "Mainstream" wird...
In der Technik setzt sich nicht immer das Beste, sondern das was breitflächig Akzeptanz findet durch.
Ergänzung ()
Geld ist die AntwortShottie schrieb:Beeindruckend, aber ich frage mich immer wie so ein neues Verfahren entwickelt wird? Wie man auf die Ideen und Umsetzung kommt?
Das steht da aber gar nicht und zusätzlich ist dort ein Bild mit den Spezifikationen abgebildet.ghecko schrieb:Und wenn ein GDDR6W Chip im Vergleich zu seinem Vorgänger die doppelte Bandbreite bietet, aber die Busbreite dieselbe bleibt, dann muss sich wohl die Übertragungsrate verdoppeln. So liest sich das aus dem Artikel.
Sag ich ja. Letztendlich packen sie lediglich 2 Dice in ein Gehäuse. Das sagt auch der Text.Wenn es hier um die Verdoppelung der Chipanzahl geht oder eine Mischung aus beidem, dann weiß ich nicht was jetzt der große Vorteil sein soll der hier hervorgebracht wird.
Nein, ist sie nicht, du interpretierst nur Dinge rein, die da nicht stehen. Allerdings kann man den Text durchaus missverstehen - da ist IMHO Luft nach oben.Außerdem ist dann die Aussage im Artikel faktisch falsch.
Passt dann aber nicht zu deiner News. Dann bräuchte die GPU ja auch ein doppelt so großes Speicherinterface.Volker schrieb:Genau hier liegt das Geld, ein Ada-Nachfolger mit 96 GB GDDR6W und kaum zusätzlichen Kosten gegenüber den RTX 4090/4080 wäre doch eine Gelddruckmaschine für Nvidia.
Oder bietet dann Samsung x8 DRAM Dies an?
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.418
Klar ist das der Fall. Wieso glaubdt du setzt NV zum Bsp einen so großen L2 Cache im Vergleich zum Vorgänger ein? Wenn sie es könnten, würden sie stattdessen auf mehr shader oder kleineren Chip nehmen. I/O und L2 Cache machen bei der 4090 ca (glaube ich) 30% des Chips aus.Chilisidian schrieb:Der technische Fortschritt ist natürlich immer zu begrüßen. Speicherbandbreite ist jedoch bei der aktuellen Generation nichts, was die Leistung dieser Karten begrenzt.
ruthi91
Captain
- Registriert
- Nov. 2007
- Beiträge
- 3.812
Die 3090 hat insgesamt 24 Chips à 8Gbit auf Vorder und Rückseite mit der Spezifikation 19,5GbpsHaldi schrieb:Bei der RTX3090 war der RAM ja auch noch auf der Rückseite verbaut.
Bei der RTX4090 auch oder?
Die 3090Ti hat nur noch 12 Chips à 16Gbit auf der Vorderseite mit der Spezifikation 21Gbps
Die 4090 hat auch nur 12 Chips à 16Gbit auf der Vorderseite mit der Spezifikation 21Gbps
Die 4080 hat 8 Chips à 16Gbit auf der Vorderseite mit der Spezifikation 22,4Gbps
Micron hat aber auch schon seit nem guten halben Jahr 24Gbps GDDR6X gelistet.
Der Sinn dieses L2 bei ADA und des Infinity Caches bei RDNA 2/3 ist es die erforderliche Speicherbandbreite bereitzustellen. Auf den externen Grafikspeicher muss nur bei Cachemisses zugegriffen werden und für diese Cachemisses benötigt man auch keine so hohe Speicherbandbreite, wie es der Fall wäre ohne großen internen Cache.pipip schrieb:Klar ist das der Fall. Wieso glaubdt du setzt NV zum Bsp einen so großen L2 Cache im Vergleich zum Vorgänger ein? Wenn sie es könnten, würden sie stattdessen auf mehr shader oder kleineren Chip nehmen. I/O und L2 Cache machen bei der 4090 ca (glaube ich) 30% des Chips aus.
Dass die Speicherbandbreite zum externen Grafikspeicher nicht mehr kritisch ist, siehst Du daran, dass Nvidia bei 384 bit geblieben ist.
IMO ist dieser Speicher für Gaminggrafikkarten vollkommen uninteressant. Auf was bei Gaminggrafikkarten alle warten sind GDDR-Chips mit demselben Speicherinterface (32 bit) und 3 oder 4 GByte je Chip.
Wo? Ich sehe auf der Micron-Website nur 2 Varianten mit 19 und 21 Gbps. Allerdings haben die nur 1 GByte.ruthi91 schrieb:Micron hat aber auch schon seit nem guten halben Jahr 24Gbps GDDR6X gelistet.
Nun, ich mag die HBM2 Chips mit 2048 Bit Anbindung doch sehr in meiner Asus ROG Strix Arez Vega 64 OC. Mit 260 Watt läuft einfach alles auf Vollen Presets da ich nur auf Full HD spiele. Der Neue GDDR6 Samsung Speicher ist einfach zu teuer. Egal, Samsung will doch Samsung Extra Dollar haben. So wie Nvidia bei ihren extrem Überteuerten Grafikkarten. Am besten verkauft Nvidia ihre GPUs ab sofort inklusive einem STROM VERTRAG!
Ergänzung ()
Ich hoffe wirklich dass Nvidia US so krass auf den Hintern fällt mit ihren Horenden GPU Preisen. Ich werde sicher keine Tausend Euro oder mehr für etwas bezahlen das drei Jahre Garantie hat oder auch mal vier Jahre. Aber das ist bei dem Stromverbrauch einfach eine wie ich finde eine absolute Frechheit! Gerade in der heutigen Zeit wo unsere Politiker versagt haben und nun schon Angst machen das im Januar oder Februar das Stromnetz zusammenbrechen könnte und man solle sich vorbereiten und Lebensmittel, Kerzen und Taschenlampen wie Batterien zu kaufen und Campinggas Kocher. Aber wer Rente von 700€ bekommt und davon 450€ für Miete und Strom den lässt die Politik dann doch lieber ganz still und heimlich, Sterben...Was soll's. Wer tot ist kann sich nicht mehr beschweren.bensen schrieb:Passt dann aber nicht zu deiner News. Dann bräuchte die GPU ja auch ein doppelt so großes Speicherinterface.
Oder bietet dann Samsung x8 DRAM Dies an?
Zuletzt bearbeitet:
ruthi91
Captain
- Registriert
- Nov. 2007
- Beiträge
- 3.812
https://www.micron.com/products/ultra-bandwidth-solutions/gddr6x/part-catalogETI1120 schrieb:Wo? Ich sehe auf der Micron-Website nur 2 Varianten mit 19 und 21 Gbps. Allerdings haben die nur 1 GByte.
https://investors.micron.com/news-r...icron-gddr6x-increases-bandwidth-and-capacity
Danke!ruthi91 schrieb:
Jetzt sehe ich die auch, ich hatte in meinem Link aus Google die Abfrage auf 8Gb drin, :-)
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.418
Danke für die Erklärung. Was ich meine, skaliert man ADA (oder potentiellen Nachfolger, selbst wenn es um 3nm geht) hoch wird der L2 Cache einen Großteil des Chip einnehmen. Wenn die Bandbreite von GDDRX nicht limitieren würde, würde man das nicht tun, weil Chipfläche teuer ist.ETI1120 schrieb:Der Sinn dieses L2 bei ADA und des Infinity Caches bei RDNA 2/3 ist es die erforderliche Speicherbandbreite bereitzustellen.
Und warum man das Si nicht vergrößert, dürfte wohl an dem Bedarf von noch mehr Fläche und eventuell komplizierteren Layout sowieso höheren Verbrauch liegen. Dazu braucht man nur r9 290 ansehen.
Zuletzt bearbeitet:
- Registriert
- Jan. 2018
- Beiträge
- 19.027
Was genau meinst du?pipip schrieb:man nur r9 290 ansehen
Ähnliche Themen
- Antworten
- 36
- Aufrufe
- 6.634