News Arbeitsspeicher: GDDR7, HBM3E und LPDDR5X werden weiter beschleunigt

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.346
  • Gefällt mir
Reaktionen: flo.murr, aid0nex, FLCL und 6 andere
Nun bleibt zu hoffen das Nvidia nicht künstlich die Bandbreite mit kleinen Speicherinterfaces beschneided ....... Freu mich schon auf ne 5080 mit 128 bit.
 
  • Gefällt mir
Reaktionen: Smartbomb, Gigaherz, M11E und 19 andere
Galarius schrieb:
Nun bleibt zu hoffen das Nvidia nicht künstlich die Bandbreite mit kleinen Speicherinterfaces beschneided ....... Freu mich schon auf ne 5080 mit 128 bit.
Denkst du wirklich das ein so breites Interface zum Einsatz kommt? 😅
 
  • Gefällt mir
Reaktionen: aid0nex, Nagilum99, Deinorius und 25 andere
Junge, HBM1 ist noch immer mehr als 3x schneller als GDDR7. Wenn der Preis da nicht wäre.
 
  • Gefällt mir
Reaktionen: Hate01 und Mr Peanutbutter
  • Gefällt mir
Reaktionen: aid0nex, qappVI, Coeckchen und 10 andere
Warum macht man das Speicherinterface eigentlich kleiner?
Spart das enorm Platz?

Weil ich sehe es schon kommen, die Top Karten werden auf 192bit beschnitten weil ist ja möglich.

Die alten AMD Karten hatten doch teilweise 512bit.
Ergänzung ()

Könnte mir das jemand bitte ausführlich erklären?
 
  • Gefällt mir
Reaktionen: aid0nex, NOX84, SweetOhm und 3 andere
Fighter1993 schrieb:
Warum macht man das Speicherinterface eigentlich kleiner?
Spart das enorm Platz?
Das spart enorm viiiel Watt beim Speicherkontroller, ... und beim Vram, weil weniger verbaut.
(ne 4070super-12GB ist dadurch automatisch sparsamer als ne 7900GRE-16GB
ne 4080-16GB ... ggü. der 7900XTX-24GB dito)

btw.
2GB-Module finde ich nicht sooo dolle, ... hätten ja auch 3GB sein können.
Evtl. wirds dann mehr Grakas mit beidseitiger Bestückung ala 4060Ti-16GB und 7600xt geben!?
(RDNA4 auf dem Board der 7600xt wäre so ein Fall, .... hätte dann mit GDDR7 die erf. 50% Reserve bei der Bandbreite)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: evilhunter und Fighter1993
Fighter1993 schrieb:
Warum macht man das Speicherinterface eigentlich kleiner?
Spart das enorm Platz?
Ausführlich kann ich es leider nicht erklären. Entweder hier oder im HWLuxx hat aber in einem Thread zu Blackwell oder zu den RTX 4000 Super-Karten genau das erklärt, was Du vermutest: Das Speicherinterface nimmt im Verhältnis zum Rest der GPU immer sehr viel Platz ein und breite SIs werden mit kleinerer Fertigung im Verhältnis immer teurer.

Ich habe daher den Eindruck, dass NV immer dann am SI spart, wenn das durch eine neue Speichertechnologie oder andere Fortschritte aufgefangen werden kann. Allerdings gab es bei Turing z.B. relativ breite SIs (TU106 mit 256Bit, RTX 2060 und TU116 auf GTX 1660 immer noch mit 192Bit), owbohl GDDR6 und GDDR6X neu waren.
Bei Ampere gab es da aber anfangs gar nichts neues bzw. erst später etwas schnelleren GDDR6(X), daher 320Bit bei der 3080 und 256Bit bei der 3060Ti.
Bei Ada gab es neben wieder etwas schnellerem GDDR6(X) deutlich größeren Cache. Bei Blackwell gibt es nun deutlich schnelleren GDDR7 und wohl auch nochmal mehr Cache. Allerdings werden die kleinen SIs kritisiert und mehr als 16GB bei 128Bit ist momentan nicht sinnvoll möglich.

GerryB schrieb:
ne 4070super-12GB ist dadurch automatisch sparsamer als ne 7900GRE-16GB)
Wie kommst Du auf den Blödsinn - da spielt doch wesentlich mehr rein als das SI, das kann man ja auch nicht zwischen zwei völlig unterschiedlichen Architekturen vergleichen.

Man könnte sehr gut 7900 GRE und 7900XT sowie 4070Ti und 4070Ti Super vergleichen, wobei die GRE hinsichtlich TDP sehr stark eingeschränkt ist.
GerryB schrieb:
btw.
2GB-Module finde ich nicht sooo dolle, ... hätten ja auch 3GB sein können.
Es gab vor Ampere und der Verfügbarkeit von 2GB-Modulen Ankündigungen mehrerer Speicherhersteller zu 1.5GB-Modulen, die aber nie den Markt erreicht haben. Leider.
 
  • Gefällt mir
Reaktionen: yummycandy
Wobei viel und schneller Speicher im Gamingbereich ja erstmal nichts aussagend ist.
Seit der Radeon VII wissen wir ja dass das Konzept nicht einfach so klappt, da muss das Außenrum auch noch passen.

War zwar mal ein spannender Ansatz aber da hat AMD sich glaube so die Finger dran verbrannt dass sie und auch die Konkurrenz vermutlich eher vorsichtig ist das im Consumerbereich nochmal zu versuchen.

Die Menge des Speichers bringt auch nichts wenn der viel zu hoch angesetzt ist (den man dann ja auch bezahlt) und 99% der Zeit nicht genutzt wird.

Für den KI Bereich gibt es die Karten ja schon mit HBM, da sehe ich die auch weiterhin erstmal nur und nicht in den Gaming Büchsen Daheim.

GerryB schrieb:
Evtl. wirds dann mehr Grakas mit beidseitiger Bestückung ala 4060Ti-16GB und 7600xt geben!?
Ich hoffe das werden wir nie wieder sehen, das war bei der 3090 damals die absolute Pest für die Kühlung.
Da haben die Module auf der Rückseite ja gerne mal mit 110°C vor sich hin gekocht. :D
 
  • Gefällt mir
Reaktionen: Innocience, Foxel, SweetOhm und eine weitere Person
Fighter1993 schrieb:
Warum macht man das Speicherinterface eigentlich kleiner?
Spart das enorm Platz?
Das macht man nicht um die "Gamer" zu verärgern, sondern weil es vom Speicher und pro verbauten CHIP abhängt, was sich auch auf die Preise auswirkt. Da jeder Chip einen eigenen Controller braucht, bestimmt die Anzahl der Chips auch die Anzahl der Contoller.
Diese können mit 16bit oder 32 bit Arbeiten / Angebunden sein.

ZB. 8 gb in 4x2 gb Chips = 4 Controller. Bindet man diese, sofern die Chips 32 Bit können, mit 32 bin an, ergibt das 4*32 Bit = 128 Bit.

Wenn jetzt neue und größere Chips kommen, zB 8gb große, die aber nur 32 bin können, wäre man bei 2 Chips für 16gb bei nur noch 64 Bit Speicherinterface.

Jeder Chip und jeder Controller dazu, der direkt in der GPU sitzt, kosten viel geld.
Eine GPU wird geplant und muss entsprechend für eine Chipmenge ausgelegt sein.
 
  • Gefällt mir
Reaktionen: SweetOhm, v_ossi, JDK91 und eine weitere Person
@eRacoon : Alles vollkommen richtig, wir haben abver in den letzten Jahren so einige Beispiele, die zu wenig Speicher haben und auch zu wenig Bandbreite (daran zu erkennen, dass sich in höheren Auflösungen plötzlich der Abstand zu Modellen mit überproportional höherer Bandbreite vergrößert und dass VRAM-OC 1:1 in Mehrleistung umgesetzt wird).

Die 4070Ti ist ein Beispiel für zu wenig Bandbreite, die 4070S und 4070 in gewissem Maße auch. Bei der 7900 GRE wird es ähnlich sein, die kriegt ja leider auch nur den alten 18Gbps-Speicher.

Und bei der Menge ist es nunmal leider so, dass man nur verdoppeln kann, entweder durch doppelt so große Module (4GB gibt es aber noch nicht) oder durch zwei Module pro Speichercontroller (Hälfte auf der Rückseite wie bei 3090 oder 4060Ti 16GB, daher schlecht zu kühlen.
Wenn bei den GA104-Karten 8GB zu wenig sind oder auch bei der 3080 10GB und aktuell ei vielen Karten 12GB knapp sind, dann sind 16, 20 und 24GB halt viel zu üppig, aber anders geht es nicht.

MasterWinne schrieb:
Eine GPU wird geplant und muss entsprechend für eine Chipmenge ausgelegt sein.
Und beim AD104 hat NV sich defintiv verkalkuliert, weil 12GB an 192Bit einfach zu wenig für die Rohleistung sind. Die 4070Ti könnte in UHD mehr, wie man an der nur wenig leistungsfähigeren 4070Ti Super sieht, die in UHD mit RT einen deutlich größeren Abstand zu 4070Ti aufbaut.
 
  • Gefällt mir
Reaktionen: SweetOhm, C4rp3di3m, evilhunter und eine weitere Person
Naja eine 5090 mit HBM3 wäre geil, aber ich nehme auch nen 384-bit Bus mit 24GB GDDR7 VRAM.
Nur müsste die Kühlung vom VRAM etwas besser werden, mein GDDR6X bei der 4090FE wird bei ~23,5Gbps schon heißer als der GPU Hotspot.
Aber je nach Preis und Leistung der 5090, würde ich vielleicht nur eine (deutlich) günstigere 5080 mit 16GB GDDR7 VRAM nehmen. Es muss auf jedenfall ein großer Leistungsschub von mindestens 50-60% da sein, bei denselben 300W meiner undervolteten 4090, bevor ich upgrade.
 
theGucky schrieb:
Nur müsste die Kühlung vom VRAM etwas besser werden, mein GDDR6X bei der 4090FE wird bei ~23,5Gbps schon heißer als der GPU Hotspot.
Wenn ich den Text richtig verstehe, dann geht GDDR7 genau dieses Problem durch den Kompromiß mit PAM-3 statt PAM-4 an.
 
MasterWinne schrieb:
Das macht man nicht um die "Gamer" zu verärgern, sondern weil es vom Speicher und pro verbauten CHIP abhängt, was sich auch auf die Preise auswirkt. Da jeder Chip einen eigenen Controller braucht, bestimmt die Anzahl der Chips auch die Anzahl der Contoller.
Naja bei der 3080 war das nicht ver Fall... 699€ für 10 Chips und dicken 320bit Bus...
 
  • Gefällt mir
Reaktionen: C4rp3di3m
MasterWinne schrieb:
Wenn jetzt neue und größere Chips kommen, zB 8gb große, die aber nur 32 bin können, wäre man bei 2 Chips für 16gb bei nur noch 64 Bit Speicherinterface
Würde dann bedeuten bei 8GB 8x1GB Chips und 512bit wären die Chips also mit 64Bit angebunden.

Aber wäre es denn überhaupt möglich 8GB Chips mit 32bit anzubinden?

Wie hängt denn der Durchsatz mit dem Bit zusammen?
Die RX 6400 ist doch so ein Krüppel wegen der PCI Anbindung.

Wie hängt das mit dem Speicherinterface zusammen.
Könnte mir vorstellen das 64 Bit gesamt Anbindung extrem begrenzen würde.
 
Zurück
Oben