News Samsung: Entwicklung von GDDR7 mit 32 Gbps abgeschlossen

MaC-87 schrieb:
GDDR7 bietet aktuell Geschwindigkeiten von 32 Gbps bzw. 36 Gbps.
Das ist der Durchsatz eines Speicherchips.

MaC-87 schrieb:
Apple gibt an das z.B. ihr M2 Chip eine unified memory Bandbreite von 100 GB/s hat.
Das ist die Bandbreite über alle Speicherchips.

MaC-87 schrieb:
100 GB/s = 800 Gbps
Kann da sein?
Ist die Anbindung so viel schneller?
Zum Vergleich, eine RTX 4090 kommt schon jetzt auf über 1.000 GB/s (und das mit "lahmem" GDDR6X).
 
  • Gefällt mir
Reaktionen: schneeland, LamaMitHut und Elverado
@MaC-87
Ein PC mit zwei DDR5 Riegeln überträgt auch ~100GB/s

Eine RTX 3070 hat 448GB/s Speicherbandbreite (mit 14Gbps Chips)
Die Speicherbandbreite berechnet sich aus:
7Ghz Speichertakt * 256bit Speicherinterface * 2 wegen DDR / 8 um von bits auf Byte zu kommen = 448GB/s

Eine fiktive RTX5070 mit ebenfalls 256bit Speicherinterface mit 32Gbps GDDR7 hätte:
16Ghz * 256bit * 2 / 8 = 1024GB/s
Plusminus die Magie durch 3bit pro 2 Takte.

Eine RTX 3090 ist mit 936GB/s Speicherbandbreite angegeben (mit 19,5 Gbps Chips)
9,75Ghz Speichertakt * 384bit Interface * 2 wegen DDR / 8 = 936GB/s
An dem Punkt steige ich selbst aus, da die 3090 ja GDDR6X Speicher hat, also wo ist der Vorteil?
 
  • Gefällt mir
Reaktionen: Smartbomb, HaRdWar§FreSseR und MaC-87
Erstmal warten ob bei der Mehrperformance auch gleich wieder Quadratisch mehr Energie benötigt wird.
Es ist leider gerade übern Teich Brauch zwar mit "schneller und sparsamer" zu werben, aber man kann nicht beides zugleich haben.

Selbst wenn, würde AMD / NVIDIA einfach ein kleineres Speicherinterface verbauen. Die Leuten sollen halt DLSS (Renderauflösung 1280x720) + Frame Generation nutzen damit Sie spielen können.
Das Feature gehört gefälligst in die Marge und nicht dem Kunden xD
 
Ich sehe den nächsten Schritt der ~250 Euro Grafikkarten bei 96 Bit Bandbreite.
 
X Cellence schrieb:
Nett
Aber hätte lieber HBM auf den nächsten Gamerkarten gehabt

Kannst du knicken, es wird so schnell kein HBM mehr im Consumer-Bereich geben.
Ergänzung ()

Overprime schrieb:
Ich sehe den nächsten Schritt der ~250 Euro Grafikkarten bei 96 Bit Bandbreite.
Wieso 96, man kann es doch von 64 auf 48 Bit reduzieren, da ja 40% mehr Bandbreite da ist :freak::evillol:
 
  • Gefällt mir
Reaktionen: Smartbomb, usernamehere und Coeckchen
the_pi_man schrieb:
Davon 64 GB auf dem Motherboard verlötet würde mal einenn ordentlichen Boost bringen.
Die Latenz ist halt gegenüber normalen DRAM deutlich schlechter.
Ob die CPU davon profitiert wäre sehr Anwendungsabhängig. In vielen Anwendungen (z.B. Spiele) dürfte die Performance leiden.

@Overprime
Wenn der Cache entsprechend Groß ist, gibt es damit ja auch kein Problem. Ist dann halt teurer als ein großes Interface zu verbauen (aber geringere Leistungsaufnahme).

@MaC-87 Apple nutzt LPDDR5 6400 an einem 128b Interface beim normalen M2. Zum Vergleich kommen 18 Gbps GDDR6 Chips an einem 128b Interface (4060TI) auf 288 GB/s. 32 Gbps GDDR7 ist nochmal eine ganze Ecke schneller.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Tanzmusikus
Auch wenn's nur im Nebensatz in der News vorkommt: Mich würde jetzt brennend interessieren, wie man einen Epoxy auf hohe thermische Leitfähigkeit optimiert.
 
Können dann gleich 2GB chips herstellen und die 1gb produktion gar nicht erst starten mit GDDR7 ;) .
 
Chesterfield schrieb:
aber warum einer zukünftigen RTX5050 mehr geben wenn es entry gamer zufrieden stellen soll.
Du meinst die 5060 (Ti) für 600€ :D

Spaß beiseite.

GDDR7 wird hoffentlich auch für mehr Speicher und Bandbreite genutzt als für "Einsparungen" die nur dem Hersteller was Bringen ^^
Ergänzung ()

Rickmer schrieb:
Auch wenn's nur im Nebensatz in der News vorkommt: Mich würde jetzt brennend interessieren, wie man einen Epoxy auf hohe thermische Leitfähigkeit optimiert.
Initial würde ich sagen Metallpartikelmatrix oder aromatische Gruppen ^^ beide geben phononische Schwingungen exzellent weiter. Bei Feststoffen gilt ohnehin je höher die Dichte/ das Atomgewicht desto besser die thermische Leitfähigkeit.

Es gab auch noch einen Zusammenhang über den E Modul, den bekomm ich jetzt aber aus dem Stegreif nicht mehr zusammen.

Jedenfalls erklärt dieser die hohe thermische Leitfähigkeit von Beispielsweise Diamanten
 
  • Gefällt mir
Reaktionen: kiffmet, Chesterfield und Rickmer
Chismon schrieb:
Ich hoffe Intel wird sich als Kontrast da wenigstens mit zukünftigen Arc Produkten vergleichsweise hervortun und nVidia und AMD/RTG damit Marktanteile abnehmen können.
Das glaube ich nicht. Die haben noch viel aufzuholen. Und die Heiligen Samariter sind sie auch nicht.
Beim Rest von ich bei dir. Hatte das auch schon an anderer Stelle geschrieben. Zuerst war ich nicht überzeugt von DLSS/FRS jetzt schon. Aber dann kam 2023 und die miesen Releases und Ports schreien bei Release nach Upsacaling um vernünftige FPS zu liefern. Ich denke das haben wir Gamer uns vor 2-3 Jahren anders gedacht, das man jetzt etwas länger mit einer Karte auskommt. Aber bei der unoptimierten Resourcen Verschwendung die sich AAA Titel 2023 nennt ist der Traum wohl geplatzt.

Zum Thema GDDR7 in 2024 passt doch gibt ja erste berichte das vor Ende 2024 oder sogar erst Anfang 2025 die nächste Grafikkarten Generation kommt. Dann hat Samsung vielleicht auch die 36Gbs lieferbar.
 
ruthi91 schrieb:
An dem Punkt steige ich selbst aus, da die 3090 ja GDDR6X Speicher hat, also wo ist der Vorteil?
256Bit vs 384Bit ist billiger, leichter zu Routen und leichter hohe Taktraten zu erreichen (weniger Leitungen)
8 Speicherchips brauchen weniger Saft als 12 (siehe 3090 und 4090 vs 3070 und 4080 Idle Multimonitor, oder im Extremfall 6900XT vs 7900XTX)
 
the_pi_man schrieb:
Davon 64 GB auf dem Motherboard verlötet würde mal einenn ordentlichen Boost bringen.
Kommt drauf an wie nahe den an GPU und CPU packen kannst und wie dies dann abgebunden wäre.

Auch ob dies dann der einzige Speicher ist oder zusätzlich was aber sicherlich Verwaltungsaufwand ist.

Generell sehe ich es eher kritisch. Dann eher noch eine Mega-APU mit GPU+CPU+RAM auf einem Package.
Ergänzung ()

Rejin schrieb:
Vielleicht sollte man Samsung mal den Tipp geben, dass sie an NVIDIA nichts kleiner als 16GB verkaufen sollten :'D
Verkauft wird aber deutlich kleiner und zwar in 2GB Packages die dann zusammen auf die GPU kommen. Macht dann 8x2GB die mit je 32 Bit angebunden sind.

Bei 16 GB Packages hättest sonst bei 16 GB nur ein 32 Bit RAM Interface - das wird wohl auch keiner wollen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus
@bad_sign Nein mir gehts darum, dass der Vorteil von GDDR6X nicht in der angegebenen Speicherbandbreite sichtbar ist. Oder meine Rechnung ist falsch?
Deswegen schrieb ich ja auch "plus die Magie von 3bit pro 2 Takte bei GDDR7"

(Und man sich bei der 3060Ti und 3070Ti die Frage stellen muss wo der Effizienzvorteil geblieben ist, beide Karten verbrauchen überproportional mehr Strom für den Leistungsgewinn, ein Effizienzvorteil ist nicht vorhanden sondern offensichtlich nur ein Nachteil)
 
Lord B. schrieb:
Der idle und Niedriglast - Verbrauch meiner Vega64 mit HBM war schon nice, für 50€ Aufschlag auf aktuelle GPU's würde ich ohne zu zögern mitmachen.
Da ist meine jetzige 6800XT weit entfernt.
Was meinst du denn wie lange du für die 50€ bei 0,1W unter Last bzw. 0,01W im Idle weniger hättest warten müssen um die 50€ wieder reinzuholen?

Seltsames Argument, aber das Argument „hohe Stromkosten“ und dann geht es immer um Stromkosten im Centbereich hört man ja aktuell öfter.

Dass die 6800 XT einen so hohen Idle Verbrauch ausweist liegt übrigens nicht hauptsächlich an fehlendem HBM.
 
Neu bei GDDR7 ist wie erwartet der Wechsel in der Signalübertragung auf die dreistufige Pulsamplitudenmodulation (PAM-3) von der zuvor genutzten NRZ-Technik (Non-Return-to-Zero).
Ich stehe gerade etwas auf dem Schlauch. GDDR6X nutzt ja bereits PAM4, aber kam bei GDDR6 nicht PAM3 zum Einsatz, oder irre ich mich diesbezüglich? Konnte die News dazu auf die Schnelle nicht finden, aber kürzlich wurde hier bereits über GDDR7 berichtet und dann über PAM3 vs PAM4 diskutiert. Letztendlich ging es dabei um den "Rückschritt" von PAM4 (GDDR6X) zu PAM3 (GDDR7), aber da AMD-Karten ja noch GDDR6 verwenden, nahm ich an, dass dies PAM3 impliziert, da deren Leistung ja trotzdem recht nah an Nvidia ist, wodurch NRZ für mich eher unplausibel erschien.
 
Zuletzt bearbeitet:
MalWiederIch schrieb:
Was meinst du denn wie lange du für die 50€ bei 0,1W unter Last bzw. 0,01W im Idle weniger hättest warten müssen um die 50€ wieder reinzuholen?
Immer ruhig durch die Hose atmen, mir geht es dabei keineswegs um Kostenersparnis sondern um Abwärme, Lautstärke im idle, Office-Betrieb

Und jetzt komm mir nicht mit Zero Fan Modus, die GPU ist dabei natürlich leise, die CPU und Gehäuselüfter sind dies indes nicht. Die Abwärme von 40 - 50 ° wird ja zudem dennoch ins Büro abgeführt. (Sommer)

Btw, sind deine 0,1W bei weitem nicht mal ansatzweise der Unterschied zwischen V64 und 6800XT, aber wie gesagt, der Stromverbrauch spielt für mich nur in Sachen Abwärme eine Rolle und keinesfalls bei den Kosten.
 
Zuletzt bearbeitet:
ruthi91 schrieb:
Nein mir gehts darum, dass der Vorteil von GDDR6X nicht in der angegebenen Speicherbandbreite sichtbar ist. Oder meine Rechnung ist falsch?
Deswegen schrieb ich ja auch "plus die Magie von 3bit pro 2 Takte bei GDDR7"
Du hast bereits mit den effektiven Taktraten gerechnet, da ist die "Magie" bereits inkludiert ;) Die internen "echten" Taktraten sind ganz andere, die ist bei GDDR6X beispielsweise niedriger als bei GDDR6, wird aber eben mit der höheren Bitzahl pro Takt überkompensiert.
 
  • Gefällt mir
Reaktionen: ruthi91
Hast du noch mehr Infos dazu wo ich mich einlesen kann?
 
Leider hab ich dazu keinen guten Artikel auf Lager, nur eine Wikipediatabelle:
https://de.wikipedia.org/wiki/Graphics_Double_Data_Rate

Zusammengefasst:
GDDR1 -> GDDR2: Prefetch von 2 auf 4 verdoppelt
GDDR3 -> GDDR4: Prefetch von 4 auf 8 verdoppelt
GDDR5 -> GDDR5X: Prefetch von 8 auf 16 verdoppelt
GDDR5X -> GDDR6: von DDR auf QDR
GDDR6 ->GDDR6X: NRZ auf PAM4

Jeder dieser Schritte verdoppelt die theoretische Bandbreite, vorausgesetzt der interne Takt des Speichers bleibt gleich. Das ist jedoch so gut wie nie der Fall am Beginn einer neuen Speichergeneration, da erstens höhere Ansprüche an Signalübertragung und Speichercontroller gestellt werden und zweitens ein niedrigerer interner Takt auch den Verbrauch reduziert.
 
Zurück
Oben