Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsSamsung: Entwicklung von GDDR7 mit 32 Gbps abgeschlossen
@MaC-87
Ein PC mit zwei DDR5 Riegeln überträgt auch ~100GB/s
Eine RTX 3070 hat 448GB/s Speicherbandbreite (mit 14Gbps Chips)
Die Speicherbandbreite berechnet sich aus:
7Ghz Speichertakt * 256bit Speicherinterface * 2 wegen DDR / 8 um von bits auf Byte zu kommen = 448GB/s
Eine fiktive RTX5070 mit ebenfalls 256bit Speicherinterface mit 32Gbps GDDR7 hätte:
16Ghz * 256bit * 2 / 8 = 1024GB/s
Plusminus die Magie durch 3bit pro 2 Takte.
Eine RTX 3090 ist mit 936GB/s Speicherbandbreite angegeben (mit 19,5 Gbps Chips)
9,75Ghz Speichertakt * 384bit Interface * 2 wegen DDR / 8 = 936GB/s
An dem Punkt steige ich selbst aus, da die 3090 ja GDDR6X Speicher hat, also wo ist der Vorteil?
Erstmal warten ob bei der Mehrperformance auch gleich wieder Quadratisch mehr Energie benötigt wird.
Es ist leider gerade übern Teich Brauch zwar mit "schneller und sparsamer" zu werben, aber man kann nicht beides zugleich haben.
Selbst wenn, würde AMD / NVIDIA einfach ein kleineres Speicherinterface verbauen. Die Leuten sollen halt DLSS (Renderauflösung 1280x720) + Frame Generation nutzen damit Sie spielen können.
Das Feature gehört gefälligst in die Marge und nicht dem Kunden xD
Die Latenz ist halt gegenüber normalen DRAM deutlich schlechter.
Ob die CPU davon profitiert wäre sehr Anwendungsabhängig. In vielen Anwendungen (z.B. Spiele) dürfte die Performance leiden.
@Overprime
Wenn der Cache entsprechend Groß ist, gibt es damit ja auch kein Problem. Ist dann halt teurer als ein großes Interface zu verbauen (aber geringere Leistungsaufnahme).
@MaC-87 Apple nutzt LPDDR5 6400 an einem 128b Interface beim normalen M2. Zum Vergleich kommen 18 Gbps GDDR6 Chips an einem 128b Interface (4060TI) auf 288 GB/s. 32 Gbps GDDR7 ist nochmal eine ganze Ecke schneller.
Auch wenn's nur im Nebensatz in der News vorkommt: Mich würde jetzt brennend interessieren, wie man einen Epoxy auf hohe thermische Leitfähigkeit optimiert.
GDDR7 wird hoffentlich auch für mehr Speicher und Bandbreite genutzt als für "Einsparungen" die nur dem Hersteller was Bringen ^^
Ergänzung ()
Rickmer schrieb:
Auch wenn's nur im Nebensatz in der News vorkommt: Mich würde jetzt brennend interessieren, wie man einen Epoxy auf hohe thermische Leitfähigkeit optimiert.
Initial würde ich sagen Metallpartikelmatrix oder aromatische Gruppen ^^ beide geben phononische Schwingungen exzellent weiter. Bei Feststoffen gilt ohnehin je höher die Dichte/ das Atomgewicht desto besser die thermische Leitfähigkeit.
Es gab auch noch einen Zusammenhang über den E Modul, den bekomm ich jetzt aber aus dem Stegreif nicht mehr zusammen.
Jedenfalls erklärt dieser die hohe thermische Leitfähigkeit von Beispielsweise Diamanten
Ich hoffe Intel wird sich als Kontrast da wenigstens mit zukünftigen Arc Produkten vergleichsweise hervortun und nVidia und AMD/RTG damit Marktanteile abnehmen können.
Das glaube ich nicht. Die haben noch viel aufzuholen. Und die Heiligen Samariter sind sie auch nicht.
Beim Rest von ich bei dir. Hatte das auch schon an anderer Stelle geschrieben. Zuerst war ich nicht überzeugt von DLSS/FRS jetzt schon. Aber dann kam 2023 und die miesen Releases und Ports schreien bei Release nach Upsacaling um vernünftige FPS zu liefern. Ich denke das haben wir Gamer uns vor 2-3 Jahren anders gedacht, das man jetzt etwas länger mit einer Karte auskommt. Aber bei der unoptimierten Resourcen Verschwendung die sich AAA Titel 2023 nennt ist der Traum wohl geplatzt.
Zum Thema GDDR7 in 2024 passt doch gibt ja erste berichte das vor Ende 2024 oder sogar erst Anfang 2025 die nächste Grafikkarten Generation kommt. Dann hat Samsung vielleicht auch die 36Gbs lieferbar.
256Bit vs 384Bit ist billiger, leichter zu Routen und leichter hohe Taktraten zu erreichen (weniger Leitungen)
8 Speicherchips brauchen weniger Saft als 12 (siehe 3090 und 4090 vs 3070 und 4080 Idle Multimonitor, oder im Extremfall 6900XT vs 7900XTX)
@bad_sign Nein mir gehts darum, dass der Vorteil von GDDR6X nicht in der angegebenen Speicherbandbreite sichtbar ist. Oder meine Rechnung ist falsch?
Deswegen schrieb ich ja auch "plus die Magie von 3bit pro 2 Takte bei GDDR7"
(Und man sich bei der 3060Ti und 3070Ti die Frage stellen muss wo der Effizienzvorteil geblieben ist, beide Karten verbrauchen überproportional mehr Strom für den Leistungsgewinn, ein Effizienzvorteil ist nicht vorhanden sondern offensichtlich nur ein Nachteil)
Der idle und Niedriglast - Verbrauch meiner Vega64 mit HBM war schon nice, für 50€ Aufschlag auf aktuelle GPU's würde ich ohne zu zögern mitmachen.
Da ist meine jetzige 6800XT weit entfernt.
Neu bei GDDR7 ist wie erwartet der Wechsel in der Signalübertragung auf die dreistufige Pulsamplitudenmodulation (PAM-3) von der zuvor genutzten NRZ-Technik (Non-Return-to-Zero).
Ich stehe gerade etwas auf dem Schlauch. GDDR6X nutzt ja bereits PAM4, aber kam bei GDDR6 nicht PAM3 zum Einsatz, oder irre ich mich diesbezüglich? Konnte die News dazu auf die Schnelle nicht finden, aber kürzlich wurde hier bereits über GDDR7 berichtet und dann über PAM3 vs PAM4 diskutiert. Letztendlich ging es dabei um den "Rückschritt" von PAM4 (GDDR6X) zu PAM3 (GDDR7), aber da AMD-Karten ja noch GDDR6 verwenden, nahm ich an, dass dies PAM3 impliziert, da deren Leistung ja trotzdem recht nah an Nvidia ist, wodurch NRZ für mich eher unplausibel erschien.
Immer ruhig durch die Hose atmen, mir geht es dabei keineswegs um Kostenersparnis sondern um Abwärme, Lautstärke im idle, Office-Betrieb
Und jetzt komm mir nicht mit Zero Fan Modus, die GPU ist dabei natürlich leise, die CPU und Gehäuselüfter sind dies indes nicht. Die Abwärme von 40 - 50 ° wird ja zudem dennoch ins Büro abgeführt. (Sommer)
Btw, sind deine 0,1W bei weitem nicht mal ansatzweise der Unterschied zwischen V64 und 6800XT, aber wie gesagt, der Stromverbrauch spielt für mich nur in Sachen Abwärme eine Rolle und keinesfalls bei den Kosten.
Nein mir gehts darum, dass der Vorteil von GDDR6X nicht in der angegebenen Speicherbandbreite sichtbar ist. Oder meine Rechnung ist falsch?
Deswegen schrieb ich ja auch "plus die Magie von 3bit pro 2 Takte bei GDDR7"
Du hast bereits mit den effektiven Taktraten gerechnet, da ist die "Magie" bereits inkludiert Die internen "echten" Taktraten sind ganz andere, die ist bei GDDR6X beispielsweise niedriger als bei GDDR6, wird aber eben mit der höheren Bitzahl pro Takt überkompensiert.
Zusammengefasst:
GDDR1 -> GDDR2: Prefetch von 2 auf 4 verdoppelt
GDDR3 -> GDDR4: Prefetch von 4 auf 8 verdoppelt
GDDR5 -> GDDR5X: Prefetch von 8 auf 16 verdoppelt
GDDR5X -> GDDR6: von DDR auf QDR
GDDR6 ->GDDR6X: NRZ auf PAM4
Jeder dieser Schritte verdoppelt die theoretische Bandbreite, vorausgesetzt der interne Takt des Speichers bleibt gleich. Das ist jedoch so gut wie nie der Fall am Beginn einer neuen Speichergeneration, da erstens höhere Ansprüche an Signalübertragung und Speichercontroller gestellt werden und zweitens ein niedrigerer interner Takt auch den Verbrauch reduziert.