Fighter1993 schrieb:
Warum macht man das Speicherinterface eigentlich kleiner?
Die Breite des DRAM-Speicherinterfaces ist eine mögliche Stellschraube für Bandbreite zwischen Speicher und GPU. Weitere sind die Geschwindigkeit des verbauten Speichers sowie die Cache-Hierarchie, die über all ihre Instanzen auch mit reinspielt. Je nach Ausgangslage ist es günstiger, an verschiedenen Stellen anzusetzen, um die Bandbreite zu erhöhen.
Bei Ada mit TSMC N5/N4 war das beim Cache und bei der Geschwindigkeit der Fall. Bei N3 kann es wieder anders aussehen. Aktuell ist es bei TSMC so, dass kleinere Strukturgrößen nur noch den "logischen" Teil eines Chips signifikant kleiner werden lassen, nicht aber den SRAM und den analogen Teil, also bspw. das Speicherinterface. Daher bräuchte ein breites Interface in N3 in Relation mehr Fläche einer gegebenen GPU-Fläche als das in N5 noch der Fall war.
Ein großes Interface ist somit doppelt teuer: Nicht nur, dass es mehr Fläche benötigt als der Rest des Chips, es zieht noch nicht einmal Vorteile aus der kleineren Fertigung. Nvidia ist dem damit begegnet, dass Interfaces kleiner werden und schnellerer Speicher sowie mehr Cache (mehr als) kompensieren. AMD hingegen hat das Interface auf Module in größerer Struktur ausgelagert.
Tigerfox schrieb:
Und bei der Menge ist es nunmal leider so, dass man nur verdoppeln kann, entweder durch doppelt so große Module (4GB gibt es aber noch nicht) oder durch zwei Module pro Speichercontroller (Hälfte auf der Rückseite wie bei 3090 oder 4060Ti 16GB, daher schlecht zu kühlen.
Es wäre auch eine Option, ein beispielsweise 128 Bit breites Interface auf 96 Bit zu stutzen, um dann (per Clamshell) 12 statt 8 GB anzubinden, dafür aber statt z.B. 18 Gbps 22,5 Gbps schnellen Speicher zu wählen, um die Bandbreite identisch zu halten. (Ist aber vermutlich teurer als einfach 16 per clamshell anzuschließen, was dann aus produktpolitischen Überlegungen keine Option sein kann.)
Tigerfox schrieb:
Und beim AD104 hat NV sich defintiv verkalkuliert, weil 12GB an 192Bit einfach zu wenig für die Rohleistung sind.
Verkalkuliert haben werden sie sich bei ihrer RDNA-3-Prognose. Ich halte es nicht für unwahrscheinlich, dass die 4070 Ti die eigentliche 4070 ist und sie den Plan über den Haufen geworfen haben, als ihnen klar wurde, dass sie aufgrund AMDs Schwäche auch eine Ti draus machen können.
theGucky schrieb:
mein GDDR6X bei der 4090FE wird bei ~23,5Gbps schon heißer als der GPU Hotspot.
Der darf ja auch heißer werden, insofern ist das per se kein Problem. Spezifiziert ist er afaik bis 110 Grad, die GPU aber nicht.
theGucky schrieb:
Naja bei der 3080 war das nicht ver Fall... 699€ für 10 Chips und dicken 320bit Bus...
Das gabs da aber auch nur, weil die Chips in Samsungs 8nm schon so groß waren, dass mehr Cache keine Option war und schnellerer Speicher einfach nicht zur Verfügung stand. Der Preis wiederum war "so niedrig", weil man sich das einerseits erlauben konnte (Samsung) und es andererseits starke Konkurrenz gab (AMD).
Bei Ada aktuell und ich schätze auch bei Blackwell sieht das in vielerlei Hinsicht anders aus.