C
Coeckchen
Gast
Fighter1993 schrieb:Warum macht man das Speicherinterface eigentlich kleiner?
Spart das enorm Platz?
Ja.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Fighter1993 schrieb:Warum macht man das Speicherinterface eigentlich kleiner?
Spart das enorm Platz?
Die Bits sind egal da es durch Cache ausgeglichen wird, was nicht egal ist wenn die Vram-Mengen darunter leiden. Immerhin hat AMD nun bewiesen das mit 128 Bit 16 GB möglich sind (7600 XT hat RAM auf beiden Seiten des boards). Somit wären mit 192 Bit auch 24 GB möglich falls es eben Nvidia zb umsetzen will. Problematisch waren diese Generation eigentlich nur die 4060 Ti, 8 GB ist zu wenig für eine GPU der gehobenen Mittelklasse (8 GB Version abschaffen), ab der 4070 ging es, 12 GB reicht grad so. Die 4060 ist mit 8 GB auch noch „okay“ gewesen (low-mid GPU), somit muss man hier nicht mehr Drama machen als es wirklich war. Bei AMD hatte keine GPU zu wenig und man bekam eigentlich mehr als genug im Schnitt.Galarius schrieb:Nun bleibt zu hoffen das Nvidia nicht künstlich die Bandbreite mit kleinen Speicherinterfaces beschneided ....... Freu mich schon auf ne 5080 mit 128 bit.
Die werden aber auch nicht unendlich viel Cache verbauen. Das kostet auch ordentlich Fläche. Wenn die irgendwann mal den Cache stacken oder in einen Base Die verstecken, dann relativiert sich das wieder.eazen schrieb:Die Bits sind egal da es durch Cache ausgeglichen wird, was nicht egal ist wenn die Vram-Mengen darunter leiden.
Das braucht man nicht beweisen, das wird seit Jahrzehnten so gemacht. Und gibt's bei der 4060Ti ja auch.eazen schrieb:Immerhin hat AMD nun bewiesen das mit 128 Bit 16 GB möglich sind (7600 XT hat RAM auf beiden Seiten des boards).
Die 7600 hat definitiv zu wenig. Zeigt ja auch die 7600XT.eazen schrieb:Bei AMD hatte keine GPU zu wenig und man bekam eigentlich mehr als genug im Schnitt.
Endlich. Ist auch für die neue Konsolen Generation unerlässlich.Tigerfox schrieb:Hab auch gerade erst gesehen, dass bei 32Gbps von 16-24Gb-Modulen und bei 36Gbps von 24Gb+ die rede ist. Also doch 3GB-Module! Damit sind 12GB an 128Bit, 16GB an 192Bit und 24GB an 256Bit möglich!
Coolio, rate mal wieso ich Nvidia in meinem Post geschrieben hatteeazen schrieb:Bei AMD hatte keine GPU zu wenig und man bekam eigentlich mehr als genug im Schnitt.
Nicht ganz. Du musst berücksichtigen dass bei gddr7 mehrere chips verwendet werden. 8x 37 = 296 vs 461 bei 16 gb macht "nur" 55 Prozent UnterschiedKokuswolf schrieb:Junge, HBM1 ist noch immer mehr als 3x schneller als GDDR7. Wenn der Preis da nicht wäre.
Dein Post hat generell wenig (eher keinen) Sinn gemacht, da hilft es dir auch nicht nach „Fehlern“ in meinem zu suchen um damit nen cope zu haben. Bits sind in dem Zusammenhang irrelevant, darüber regen sich generell nur Leute auf die von der Technik wenig verstehen. Geh dich mal über Cache informieren und was der bewirkt in der Technik. Leute wie du haben sich auch über die RX 6600 damals aufgeregt „nur 128 Bit“ bis dann kurze Zeit später das Theater beendet war und endlich alle verstanden hatten das es irrelevant ist und sogar ne Menge Strom spart.Galarius schrieb:Coolio, rate mal wieso ich Nvidia in meinem Post geschrieben hatte
Neben dem Platzbedarf hat ein größeres Speicherinterface auch relativ viel Verlustleistung.Fighter1993 schrieb:Warum macht man das Speicherinterface eigentlich kleiner?
Spart das enorm Platz?
Die alten AMD Karten hatten doch teilweise 512bit.
Die absolute Temperatur ist völlig egal. Solange die Chips innerhalb ihrer Spezifikationen laufen. Niedrige Temperaturen haben für sich gesehen keinen Nutzen.theGucky schrieb:Nur müsste die Kühlung vom VRAM etwas besser werden, mein GDDR6X bei der 4090FE wird bei ~23,5Gbps schon heißer als der GPU Hotspot.
Also eigentlich liegt der Vorteil in den 4GB zusätzlichen VRAM, schreibt CB ja selber. Und einen deutlich größeren Abstand sehe ich da jetzt nicht so wirklich, es sind immer so um die 10% von der 4070ti auf die 4070ti super. Bei 4K RT sind es dann 14%Tigerfox schrieb:Und beim AD104 hat NV sich defintiv verkalkuliert, weil 12GB an 192Bit einfach zu wenig für die Rohleistung sind. Die 4070Ti könnte in UHD mehr, wie man an der nur wenig leistungsfähigeren 4070Ti Super sieht, die in UHD mit RT einen deutlich größeren Abstand zu 4070Ti aufbaut.
Das Interface ist per se völlig nebensächlich, entscheidend ist die Bandbreite und wie effizient die GPU damit umgeht. Die Leistung einer RTX 4080 mit einer RTX 4060 neuen Speicher und 128 bit Interface wäre doch optimal.Galarius schrieb:Nun bleibt zu hoffen das Nvidia nicht künstlich die Bandbreite mit kleinen Speicherinterfaces beschneided ....... Freu mich schon auf ne 5080 mit 128 bit.
Was soll ein breites Interface bringen, wenn ein schmales in Verbindung mit etwas Cache Chipgröße spart und effizienter ist?PeacemakerAT schrieb:Denkst du wirklich das ein so breites Interface zum Einsatz kommt? 😅
Das kommt mir so vor wie bei manchen Autofans die keinen neuen Motoren wollen sondern einen schönen alten V8 Motor mit mega viel Hubraum. Das Ding ist heute schlechter als ein moderner effizienter V6. Da kann ich es allerdings noch nachvollziehen weil der Klang von so einem alten Motor einfach toll ist.Quidproquo77 schrieb:Was soll ein breites Interface bringen, wenn ein schmales in Verbindung mit etwas Cache Chipgröße spart und effizienter ist?
ich rede von genau dem was ich geredet habe xDTigerfox schrieb:Wovon redest Du, 32Gbps ab Ende 2024 sind schonal 33% mehr ggü. 24Gbps bei GDDR6(X) aktuell und ab Mitte/Ende 2026 dann 36Gbps sind 50% mehr?
Hab auch gerade erst gesehen, dass bei 32Gbps von 16-24Gb-Modulen und bei 36Gbps von 24Gb+ die rede ist. Also doch 3GB-Module! Damit sind 12GB an 128Bit, 16GB an 192Bit und 24GB an 256Bit möglich!
Achso. Nunja, das entspricht in etwa dem, was vorherige Generationen von der 1. zur 2. Gen geschafft haben. Wir müssen uns nunmal an längere Entwicklungszeiträume gewöhnen, weil technische Grenzen immer wschwieriger zu überwinden werden.Pestplatte schrieb:den sprung von gddr7 zu gddr7 gen2. also von ende 2024 bis 2028
Das müsste man erst einmal durch Tests feststellen. Die Karte verliert selbst in 4K kaum Leistung wegen der Bandbreite. Die Karte ist gut ausbalanciert, vor allem für WQHD.Tigerfox schrieb:Die 4070Ti ist ein Beispiel für zu wenig Bandbreite, die 4070S und 4070 in gewissem Maße auch.
In seltenen Fällen in 4K ja.Tigerfox schrieb:Und beim AD104 hat NV sich defintiv verkalkuliert, weil 12GB an 192Bit einfach zu wenig für die Rohleistung sind.
Ja, wenn sich daran nichts ändern sollte ist bereits klar, dass es nicht bei GDDR7 bis dahin bleiben wird, sondern eine andere (Sub-)technologie übernehmen würde.Pestplatte schrieb:den sprung von gddr7 zu gddr7 gen2. also von ende 2024 bis 2028