News GeForce RTX 3070 16 GB: Modder verdoppelt den Grafikspeicher für mehr FPS

@Mimir Deine Erläuterungen stimmen und dagegen sage ich auch nichts. Ich persönlich habe jedoch ein Problem damit, wenn man Nvidias Weg als den einzig richtigen darstellt. AMD ist nicht gezwungen jetzt ähnlich große finanzielle Investitionen in die Raytracingforschung zu stecken, das könnten sie vermutlich auch gar nicht. Selbst eine eher konservative Haltung muss kein Fehler sein. Warum herrscht überhaupt die Meinung vor, das wir nun so schnell wie möglich die gesamte Beleuchtung in Spielen auf Pathtracing umstellen müssen. Nur weil Nvidia als unangefochtener Marktführer der Meinung ist, das muss so sein? Es gibt genügend Beispiele, wo selbst Rasterisierung immer noch hervorragende Resultate liefert. Und zum Schluss macht Grafik immer noch den geringsten Anteil an einem guten Spiel aus. Von daher ist der teilweise vorherrschende Eifer bei RT/PT völlig unnötig. Für die allermeisten Gamerinnen und Gamer steht eine physikalisch zu 100% korrekt ausgeleuchtete Spielwelt sowieso eher unten auf der Liste. Nur für eine kleine Minderheit von Enthusiasten ist das absolut wichtig.

Wenn man sich bloß mal Fortnite in der UE5.1 auf der PS5 oder Xbox Series X in 60 FPS anschaut, werden also nur die extremsten RT-Enthusiasten etwas an der Grafik bemängeln. Der Rest ist davon restlos begeistert... Also liegt AMD mit seiner Herangehensweise schon einmal nicht falsch.
 
  • Gefällt mir
Reaktionen: Dittsche und Dai6oro
chucky89 schrieb:
Geil wäre, wenn man mit einen der vorhandenen PCI Slots, einfach den VRAM nachrüsten könnte, anstatt direkt ne neue Graka zu kaufen.
Hab selbst ne 3070 vor 1 Jahr gekauft und finde es echt schade, wenn die jetzt schon veraltet wäre...
Das wäre viel zu langsam.
 
Der vram muss sehr nah am chip sein da die latenz ansonsten zu groß wird.
Gpu haben ne Latenz zwischen 1,2 bis 1,5ns Ddram wo der ram gesockelt ist min 60ns bis 120ns
quasi ist vram schneller als die L3 cache von etwa 10ns bei aktuellen cpu's.
Darum lässt sich vram auch nicht nachträglich erweitern.
Die alten zeiten wo man ramchips auf der platine einsetzen konnte waren noch 2d Grafikkarten
Und das gab es nur deswegen weil man ansonsten durch die dos/fat begrenzung dem systemram limitierte
Den jede hardware brauchte reservierten ram und manuell jede irql beim letzten bit zuweisen warn akt.
 
@Vitche
So eine Mod gab es schon vor ziemlich genau 2 Jahren von dem russischen Modder VIK-on - ist also nichts neues:
https://videocardz.com/newz/modder-puts-16gb-memory-on-geforce-rtx-3070-and-it-works

Der hat auch den Speicher einer 2060 verdoppelt z.B.
 
Schade dass es sowas heute nicht mehr von den Boardpartnern gibt.
Glaube das war meine GTX680 damals die es von (ich meine) KFA2 mit doppelten Speicher gab. Waren dann 4 statt 2 wenn ich mich recht erinnere.
 
TigerherzLXXXVI schrieb:
@Mimir Deine Erläuterungen stimmen und dagegen sage ich auch nichts. Ich persönlich habe jedoch ein Problem damit, wenn man Nvidias Weg als den einzig richtigen darstellt.
Das hat hier auch niemand behauptet. Oder wer hat das so geschrieben ?

TigerherzLXXXVI schrieb:
AMD ist nicht gezwungen jetzt ähnlich große finanzielle Investitionen in die Raytracingforschung zu stecken,
Wenn sie zukünftig mithalten wollen ? Doch. Oder du kaufst eine Karte mit tollen "zukunftssicheren" 32GB VRAM die aber keine Zukunfts-Render-Technologie beherrscht. Geil.

TigerherzLXXXVI schrieb:
das könnten sie vermutlich auch gar nicht.
Können schon, kostet halt a) Geld und b) schwerer eine gute Marge zu fahren weil die Chipdesigns aufwendiger und die Chips selbst größer werden.

TigerherzLXXXVI schrieb:
Selbst eine eher konservative Haltung muss kein Fehler sein. Warum herrscht überhaupt die Meinung vor, das wir nun so schnell wie möglich die gesamte Beleuchtung in Spielen auf Pathtracing umstellen müssen. Nur weil Nvidia als unangefochtener Marktführer der Meinung ist, das muss so sein?
Weil es einfach der nächste Schritt für mehr Immersion in Spielen ist ? Woher die ablehnende Haltung gegenüber allem neuen und technisch besseren ? Hat das früher jemand bei T&L gefragt ? Oder wars da genehm ? Oder bei Tesselation ? Warum hat man überhaupt von 2D auf 3D gewechselt ? Was man da alles an Leistung hätte sparen können...

TigerherzLXXXVI schrieb:
Es gibt genügend Beispiele, wo selbst Rasterisierung immer noch hervorragende Resultate liefert. Und zum Schluss macht Grafik immer noch den geringsten Anteil an einem guten Spiel aus. Von daher ist der teilweise vorherrschende Eifer bei RT/PT völlig unnötig. Für die allermeisten Gamerinnen und Gamer steht eine physikalisch zu 100% korrekt ausgeleuchtete Spielwelt sowieso eher unten auf der Liste. Nur für eine kleine Minderheit von Enthusiasten ist das absolut wichtig.
Dann kannst du ja den Fokus auf eine Karte legen die günstig ist, wo ist das Problem ? Bist somit ja mit der 5700 auf Jahre gut angelegt. Grafik ist ja eh nicht wichtig, macht nur einen geringen Anteil am Spiel für dich aus und RT is uninteressant für dich. Wieviel Geld du sparst...ich wär super glücklich statt mega sauer hier. 😂

TigerherzLXXXVI schrieb:
Wenn man sich bloß mal Fortnite in der UE5.1 auf der PS5 oder Xbox Series X in 60 FPS anschaut, werden also nur die extremsten RT-Enthusiasten etwas an der Grafik bemängeln. Der Rest ist davon restlos begeistert... Also liegt AMD mit seiner Herangehensweise schon einmal nicht falsch.
Sind das dann die gleichen Leute, die für den PC und ihre Midrange GPU 4K120 mit Ultra Details fordern ? Wie können die dann auf der Konsole mit 1080p60-ish zocken bei Medium Details und davon restlos begeistert sein ?
 
  • Gefällt mir
Reaktionen: Connecto und Fallout667
ThirdLife schrieb:
Gibts bei dir nur Schwarz und Weiss ? Und warum ist das für dich als 8GB-Karten User relevant wenns um Team Green geht aber bei AMD sind 8GB auf einmal der heilige Gral oder was ?
Die RX 5700 XT hat in etwa die Leistung einer RTX 3060. Da RDNA noch kein Hardware-Raytracing unterstützt heißt das: 8GB sind hier ausreichend. Wobei auch eine RTX 2070 Super mit ihren 8GB noch in Ordnung geht.
ThirdLife schrieb:
On Average hier bei CB lag die 7900XTX 3% im Raster hinter einer 4080 (sicher ne Verschwörung!!!), und im RT gute 25% dahinter (sicher alles Bösoptimiert von grünen Entwicklern, an schlechterer Ray-Performance kanns ja nicht liegen !!!).
Der Test von CB erfolgte noch mit Beta-Treibern. Außerdem wurde keine Ryzen CPU verwendet, um den zusätzlichen Vorteil von SAM zu nutzen. Heute besitzen sehr viele Gamerinnen und Gamer eine geeignete AMD-CPU.
ThirdLife schrieb:
Und das sind zu einem grossen Teil eher leichte Loads. Fakt ist halt AMD ist bei sämtlichen Technologien im Moment hinterher. Man kann mehr Marge fahren weil man einfach weniger R&D benötigt - ist dafür einfach bei allem im Hintertreffen.
Das hört sich auffällig nach Fanboy-Gelaber an. "AMD ist einfach nur dooof!"

Derzeit führende AMD-Technologien:
SAM (Resizable Bar)
FSR 2 (Open Source Upscaling Technolgie)
Infinity-Cache
MCD-GPU (1. Generation)
Displayport 2.0
ThirdLife schrieb:
RT kam erst deutlich später, FSR ebenfalls, RTX VSR nicht in Sicht, Reflex nix was ähnlich gut funzt, Frame Gen auch nix im Angebot (bisher), ein Framework zu CUDA als Alternative ? Nope.
Wenn AMD jeweils eine vergleichbare Technolgie anbietet, dann ist das doch gut. Wobei nicht jede Nvidia-Technologie wirklich wichtig für jeden Gamer ist. Das Argument CUDA ist albern, nur die allerwenigsten Geforce-Besitzer werden sie nutzen.
ThirdLife schrieb:
Und das ist nur ein Teil der Dinge die ich immer wieder gerne nutze. Bei vergleichbaren Preisen liefert AMD konsequent schlechter ab. Ich find das als Prosumer nicht ganz ok, man kriegt halt eine reine Gaming-GPU die im RT ein bisschen hinterherhinkt, AMD hat weniger Budget und muss mehrere Schienen damit bedienen. Verständlich.
Dann schau mal auf die aktuellen Preise von RDNA 2 GPUs vs Ampere. Wobei AMD seit Release beinahe immer das bessere P/L-Verhältnis geboten hat. Aber Leute wie du würden Nvidia beispielsweise auch eine RTX 3050 für 500€ abkaufen, als eine RX 6600 für 250€ zu nehmen...
ThirdLife schrieb:
Aber der heilige Gral, der an die lieben Gamer denkt und super günstig abliefert ist hier nicht in Sicht, sorry. Daher macht auch das ganze Fanboy-Beschimpfen wenig Sinn.
Doch, extreme Fanboys sollte man unbedingt kritisieren. Sie argumentieren ohne jegliche Objektivität bzw. Vernunft. Also sehe die Welt zur Abwechslung mal ohne deine grüne Brille. Im Gegensatz zu dir kann ich als AMD-Fan auch Nvidia loben, sofern sie eine gute Arbeit gemacht haben. Das unterscheidet uns beide grundlegend.
 
Zuletzt bearbeitet:
TigerherzLXXXVI schrieb:
Doch, extreme Fanboys sollte man unbedingt kritisieren. Sie argumentieren ohne jegliche Objektivität bzw. Vernunft.
Also so wie du. Hast dich echt super selber beschrieben. 👍
 
Der Satz ging aber noch weiter... Versuchst du dir deine eigene Wahrheit zu schaffen?
 
Klar genauso wie du.
 
ThirdLife schrieb:
Wurde von @fdsonne ja schon ausführlich beantwortet. Warum hast du eigentlich keine Radeon VII geholt ? Superschnelles HBM und auch noch 16GB davon. Da müsstest du ja sabbern, die reisst heute sicher die Salami vom Brot mit soviel brachialer Speicherpower.
Mit Dir hab ich wohl den Rainer Winkler dieses Forums gefunden, deine Diskussionskultur ist ja praktisch identisch,
Absolut keine Ahnung vom Thema aber jeden widersprechen (was deine Zitate Orgien hier zeigen) und solange mit Schmutz bewerfen bis alle anderen keine Lust mehr auf eine Diskussion haben.
 
ThirdLife schrieb:
Das hat hier auch niemand behauptet. Oder wer hat das so geschrieben ?
Ich habe mich auf vorangegangene Diskussionen im CB-Forum mit diversen RT-Unterstützern bezogen.

ThirdLife schrieb:
Wenn sie zukünftig mithalten wollen ? Doch. Oder du kaufst eine Karte mit tollen "zukunftssicheren" 32GB VRAM die aber keine Zukunfts-Render-Technologie beherrscht. Geil.
Die RX 7900 XTX bietet die durchschnittliche RT-Leistung einer RTX 3090 Ti... Hast du dich überhaupt schon einmal mit AMD-GPUs beschäftigt? Scheinbar nicht...

ThirdLife schrieb:
Können schon, kostet halt a) Geld und b) schwerer eine gute Marge zu fahren weil die Chipdesigns aufwendiger und die Chips selbst größer werden.
Jetzt komm, ausgerechnet Nvidia-Fans sollten beim Thema Marge nicht gegen AMD wettern.

ThirdLife schrieb:
Weil es einfach der nächste Schritt für mehr Immersion in Spielen ist ? Woher die ablehnende Haltung gegenüber allem neuen und technisch besseren ?
Wer lesen kann ist klar im Vorteil... Oder: Setzen! 6! Schule war wohl nicht so deins. Ich habe niemals gesagt, dass RT/PT für mich Unsinn ist. Es geht in meinem Text um das Tempo, mit der RT/PT vorangetrieben wird.

ThirdLife schrieb:
Dann kannst du ja den Fokus auf eine Karte legen die günstig ist, wo ist das Problem ? Bist somit ja mit der 5700 auf Jahre gut angelegt. Grafik ist ja eh nicht wichtig, macht nur einen geringen Anteil am Spiel für dich aus und RT is uninteressant für dich. Wieviel Geld du sparst...ich wär super glücklich statt mega sauer hier. 😂
Ich habe mir bereits einen neuen Gaming-PC für die kommenden Jahre gebaut. Es fehlt nur noch die GPU. Es wird eine RX 7900 XTX von MSI. Außerdem kann ich mich für gute Grafik begeistern, nur steht sie bei mir im Gegensatz zu dir nicht an erster Stelle.

ThirdLife schrieb:
Sind das dann die gleichen Leute, die für den PC und ihre Midrange GPU 4K120 mit Ultra Details fordern ? Wie können die dann auf der Konsole mit 1080p60-ish zocken bei Medium Details und davon restlos begeistert sein ?
Der PC-Markt ist beim Gaming im Vergleich zum Konsolenmarkt nur Nische. Und bei deiner abschätzigen Aussage zu der Grafikqualität von PS5 und Xbox Series X sieht man, dass du dich noch nie richtig damit beschäftigt hast. Das kommt sicherlich nicht von ungefähr. Du gehörst eben zu jenen bereits angesprochenen Nvidia-Fans, die überheblich sind und Schwierigkeiten haben vernünftig zu argumentieren. Könnt ihr euch nicht alle in einem separaten NV-Thread treffen und die anderen mit euren nervigen Gewäsch verschonen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pookpook
Dai6oro schrieb:
Warum auch nicht Texturen kosten keine! Leistung und werten die Optik des Spiels deutlich auf zudem ist VRAM billig.
Nicht nur Texturen kosten V-ram, sondern auch sämtliche andere Qualitätsoptionen.
Wenn die 3070 jetzt 16GB gehabt hätte, würde die Karte auch nicht viel länger halten, es sei denn man ist gezwungen auf einer 499 Euro Karte immer mit maximalen Settings zu spielen.

Diese extremen Anforderungen gab es früher nie und da sind regelmäßig Karten wie die HD 4870 512mb schon zum Launch in hohen Auflösungen in Ausnahmefällen wegen V-ram Mangel zusammengeklappt.
Dai6oro schrieb:
Sind es nicht die Nvida Jünger die nicht müde werden bei besserer Optik von RT etc. hinzuweisen aber Texturen darf man nicht maxed out fahren, weil es ne Mittelklasse Karte ist? Ist doch kein Argument. Im Gegenteil.
Warum kann man diese Begrifflichkeit nicht einfach mal weglassen?
Die 3070 kann in den meisten Spielen RT nutzen, auch mit nur 8GB V-ram. Man muss eben an den Reglern schrauben.
Dai6oro schrieb:
Wenn bei einer Mittlerklasse zu High End Preisen bereits bei 1080p der VRAM nicht mehr reicht ist das nur eines.
Die 3070 hatte mit 499 keinen High End Preis und man wusste auch bei Kauf, das man nicht immer alles auf ultra spielen können wird und an den Reglern drehen muss. Das kann man mit einer RX 6800 übrigens auch nicht, weil die Leistung einfach zu mager ist, auch wenn bisher wenige Spiele dank der 16GB besser laufen.

Und so viel wird sich da auch nicht ändern, bis die neuen Konsolen da sind. Mit 8GB Karten wird man noch immer hervorragend spielen können, auch noch 2025, aber eben auf Medium.

Dai6oro schrieb:
Schädlich für den Konsumenten und den PC als Gamingplatform gleichermaßen.
Es ist schädlich, weil Nvidia auf der 3070 8GB V-ram verbaut hat?:p
Dai6oro schrieb:
Dann könnt ihr euer Geseier bzgl. Konsole als Leadplatform, die ja alles verhindern würde gleich mal einstellen. Das sind die Gründe die die Leute zur Konsole greifen lassen.
Die Konsolen haben bis heute nicht mehr Speicher als 8GB zur Verfügung, der Rest geht für Betriebssystem und Anwendung(Spiel) drauf.
 
Das hat doch einer 2021 schon gemacht.
 
pacifico schrieb:
Von daher ist es peinlich wenn man so wie du einen bestimmten Hersteller freiwillig und unentgeltlich verteidigt. Du scheinst ein heißer Kandidat für ein Ehrenamt zu sein....
Dann weise erst einmal nach, dass Frame Generation auf Ampere GPUs zufriedenstellend laufen würde.
Bei deinem Beitrag schwingen viele Spekulationen und Unterstellungen mit.
Ergänzung ()

TigerherzLXXXVI schrieb:
Die RX 5700 XT hat in etwa die Leistung einer RTX 3060. Da RDNA noch kein Hardware-Raytracing unterstützt heißt das: 8GB sind hier ausreichend. Wobei auch eine RTX 2070 Super mit ihren 8GB noch in Ordnung geht.
8GB reichen bei einer 5700XT nicht in jedem Spiel für Ultra Settings ohne RT aus, aber das ist auch nicht der Anspruch der Karte, weil die Leistung da schon lahmt und FSR qualitativ in niedrigen Auflösungen eher nicht funktioniert.
TigerherzLXXXVI schrieb:
Der Test von CB erfolgte noch mit Beta-Treibern. Außerdem wurde keine Ryzen CPU verwendet, um den zusätzlichen Vorteil von SAM zu nutzen. Heute besitzen sehr viele Gamerinnen und Gamer eine geeignete AMD-CPU.
SAM (RBAR) ist auf Intel Plattformen und auch Nvidia Karten seit Jahren lauffähig, also falsch.
TigerherzLXXXVI schrieb:
Derzeit führende AMD-Technologien:
SAM (Resizable Bar)
FSR 2 (Open Source Upscaling Technolgie)
Infinity-Cache
MCD-GPU (1. Generation)
Displayport 2.0
Außer der MCD GPU sind die anderen Punkte keine AMD führenden Technologien.
Schon gar nicht FSR 2. Das ist viel schlechter als DLSS.

TigerherzLXXXVI schrieb:
Dann schau mal auf die aktuellen Preise von RDNA 2 GPUs vs Ampere.
Ampere läuft aus.
Ergänzung ()

TigerherzLXXXVI schrieb:
Doch, extreme Fanboys sollte man unbedingt kritisieren. Sie argumentieren ohne jegliche Objektivität bzw. Vernunft.
Dann kritisiere ich dich hiermit, denn deine Argumentation hat weder der Anspruch objektiv zu sein, noch vernünftig.
TigerherzLXXXVI schrieb:
Im Gegensatz zu dir kann ich als AMD-Fan auch Nvidia loben, sofern sie eine gute Arbeit gemacht haben. Das unterscheidet uns beide grundlegend.
Habe sie ja bei RT, DLSS, Reflex, Frame Generation. Aber Lob kommt da nie, nur "das braucht man nicht", " das ist Betrug" und das alles auf der Grundlage, dass die günstigen Nvidia Karten nicht so viel Speicher haben, das ist der primäre Punkt den man angreift, weil man sonst nichts hat, was man angreifen könnte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667 und Klever
tensai_zoo schrieb:
Ist ja okay wenn das für dich so passt, aber realistisch gesehen, ist das einfach eine "Sollbruchstelle" seitens des Herstellers. Die Karte könnte länger Max Details abliefern, wenn sie mehr RAM hätte, aber man will ja einen Anreiz schaffen, möglichst schnell die nächste Generation oder eine höher Stufe zu verkaufen. Mit anderen Worten: geplante Obsoleszenz
Das ist aber auch nur hypotetisch. In der Regel wird die Karte in Zukunft für Max Details zu langsam sein, so das man nicht mehr in das Speicher Limit läuft. Es wird natürlich immer mal Ausnahmen geben, aber bisher habe ich in über 30 Jahren PC nie so ein Problem gehabt. Am Ende waren die für mich nicht ausreichenden FPS ein Kaufgrund für eine schnellere Karte. Irgendwo wird es immer ein Limit geben, deshlab ist es doch gut das man die Auswahl hat.
 
trockenerToast schrieb:
informier dich lieber mal besser, es ist nun mal fakt das der speicher bei amd schneller vollläuft als bei nvidia und das ist ja auch logisch, der ram von nvidia ist technisch viel besser aufgestellt als der von amd.

und deine these von wegen mehr arbeitsspeicher im system ist besser, ist schlicht weg falsch.

Desto mehr arbeitsspeicher man hat, desto mehr verzögerung hat man ingame, du wirst also bessere benchmark Ergebnisse in einem spiel erzielen wenn du nur 2 riegel , statt 4 riegel verbaut hast. (reden hier nicht über den VRAM)

Daher bitte unterlasse deine Aussagen wenn du nicht mal vorher googlen kannst und dir die vergleiche anschaust... echt peinlich
 
Zuletzt bearbeitet von einem Moderator:
Wie hier manche NV verteidigen...

Es sind ja nicht nur die 8GB-Karten, auch die 3080 10GB lässt sich in Cyberpunk UHD+RT schon zum Einbrechen bringen. Da kann mir keiner Sagen, dass das bei einem ca. gleichzeitig veröffentlichtem Spiel gerechtfertigt ist.

Dass es in den letzten Jahren bei NV häufig Karten gab, die man mit mehr VRAM länger hätte sinnvoll nutzen können, lässt sich auch nicht widerlegen.
 
Tigerfox schrieb:
Es sind ja nicht nur die 8GB-Karten, auch die 3080 10GB lässt sich in Cyberpunk UHD+RT schon zum Einbrechen bringen.
Wo wir aber auch wieder beim Punkt sind, dass es dort mit doppelten VRAM zwar schneller, aber keineswegs spielbar wäre.
Die 3090Ti hat mehr als genug VRAM und kommt nicht mal auf 20FPS, die 3080 würde mit 20GB dann vielleicht auf 15FPS kommen, damit hat man auch nix gewonnen und müsste die Auflösung reduzieren, womit dann auch die 10GB wieder ausreichen
Ergänzung ()

TigerherzLXXXVI schrieb:
Die RX 7900 XTX bietet die durchschnittliche RT-Leistung einer RTX 3090 Ti... Hast du dich überhaupt schon einmal mit AMD-GPUs beschäftigt? Scheinbar nicht...

Im Schnitt aus Spielen die zu 95% aus Raster und 5% aus RT bestehen, ist sie im Bereich 3080-3090, was aber eben daran liegt, dass in diesem Schnitt viele Spiele drin sind, die nur sehr leichte RT Lasten aufweisen.

Die „RT Leistung“ als das was die Karte an reiner RT Performance liefern kann, ist weit entfernt von einer 3090Ti.
Und das sieht man eben immer dann, wenn in Spielen auch mal mehr Rays genutzt werden als nur das Minimum wie in FarCry 6 z.B.

Das ist ähnlich wie wenn du eine 8C und eine 32C CPU vergleichst, ihnen zum Test eine Aufgabe gibst, die nur 8 Kerne anspricht und dann sagst die Multicore Performance der beiden ist vergleichbar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife
Gut, da hast Du recht, Cyberpunk ist eben nicht nur hinsichtlich des Speicherverbrauchs ein Vorreiter. Aber so wie in The Last of Us die 2080Ti plötzlich deutlich vor den sonst schnelleren 8GB-Karten ist, wird es auch bald Titel geben, wo die 3080 10GB gegen 12GB-Karten abstinkt.

Ich bin allerdings auch jemand, der die Karten sehr lange nutzt. Meine GTX 670 hätte, soweit ich sehen konnte, z.B. auch in Kingdom Come mit 4GB (damals erstmals erhalten, aber selten gekauft und daher gebraucht kaum zu kriegen) deutlich bessere dagestanden, da ich gut sehen konnte, dass es in denen Szenen, wo es heftig ruckelte, der VRAM voll war.

Was ist eigentlich aus non binärem GDDR6-VRAM geworden? Ich meine, dass schon bei Turing über die Entwicklung von 1,5GB-Chips gesprochen wurde, verstärkt bei Ampere. Nun sind die natürlich obsolet und ich finde auch nichts mehr darüber. Aber jetzt, wo wir 24GB- und 48GB-Module DDR5 haben, könnte man auch mit 3GB-Modulen GDDR6(X) ohne allzu heftige Preissteigerung die Speichergrößen erhöhen (auf 12/18/24/30/36GB statt 8/12/16/20/24GB bei 128/192/256/320/384Bit). Vor allem im unteren Bereich wäre das sehr hilfreich, Nvidia muss ja jetzt schon befürchten, dass alles unter 12GB unverkäuflich wird.
 
Zurück
Oben