Notiz Nvidia GeForce RTX 3070: Modder kombiniert GA104 mit 16 GB GDDR6

Weshalb ist bei GraKa's eigentlich der VRAM nicht aufrüstbar ? So wie es bei DRAM seit Jahrzehnten gang und gäbe ist ? Technische Instabilitäten können es daher ja wohl nicht sein. Kleine Sockel könnte man auch übernehmen (z.B. SO-DIMMs), die Bauhöhe kann durch horizontalen Einbau (wie bei einem Laptop) auch gering gehalten werden.
Wieso also ? Außer "Wirtschaft-am-laufen-halten" kann ich mir das momentan nicht erklären.

Um bei dem diesem fantastischen MOD zu bleiben: was wäre wenn NV die VRAMs steckbar gemacht und SAMSUNG, HYNIX & Co diese steckbar liefern würde ? Wo ist das Problem ?
(Btw: wohin verschwinden eigentlich all die Millionen an ausrangierten Karten ?)
 
  • Gefällt mir
Reaktionen: AncapDude
Tommy Hewitt schrieb:
BGA löten mit Hirnchirurgie zu vergleichen

Frei nach Louis Rossmann:
Einfach "proper amount of flux" benutzen, und die Dinger (ent-)löten sich quasi von selbst. :lol:
 
  • Gefällt mir
Reaktionen: PS828 und Tiimati
der Unzensierte schrieb:
Chapeau, starker mod. Aber seien wir doch mal ehrlich - wenn AMD nicht so stark zurück gekommen wäre dann würde sich jetzt kein einziger (na gut, vielleicht ein paar hardcore AMD-Fans) wegen der mickrigen Speicherbestückung der 3000er...
Naja, ich hatte mich schon bei turing aufgeregt das es da kein Speicherugrade gab. Ever nen downgrade, wenn man die Leistuing der karten mit dem Vram verglich.
980TI 6GB VS 1070 8GB
1080TI 11GB VS 2070S 8GB
und bei Ampere wieder die gleiche schei..e
2080TI 11GB VS 3070 8GB.
Verstehe nicht warum sich manche das auch noch schönreden.

@Zentorno
Früher gab es solche karten, glaub von Matrox. Die Module sahen wie SO-DIMMs aus, habe mich aber nie mit solchen karten beschäftigt
 
Es kann auch mal schief gehen, weil es keine maschinelle Arbeit ist, wo Toleranzen und Genauigkeit in engen Grenzen bleiben und wer entschädigt den Besitzer der Karte im Schadensfall?
Das würde mich daran hindern, eine so teure Hardware auf eigenes Risiko aus der Hand zu geben. Wenn das jemand beruflich macht, sollte er es auch versichern. Haftpflichtversicherung wird wohl nicht reichen.
 
Der feuchte Traum eines jeden Schürfers, diese Karte.
Der wird dann in Zukunft wohl nen modifizierten Treiber für sich brauchen. Denn ich kann mir sehr gut vorstellen, dass Nvidia da ganz schnell einen Riegel vorschiebt.
Aber selbst als privater kann man die 16GB der Karte doch bequem voll bekommen. Wenn ich da an die Mods von half life2 oder Witcher oder so denke...
 
Zentorno schrieb:
was wäre wenn NV die VRAMs steckbar gemacht und SAMSUNG, HYNIX & Co diese steckbar liefern würde ? Wo ist das Problem ?
Bei der Signalintegrität.
Herdware schrieb:
Einfach "proper amount of flux" benutzen, und die Dinger (ent-)löten sich quasi von selbst. :lol:
Stimmt halt teilweise wirklich. Die Speicherbausteine hier sind ja nicht sonderlich groß und haben auch recht wenig Kontaktpunkte.
 
Zomb2k schrieb:
Wird es diese Generation nicht geben denke ich. Die Karten sind so auf Kante genäht und teilweise so arg zusammen gequetscht von der Leistung her, das es absolut keinen Sinn machen würde mit TI oder SUPER Modellen um die Ecke zu kommen. Das Preisgefüge der aktuellen GEN hebelt solche Pläne eigentlich direkt aus. [...]

Ich gehe davon aus, dass entweder eine Super/Ti Version rauskommt oder die nächste Gen etwas vorgezogen wird.
Durch die scheinheilige "Wir sind Gamer"- PR vor kurzem mit anschließender Werbung, die an Miner gerichtet war, gab es in der Richtung schon Gegenwind weil Privatkunden diesmal fast gar nicht zum Zuge gekommen sind.
Bei der 10er Reihe gab es 2017 die Karten schon längere Zeit auf dem Markt bevor sie plötzlich restlos weg waren. Diesmal waren sie vom Start weg sehr knapp und nun komplett ausgesaugt. Bedeutet also, dass der Normalo quasi gar nicht erst dazu kam sich einzudecken.

Das wäre dann im Endeffekt ein zweiter Launch um die Aufmerksamkeit wegzulenken mit Karten die von Anfang an soft- oder hardcoded sind um Mining zu beschränken. "4 the Gamerz" quasi um den Paperlaunch und die schlechte Presse darüber vergessen zu machen.
 
Teralios schrieb:
So, bevor jemand meckern will...

Hier ist es eindeutig Erfahrung und Wissen, was der Herr angewendet hat. Ohne Erfahrung und ohne sein Wissen hättet er das nicht geschafft. Und das sieht man auch an seinen Beschreibungen und der Ausführung. Hier hat jemand wirklich sauber gearbeitet und damit sein Können gezeigt. Da braucht es keinen Mut mehr, da braucht es keine Genialität mehr.
Sehe ich genauso.
Dazu kommt dem Youtuber ist doch die poplige 3070er egal das Geld hat er locker raus selbst wenn da eine kaputt geht. Vlt. hat er auch noch als Moder gute Kontakte zu anderen Youtubern usw. da stapeln sich die Karten so oder so.
 
  • Gefällt mir
Reaktionen: tollertyp
Zotac2012 schrieb:
Aber das Feature gibt es ja bei der Nvidia Grafikkarte nicht, von daher müsste man doch auch die Speicherbandbreite erhöhen, um einen wirklichen nutzen zu haben, oder nicht?
Nein. Die 16gb nützen dann etwas, wenn die Anwendung mehr als 8gb effektiv belegt und sich so Nachladeruckler ergeben würden, weil Daten aus langsameren Quellen (RAM oder SSD) nachgeladen werden müssen. Derzeit kommt man mit 8gb bzw. 10gb noch gut hin, aber die Frage ist halt wie lange...

Die Hersteller wählen den Vram normalerweise so, das er für die angepeilte Nutzungszeit der Gpu ausreicht. Irgendwann ist die Gpu eh zu lahm, als das sie nutzen aus viel Vram ziehen könnte. Stell dir mal ne GTX 285 mit 20gb Vram vor... Aber andersrum wäre eine RTX 3070 mit 4gb auch unsinnig. Ich erachte die 8gb der 3070 als das untere Ende des sinnvollen, sprich 10 oder 12gb wären sinniger gewesen (siehe RTX 3060). Für die 3080 hätte man auch besser 12 oder 16gb spendieren sollen... Geht aber mit dem Speicherinterface das Nvidia gewählt hat nicht so einfach.

Mal gucken, eventuel schiesst man noch eine 3080 Ti mit 12gb (volles SI wie 3090) oder 20gb (gleiches SI wie 3080 aber doppelter Vram) nach.
 
HardRockDude schrieb:
...und die letzten 8 GB sind mit 8-Bit verbunden? ;) Seitenhieb Richtung GeForce 970 - würde mich schon interessieren, sind die 16 GB voll angebunden oder knallt der Speichercontroller irgendwo ein Limit rein?
Natürlich sind die voll angebunden. Die Krux der 970 war ja ihr komisches Speicherinterface.

Unabhängig davon gab es das Massenhaft schon viel früher - z.B. bei Tseng Labs ET4000. 1 MB (ja Megabyte :) ) RAM fix und 256K langsam angebunden. Aber damit gingen dann wahnwitzige Auflösungen von 800x600 mit 16,7 Mio Farben und 1280x1024 mit 64K Farben. Das ist alles schon "etwas" länger her. ;)
Ergänzung ()

Tzk schrieb:
Die Hersteller wählen den Vram normalerweise so, das er für die angepeilte Nutzungszeit der Gpu ausreicht. Irgendwann ist die Gpu eh zu lahm, als das sie nutzen aus viel Vram ziehen könnte.
Das trift auf AMD/ATI aber eher zu. Deren Rohleistung ist anfangs der NVida unterlegen. Dank i.d.R. meist deutlich größerem VRAM "altern" AMD aber wesentlich langsamer als NVidia und müssen somit erst später ersetzt werden.
Ergänzung ()

Hatsune_Miku schrieb:
@Zentorno
Früher gab es solche karten, glaub von Matrox. Die Module sahen wie SO-DIMMs aus, habe mich aber nie mit solchen karten beschäftigt
Vor Matrox Millenium I und II, GA100 und GA200, wo man WRAM, SGRAM oder SDRAM nachrüsten konnte, gab es das bei fast allen Grafikkartenherstellern. Ich bin erst 1993 vom Amiga auf den PC gewechselt. Aber die ATI-Grafikkarten, S3, Tseng-Labs und Waitec hatten alle Steckwannen für mehr RAM drauf.
Zu der Zeit kosteten aber 512KB RAM 500DM!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HardRockDude
valin1984 schrieb:
Könnte es vllt eine Zukunft mit Gesockelten Grafikkarten geben? Wo die Grafikkarte wie ein Mainboard ist und man dann kompatible GPUs und VRAM einsetzen kann...

Das käme für mich dabei heraus wenn ich den Gedanken des Modders weiterspinne...
Könnte...evtl....nur mit dem "wollte"... dürfte es... ähm...so hapern. 🙄😁
 
valin1984 schrieb:
Könnte es vllt eine Zukunft mit Gesockelten Grafikkarten geben? Wo die Grafikkarte wie ein Mainboard ist und man dann kompatible GPUs und VRAM einsetzen kann...
Unwahrscheinlich, weil die Gpu mittlerweile so eng mit der Peripherie verzahnt ist, das sowas eher nicht läuft. Die Gpu wird auf den Vram abgestimmt (Timings, Takt) und die Spannungsversorgung auf die Gpu. Wenn man dort versucht Stnadards einzuführen, dann verliert man wohl Leistung und/oder Effizienz. Das was da am nächsten dran kommt wäre ein MXM auf PCIe Adapter:

https://www.amazon.de/EuroCom-PCIe-NVIDIA-Riser-Desktop-Pcs/dp/B079RNLXHV
UweW. schrieb:
Dank i.d.R. meist deutlich größerem VRAM "altern" AMD aber wesentlich langsamer als NVidia und müssen somit erst später ersetzt werden.
Ja, wobei ich meine Aussage bewusst allgemein gehalten habe. Beide Hersteller haben sowohl gute als auch schlechte Beispiele dafür... AMDs FuryX mit 4gb HBM ist negativ, die RX570/80 mit 8gb eher positiv. Die RTX2060 und 3060Ti bei Nvidia negativ, die 2080Ti, 3060 oder 3090 mit 11gb, 12gb bzw. 24gb positiv.

Ist halt immer die Frage was der Gpu zuerst ausgeht, Rechenleistung oder Speicher. Mit übermäßig viel Vram kannst du nix anfangen, wenn du in aktuellen Titeln die Details für annehmbare fps so weit runterdrehen musst, das der Vram nicht ausgelastet wird und andersrum hast du mit zu wenig Vram Nachladerucker.
 
Beyazid schrieb:
Ich gehe davon aus, dass entweder eine Super/Ti Version rauskommt oder die nächste Gen etwas vorgezogen wird.
[...]
Ich gehe tatsächlich vom Gegenteil aus. Wenn sich die Situation vor Weihnachten entspannen sollte, was nicht gesagt ist, könnte zu Weihnachten ein Super/Ti Launch kommen. Wenn nicht, was auch vom globalen Markt, Corona und Mining abhängt, gehe ich soweit und sage, dass erst 2022 Super/Ti gelaunched werden und frühestens Ende 2023 neue 4000er.

Die Gamer kaufen eh, es gibt sowieso keine Alternative außer AMD und selbst wenn 10% deswegen zu AMD wechseln, was eine unfassbar hohe prozentuale Verschiebung wäre, Nvidia kann das bei den Quartalszahlen und den Verkäufen einfach völlig egal sein.

Sobald die eine 4000er Reihe rausbringen die AMD mit Feature XY oder Leistung Z schlägt, ist sowie jegliches Chaos der 3000er Reihe vergessen. Bis dahin dürfte Nvidia genug Geld verdienen, das es nicht ansatzweise unter Zugzwang gerät.

Ich behaupte mal 95% der Gamer sind bei Release der 4000er Serie weder nachtragend noch interesieren Sie sich für die Probleme von 2020/21.
 
  • Gefällt mir
Reaktionen: Kenshin_01 und loser
Also wenn ich es hiermit vergleiche: https://benchmarks.ul.com/hardware/gpu/NVIDIA+GeForce+RTX+3070+review

Dann ist das Ergebnis einfach nur beeindruckend.
In 3 Jahren, wenn meine 3070 zu langsam ist, werde ich auch mehr VRAM geben. Weil VRAM ist ja der einzig limitierende Faktor einer Grafikkarte. Dann kann ich alles in 8K spielen in Ultra-Details. Vermutlich werde ich da auch gleich auf 4GB-Chips gehen können, so dass sie 32 GB hat. Damit dürfte sie dann auch noch weitere 5 Jahre für alles reichen.

(Dieser Beitrag kann Spuren von Ironie und Sarkasmus enthalten)
 
Shadak schrieb:
Ist doch nix neues...
Wo war das schon mal so ausgeprägt?
Kann mich irren... Aber 4 und 8gb... Dann kamen 6gb wo amd nachgezogen ist!
Alles noch "normal" .
12gb bzw. 11gb gab es nur bei nv.
Die Querele mit der 970 mal aussen vor.
Aber jetzt ein spitzen Modell wie die 3080 von so nem kleinen brack Chip wie der 3060 um ganze 4GB zu überholen. Das ist einfach Schwachsinn. Technische Limitierungen interessieren mich in der Diskussion mittlerweile null. Weil klar, wurde das lange vorher festgelegt. Aber die User waren wohl keine Variable in der gleichung! Schade das AMD diese Situation nicht vorhergehenden hat. Sich die Lager voll gepackt und ne effektive mining bremse entwickelt hat. Die gamer würde es freuen und amd nen Schub gegen auf nv aufzuschliesen. So kriechen die gamer nv zu Kreuze und nv verdient sich dumm und dämlich mit den minern.
Jetzt springt amd auf den extra mining Karten Zug auch noch auf...

Mfg
 
SuperSabo schrieb:
Also könnte ich auf meine 3090 48GB RAM basteln? ;)
Erst wenn Micron die 2GB GDDR6X Chips bringt. Soll wohl jetzt im Frühjahr irgendwann kommen.
 
  • Gefällt mir
Reaktionen: SuperSabo
Mir wäre das ja alles viel zu gefährlich aber schön dass es wer durchgezogen hat :D

Jetzt hat die Karte auch genug Speicher sodass die min FPS wegen 8GB nicht länger einbrechen sollten. ;)

Unabhängig davon ein tolles Projekt welche eine für mich sonst nicht nutzbare Karte interessant macht.
 
UweW. schrieb:
Das trift auf AMD/ATI aber eher zu. Deren Rohleistung ist anfangs der NVida unterlegen. Dank i.d.R. meist deutlich größerem VRAM "altern" AMD aber wesentlich langsamer als NVidia und müssen somit erst später ersetzt werden.
So, nich richtig.

Die Rohleistung - also TFLOP/s - der AMD-Karten war den von NVIDIA teilweise deutlich überlegen, konnte aber dank "bescheidener" IPC nicht wirklich in Leistung umgewandelt werden.

AMD Karten konnten in der Form gut altern, weil sie bereits recht früh für einen gemischten Workload sowie viele Threads/Shader ausgelegt war, der VRAM war dabei auch noch hilfreich.

Die Alterung bei NVIDIA ist in dem Fall auch keine wirkliche Alterung, sondern hat damit zutun, dass die Karten zu ihrem Zeitpunkt auf die Softwareentwicklung zugeschnitten war. NVIDIA hat bis "Turing" eine recht starre GPU entwickelt, die auf die aktuellen Anforderungen angepasst war.
 
  • Gefällt mir
Reaktionen: foo_1337
Interessant wäre vom dem Typ zu sehen wie ein in einem Game Titel auch wirklich über 8GB Vram benutzt werden. Ich bezweifle das das Stabil ist deshalb lässt der dude wahrscheinlich nur Grafik Benches laufen die ca <4gb vram verbrauchen?
 
Zurück
Oben