News Nvidia Blackwell: Gerüchte deuten auf 12 GB VRAM bei der GeForce RTX 5070

E1M1:Hangar schrieb:
RTX 5090 mit 24GB oder mehr und gleich mal frech 2000-2200€.
So günstig wird die RTX5090 bestimmt nicht.
 
  • Gefällt mir
Reaktionen: Flaschensammler und E1M1:Hangar
@drago-museweni und trotzdem kaufen 8 von 10 Kunden NVIDIA, was sagt dir das? Es ist anscheinend nicht so schlimm, sonst würden sich die Karten nicht so gut verkaufen.

Auch wenn ich es genauso schlimm sehe wie alle anderen hier, am Ende kaufen doch wieder fast alle NVIDIA.
 
  • Gefällt mir
Reaktionen: danyundsahne und Michael vdMaas
LeChuckie schrieb:
...wohl ein Witz, dass eine 5070 nur 12 GB bekommen soll. Hallo nvidia, wir sind eine Generation weiter und erwarten mehr.

Ach? 8GB bei 1070, 2070 und 3070 kamen doch gut an?

In einem Vergleich 1070-4070 kam die 3070 gut weg und in den Kommentaren wurde dem Generationensprung 2070 auf 3070 nachgetrauert... 🤷‍♂️
 
  • Gefällt mir
Reaktionen: [SM]Valen
danyundsahne schrieb:
Das geht doch schon seit der GTX970 3,5GB mit Nvidia so.... :D
Der Vorgänger - die GTX 770 - hatte nur 2GB VRAM, daher waren 3,5GB gar nicht so schlecht zu der Zeit. Das war eigentlich für alle Spiele genug. Krumme Zahlen wie 1,25GB hatte man bei der GTX 470 ja auch gehabt.

Das Problem war primär die Schummelei mit der verkrüppelten Anbindung der letzten 512MB, die verschwiegen wurde. Hätte nvidia die Karte einfach mit 3,5GB verkauft, wäre die mMn so akzeptiert gewesen...
 
RogueSix schrieb:
Da ist/war der Abstand aber auch ganz anders (knapper). Bei den mutmaßlichen Eckdaten der 5080 und 5090 ist da mehr als genug Platz für eine Ti und für einen Super-Refresh.
War das wirklich so? Ernstgemeinte Frage. Rein vom Gefühl her ist zwischen 3080 und 3090, die beide auf dem GA102 basierten, doch weniger Platz als zwischen 4080 und 4090, wo die 4090 68% mehr Ausführungseinheiten hat, ein 50% breiteres SI und 40% mehr TDP (ok, etwas weniger Takt).
Die 3090 hatte nur 24% mehr Ausführungseinheiten, 23% mehr Bandbreite, 9% mehr TDP und 14GB (bzw. zwischen 3080 12GB und 3090Ti dann nur 20% Ausführungseinheiten, 11% Bandbreite, 12GB und die gleiche TDP). Die 3080Ti war ja quasi eine 3090 mit nur 12GB, was damals kaum jemanden gestört hat. Die 4 SM wurden durch Takt ausgegelichen.

Wenn die 4090 ihre ganze Power nicht auf die Straße bringen kann, dann heisst das nicht, dass der Abstand in Zukunft nicht noch größer werden kann. Eine 5080Ti mit teildeaktiviertem GB202 ist genauso wahrscheinlich wie es eine 4080Ti war. Ich hatte ehrlich gesagt mit einer gerechnet, aber die ganzen AD102 waren wohl für Gamer zu schade.

k0n schrieb:
Ach? 8GB bei 1070, 2070 und 3070 kamen doch gut an?
Das hab ich anders in Erinnerung, bei der 3070 und spätestens der 3070Ti wurde gemeckert und schon bei Release von Letzterer sah man in den Tests, dass 8GB zu wenig werden konnten - plötzlich war eine 2080Ti in 4K mit RT deutlich schneller.
Rickmer schrieb:
Der Vorgänger - die GTX 770 - hatte nur 2GB VRAM, daher waren 3,5GB gar nicht so schlecht zu der Zeit.
Die 770 gab es von Anfang an auch bei fast jedem Modell mit 4GB, ebenso die 760, schon von 680, 670 und 660Ti hatte es eine ganze Menge Modelle mit 4GB bzw. 3GB gegeben. Das es auch die 960 mit 4GB gab - und AFAIR Tests hier auf CB mit 960 und RX 385(X) auch gezeigt haben, dass 2GB zu wenig sind, war das bei der 970 schon blöd. Trotzdem stimm das:
Rickmer schrieb:
Das Problem war primär die Schummelei mit der verkrüppelten Anbindung der letzten 512MB, die verschwiegen wurde.
Das wog für die meisten schwerer.
 
  • Gefällt mir
Reaktionen: Wintermute
kachiri schrieb:
Warum also mehr VRAM?
Na ja, man kauft ja eine Grafikkarte nicht für die Spiele der letzten Jahre sondern für die Spiele der nächsten Jahre.
Die Chance ist hoch, dass der VRAM-Bedarf steigen wird. Ist er ja in der Vergangenheit auch. Mit der 512 KB-Karte aus dem 386er oder meiner 8 MB ATi Rage Pro sieht man speichertechnisch ja auch kein Land mehr.
 
  • Gefällt mir
Reaktionen: DrFreaK666 und Rickmer
me@home schrieb:
Wenn die 5090er echt soooo gut werden, sind die bestimmt für Monate ausverkauft...leider.
Glaub ich nicht, denn es gibt ja keinen Nodeshrink. Die 5090 ist eine Weiterentwicklung der 4090 auf dem gleichen Node. Verbessrungen müssen also rein von der Arch kommen und da sehe ich nicht viel.
So wie es aussieht werden mehr Shader und mehr Takt reingepumpt, wodurch der Verbrauch steigt. Ist jetzt kein Kunststück.
 
@Krik genau wegen Linux-Gaming hätte ich ganz gerne etwas signifikant besseres als meine 3080 mit weniger Verbrauch von AMD… kann sich nur noch um Jahre handeln…
 
Ich sehe die Chance nicht hoch, weil es dafür aktuell keine Anzeichen gibt. Bis zur nächsten Konsolen-Generation wird sich da nichts ändern.

Bei der 3070 war das Problem halt genau das. Die kam gleichzeitig mit der aktuellen Konsolengeneration. Da war es absehbar, dass die 8 GB gegen die 16 GB unified der Konsolen schon dünn sind. Die 12 GB der 4070 und einer wohl kommenden 5070 sind "angemessen".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheHille
Das wäre ein absoluter Witz und eine bodenlose Frechheit. VRAM ist unendlich wichtig geworden wegen KI. Eine 5070 sollte schon min 24GB VRAM haben. 5080 32GB und 5090 48GB.
 
Der Speicher wird klein gehalten, damit die Karten nicht als billige KI Beschleuniger eingesetzt werden können. Die Pro/Datacenter-Gewinne sind heilig.
 
  • Gefällt mir
Reaktionen: Eli0t
Hey hey hey
nicht meckern, richtig mies sieht die Tabelle erst aus, wenn ihr eine 5060 mit 16GB anfügt! 😅😇😂🤣
 
  • Gefällt mir
Reaktionen: Wintermute
Krik schrieb:
Es liegt in eurer Hand, ob ihr die 5090 kauft oder eben auch nicht. Den Konzern bekommt man nur über den Geldbeutel umgestimmt.
Nope. Kaufst du nicht und Nvidia macht Miese mit den Karten, gibt es entweder keine oder nur noch abgespeckte mit kaum Leistungsplus pro Generation.

TSMC ist der Übeltäter der die Preise treibt, nicht Nvidia oder AMD, und die interessiert es nicht, ob Nvidia Gamingchips verkauft.
 
Tigerfox schrieb:
Nicht sinnvoll, nein. An 256Bit kann man nur 8 oder 16 Module anschließen. Aktuell gibt es GDDR7 nur bis 2GB pro Modul, macht also 16GB. Es sollen 2025 aber erstmals 3GB-Module kommen, also ein halber Schritt, was dann 24GB an 256Bit ergäbe.

Man kann theoretisch an einen Teil der 8 32Bit-Controller eine andere Modulgröße anschließen als an den Rest, also z.B. nur 4x2GB und 4x3GB, dann käme man auf 20GB. Das macht Nvidia aber aus gutem Grund spätestens seit Pascal / GTX 10x0 nicht mehr, weil dann trotzdem nur 16GB die volle Bandbreite hätten und die zusätlichen 4GB nur die Hälfte der Bandbreite.

Na dann werden es definitiv erstmal 16 GB für die 5080 😔
 
dernettehans schrieb:
Eine 5070 sollte schon min 24GB VRAM haben. 5080 32GB und 5090 48GB.
Das wäre schön, ja
Wird nvidia aber niemals machen weil die damit den eigenen Profi-Karten das Wasser abgraben würden

Matthias80 schrieb:
nicht meckern, richtig mies sieht die Tabelle erst aus, wenn ihr eine 5060 mit 16GB anfügt!
In Erinnerung an die 3060 mit 12GB - durchaus plausibel
Kommt drauf an ob sich nvidia traut, nochmal 8GB im mittleren Segment zu verkaufen
 
  • Gefällt mir
Reaktionen: kaji-kun und dernettehans
Sind wir doch mal ehrlich: warum sollten sie mehr machen, als nötig? Vom nett sein dürften wohl nur die wenigsten reich geworden sein.

a) Wenn AMD und auch Intel nicht einen Zaubertrank gefunden haben, wird in Sachen Raytracing auch diesmal nVidia vorne bleiben.

b) Da AMDs quelloffene FSR Lösungen auch mit nVidia Karten funktionieren, hat man zwei Argumente: natives DLSS oder bei Spielen ohne DLSS eben dann FSR.

c) Es gibt genug Leute, die auch bei gleicher oder gar besserer Leistung von AMD (ohne Raytracing) niemals eine AMD Karte nehmen würden.

d) nVidia hat doch eh schon lange begriffen, daß sich ihre Produkte auch bei negativeren Meldungen weiterhin gut verkaufen - notfalls bessert man ein bischen nach. Siehe RTX 4060 Ti 8 GB -> 16 GB Versionen.

e) Auf Grund der "neuen Märkte" wie KI oder auch die immer mal wieder aufploppenden Mining-Zeitrahmen brauchen sie den typischen Gamer so nicht mehr ganz als Hauptzielgruppe.

Und auch wenn wir alle eine potentielle RTX 5070 mit 12 GB nicht wirklich cool finden, sie wird in den Computerbase Empfehlungen von @Na-Krul aufgenommen werden (müssen).
 
  • Gefällt mir
Reaktionen: danyundsahne, II n II d II, ShiftC und 3 andere
ElliotAlderson schrieb:
Glaub ich nicht, denn es gibt ja keinen Nodeshrink....und da sehe ich nicht viel.
So wie es aussieht werden mehr Shader und mehr Takt reingepumpt, wodurch der Verbrauch steigt....
Du meinst, dass durch die "schwachen Verbesserungen" die Grafikkarten nur wenig gekauft werden?

Bin da anderer Meinung, aber sehen wir ab Jänner dann...
 
drago-museweni schrieb:
warum die immer so knausern mit Speicher
VRAM Mangel ist eine super Möglichkeit die Zukunftstauglichkeit einer Karte extrem zu beschneiden, ohne anfängliche Geschwindigkeitseinbußen.
 
  • Gefällt mir
Reaktionen: Flaschensammler, II n II d II, ShiftC und 2 andere
kachiri schrieb:
D4 ist garantiert nicht der einzige Titel der 16GB mag.
Crifty schrieb:
kaufen 8 von 10 Kunden NVIDIA
9/10 Kunden haben auch keine Ahnung. ^^ Meistens kaufen die Leute entweder irgendwas oder etwas was die "kennen". Gibt auch Leute mit "Minimalahnung" die NV kaufen weil "ATI ist Mist und Treiber und so". Gut, die letzten Jahre waren jetzt wirklich keine Erlösung was die AMD-GPU-Treiber angeht...
k0n schrieb:
8GB bei 1070, 2070 und 3070 kamen doch gut an?
Zumindest ich hab lautstark gekotzt bei der 970 3,5GB+0,5GB und bei der 4GB 980, auch bei der 3070 mit 8GB, aber ich entscheide ja nicht. ^^
Krik schrieb:
Die Chance ist hoch, dass der VRAM-Bedarf steigen wird.
+1
 
Zurück
Oben