News Nvidia Blackwell: Gerüchte deuten auf 12 GB VRAM bei der GeForce RTX 5070

sa1vador schrieb:
selbst avatar auf max nimmt sich max 11 GB
Die 4070 TI hat ja auch nur 12 GB. Und dann wird vom Treiber rechtzeitig ausgelagert, damit der VRAM eben nicht vom läuft. Heißt aber auch, dass du jetzt eine topaktuelle Karte hast, die aber in 2 Jahren zu wenig VRAM hat, will eben nicht mehr alles ausgelagert werden kann.
 
  • Gefällt mir
Reaktionen: JarlBallin
Cinquedea schrieb:
außer schlecht optimierter Murks aber das bereitet ja wie bekanntlich überall Probleme :skull_alt:
Das ist wohl war, weswegen ich bis zu frühestens RDNA5/RTX6000 im Desktop für mich (mit derzeit 16GB und keinen Fokus auf Raytracing) auch keinen Aufrüstbedarf sehe, wenn Pathtracing noch in den Kinderschuhen steckt (das bisherige, magere Raytracing reicht mir nicht um dafür nVidia Aufpreise zu zahlen).

Falls nVidia doch 12 GB bei der mobilen RTX 5070 endlich bieten sollte, wird so eine evt. für mich interessant (auch davon abhängig wie diese leistungstechnisch verglichen mit der mobilen RTX 4080 abschneidet, da auf dem Laptop Raytracing noch weniger relevant ist wegen des kleineren Displays).

Per se/kategorisch schließe ich nVidia auch nicht aus, aber es gibt m.E. nur wenige Kartenmodelle, die bei denen noch Sinn machen, wie die teure 90er Serie für Enthusiasten und im Desktop die RTX 4070 Ti Super 16GB, insbesondere, wenn der 70er Blackwellchip von nVidia noch stärker shaderbeschnitten wird als schon bei Ada Lovelace (eigentlich eine 60er Serie wird mit heftigem Aufpreis).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cinquedea und sa1vador
Mcr-King schrieb:
Lustig wie aber RTX KI von vielen hier ignoriert wird

Aus Spielersicht sehe ich das skeptisch. Die Entwickler schaffen es ja noch nicht einmal, dumme "Automaten-Gegner" vernünftig auszubalancieren, und nerven einen dann noch zusätzlich mit sinnloser Checkpointrennerei statt der früher üblichen freien Speicherfunktion.

Es dürfte schwierig werden, KI-Gegner so zu zähmen, dass sie weder zu harmlos, noch unbesiegbar werden.

Außerdem ist das wieder so ein Feature, das man nicht voraussetzen kann, solange nicht jeder es hat. Die nächsten Jahre dürfte also eine Fallback-Lösung Standard bleiben, und dann wird irgendeine billige KI-Funktion für den Werbetext drangeflickt.
 
JMP $FCE2 schrieb:
Es dürfte schwierig werden, KI-Gegner so zu zähmen, dass sie weder zu harmlos, noch unbesiegbar werden.
nicht wenn die AI 'lernen' kann ... dann passt sie sich an deinen spielstil an ... das ist die zukunft und unausweichlich!
 
  • Gefällt mir
Reaktionen: Mcr-King
Eine Babysitter-KI, die mich gewinnen lässt, wenn ich mich zu blöde anstelle, will ich auch nicht ;)

Da schalte ich lieber selbst den Schwierigkeitsgrad runter.
 
sa1vador schrieb:
habe eine rtx 4070ti (non-S) ... selbst avatar (WQHD) auf max nimmt sich max 11 GB .. diskussion über VRAM ist lächerlich ... Nvidia macht das hervorragend.
->
Speicherbedarf: Erst ab 16 GB wirklich sorgenfrei
Diablo IV benötigt eine erstaunlich hohe Menge an Grafikkartenspeicher, denn erst ab 16 GB VRAM läuft das Spiel auch in hohen Auflösungen mit dem höchsten Preset einwandfrei. Verfügt die Grafikkarte lediglich über 12 GB, muss in Ultra HD mit Einschränkungen gelebt werden.
https://www.computerbase.de/2023-06...icherbedarf_erst_ab_16_gb_wirklich_sorgenfrei

Ab 16 GB gibt es keinerlei Probleme mit dem Speicher, ob auch 12 GB ausreichen, hat die Redaktion noch nicht getestet.
In Ultra HD adressiert das Spiel ohne Raytracing bis zu 12,3 GB an Speicher, mit den Strahlen sind es bis zu 13,4 GB. Rein vom Gefühl sollten 12 GB VRAM genug sein, bei einer längeren Spielzeit kann sich das aber auch ändern.
https://www.computerbase.de/2023-03/resident-evil-4-remake-benchmark-test/3/

Avatar: Frontiers of Pandora zeigt stellenweise extrem detaillierte Oberflächen, die auch eine ordentliche Portion Grafikkartenspeicher haben wollen. 8 GB sind für maximale Grafikdetails bereits in Full HD inklusive Upsampling nicht mehr zu empfehlen, mindestens 10 GB sollten es sein. Für WQHD empfiehlt die Redaktion 12 GB und für Ultra HD 16 GB.
Die Angaben sind keine Garantie, dass sie auch für eine längere Spielzeit ausreichend sind.
https://www.computerbase.de/2023-12/avatar-frontiers-of-pandora-benchmark-test/3/

Erst ab 16 GB ist man wirklich sorgenfrei
Hogwarts Legacy benötigt für maximale Texturdetails viel Grafikkartenspeicher. Konkret handelt es sich um das erste Spiel im Test der Redaktion, das erst ab 16 GB VRAM in allen Lebenslagen problemlos funktioniert. Selbst mit 12 GB muss man Einschränkungen in Kauf nehmen. So hat die GeForce RTX 4070 Ti zum Beispiel in Ultra HD und DLSS Quality bei ansonsten voller Grafikqualität zwar keine Performance-Probleme, aber bei manchen Objekten werden die Texturen nicht geladen, andere verschwinden kurzfristig völlig, da die Engine vermutlich versucht, die Situation irgendwie noch zu retten. Ohne Raytracing klappt es auch mit 12 GB.
https://www.computerbase.de/2023-02...nitt_der_vramhunger_des_spiels_ist_ordentlich

Mit Raytracing steigen die Anforderungen an den Speicher deutlich an. Wirklich sorgenfrei ist man erst ab 20 GB – dann gibt es selbst mit der nativen Ultra-HD-Auflösung keine Probleme mehr. Bei 16 GB heißt es hingegen wieder „Leben am Limit“. Bereits eine Änderung der Grafikoption ohne Neustart kann die Performance zum Einsturz bringen, was zeigt, dass der vorhandene VRAM komplett ausgereizt wird. Bei Ultra HD inklusive Upsampling gibt es keinerlei Probleme mehr bei 16 GB.
https://www.computerbase.de/2023-08...bschnitt_vram_ist_ein_thema_in_ratchet__clank

https://www.gamestar.de/artikel/hat-eure-grafikkarte-genug-vram-benchmarks,3392742.html
https://www.computerbase.de/forum/threads/vram-usage-aktueller-titel.636865/

Und viele Titel, aktuelle wie auch welche die schon ein paar wenige Jahre auf dem Buckel haben, machen jetzt heute schon heute 10GB oder Richtung 12GB voll, auch werden die Karten schneller oder sogar erheblich schneller als die "Vorgänger", aber behalten die Videospeichermenge ihrer "Vorgänger" laut Gerüchten. -> 4070 -> 5070 -> beide 12GB, aber die 5070 könnte (erheblich) schneller werden

Dann die Spiele die heimlich Texturen matschen/ploppen wenn man zu wenig VRAM hat aber trotzdem VRAM-lastige Regler etwas zu motiviert bedient hat...

🤡🤡🤡

Ich bin #ToasterGamer und kann Regler bedienen, aber Leute die es richtig brauchen, werden dann mit der Speicherknauserei (bei NV) nicht glücklich werden, und Texturen brauchen halt auch einfach Speicher.
 
  • Gefällt mir
Reaktionen: JarlBallin, Wanderwisser und Mcr-King
@K3ks:
Deine ganzen Beispiele sind für die Katz weil sie für volle Details @UHD gelten.

Auf FullHD mit ggf. hier und da reduzierten Details reichen 12GB VRAM dicke.
 
  • Gefällt mir
Reaktionen: sa1vador
Ich lese jetzt keine 40 Seiten.
Aber bin mir sicher irgendjemand hat schon geschrieben, dass Nvidia mit dem Speicher wesentlich besser und sparsamer umgeht als AMD? Wo Nvidia mit 12GB auskommt, braucht AMD 14GB.

vram-NV-AMD.png
 
sa1vador schrieb:
die regelt die schwierigkeit nach oben ... alles andere wäre doch unsinn ... oder???

Wenn man einmal einen guten Tag hatte, lässt sie einen am nächsten Tag zur Belohnung 100x gegen die Wand rennen ?

Nein danke, Geduld ist nicht meine Stärke. Die Schwierigkeitsgradeinstellung will ich selbst unter Kontrolle haben.
 
Tr8or schrieb:
mit dem Speicher wesentlich besser und sparsamer umgeht als AMD? Wo Nvidia mit 12GB auskommt, braucht AMD 14GB.

Naja mag stimmen aber DLSS, FG, RT und DLAA und andere Sachen brauchen VRAM auch vernünftige Texturen und bei einer 800€ Karte die Texturen auf mittel naja lol.
 
Das ist von Nvidea absolut desaströs die kommende Generation RTX 5070 mit 12 GB und zum Hohn wohl noch mit 192 GB/s GPU Anbindung auszustatten. Das ist eine Ressorcenverschwendung Sonders gleichen! Die Haltbarkeit absichtlich verkürzen und dann durch Künstliche herbeigeführte Teuerung der Ressorcen die Preise dem Kunden mit Übergewinn andrehen. Und der Kunde regt sich auf und kaufts … Und aus diesem Grund wird es so auf den Markt gebracht und weitere Gewinne erzielt. Und nach einer kurzen Debatte etwas bla bla bla, kommt dann nach ein paar Jahren die nächste Generation Grafikkarten mit dem Desaster auf den Markt.. und alles wiederholt sich! Der Markt regelt das …
 
  • Gefällt mir
Reaktionen: Mcr-King
migg22 schrieb:
192 GB/s GPU Anbindung auszustatten
Bit* und das ist egal:
K3ks schrieb:
Anbindung ist Lachs, auf die Gesamtbandbreite kommt es an, außerdem könnte GDDR7 locker 1/3 oder mehr an Speed zunehmen und am Cache wurde vlt. auch noch gearbeitet.
Ich mache mir da wenig (sprich: keine) Sorgen bei der reellen Speichergeschwindigkeit, aber was die Preise und RAM-Menge angeht wird "uns" NV halt melken..

4070 hat auch eine 192 Bit Anbindung, schaufelt dann mit GDDR6(X) rund 500GB/s, falls die 5070 mit GDDR7 kommt, dann könnte die Bandbreite um 700GB/s herum sein, also +40% und grob auf dem Niveau der 4080, das sollte schon passen.
Aber ja, die Speichermenge ist natürlich kalkuliert um den Kunden häufiger zum Kauf zu bitten zwingen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Cinquedea schrieb:
Auf FullHD mit ggf. hier und da reduzierten Details reichen 12GB VRAM dicke.
So könnte man aber auch für die aktuellen AMD Karten argumentieren "hier und da die Raytracing Einstellungen reduzieren, dann reicht die RT Leistung dicke".

Eigentlich haben beide Hersteller eine Sollbruchstelle. Bei AMD ist es die RT Leistung, bei Nvidia der Vram. Nur das AMD es leider aktuell nicht besser kann und Nvidia anscheinend nicht besser möchte.
 
  • Gefällt mir
Reaktionen: JarlBallin, Toprallog und Mcr-King
K3ks schrieb:
Aber ja, die Speichermenge ist natürlich kalkuliert um den Kunden häufiger zum Kauf zu bitten zwingen.

Oder auch das genaue Gegenteil. Der preisbewusste Käufer überspringt die Generation, und die Spieleindustrie muss sich die Speicherverschwendung noch länger verkneifen, wenn sie nicht mit Shitstorms überhäuft werden will.

Ich lehne mich mit meiner 4070 bequem zurück, weil NV ihr gerade eine längere Nutzungsdauer beschert hat.
 
Zurück
Oben