Steigt oder sinkt der VRAM-Bedarf beim Upscaling

Darkwater

Lt. Junior Grade
Registriert
Jan. 2022
Beiträge
374
Gerade in Bezug auf NVIDIA-Karten steht ja deren knapper VRAM oft zur Diskussion.
ich hatte nun im Kopf das Upscaling selbst VRAM braucht und wollte, dass als Argument anführen, dass es wichtig sei; da viel mir ein das beim Upscaling ja zunächst in einer niedrigeren Auflösung gerendert wird - und damit der Grundbedarf zunächst sinken dürfte...

Jetzt bin ich mir nicht sicher ob Upscaling ein Argument dafür ist, dass VRAM wichtig oder aber eins dafür dass es weniger wichtig sei und wollte deshalb mal nachfragen.
 
Ich habe die Beobachtung gemacht, dass zumindest bei DLSS der VRAM verbrauch etwas sinkt.
Wie das mit anderen Upsampeling-Methoden ist, weiß ich nicht.
Dazu gibt es aber bestimmt im Netz diverse Messungen. Schonmal nachgeschaut?
 
Auf den ersten Blick sehe ich in deinem verlinkten Artikel dazu nichts Blackwater
 
Zuletzt bearbeitet:
@Maviapril2 Zum einen bin ich nicht Blackwater zum anderen musst du etwas nach unten scrollen - da hast du dann solche Grafiken:
GoT-f.webp
 
FrameGen ist nicht Upscaling
 
  • Gefällt mir
Reaktionen: Mumbira, anarchie99, mKstan und 4 andere
@VDC Ah, ok, dann war meine Ausgangsfrage falsch da es mir im Grunde um DLSS/FSR ging und wie die beim VRAM zu berücksichtigen seien...
 
Also normalerweise sind die Upscaler recht RAM neutral, die Texturen und co werden ja sowieso den Groß des RAM belegen und der Unterschied im RAM Verbrauch für ein 4K oder 1080p "Standbild", das nach dem Abspielen ja verworfen wird, ist im Vergleich zum verfügbaren RAM Peanuts.
 
Habs gerade mal in FF16 getestet. Alles maxed out in 2560x1440.
8626mb Nativ ohne DLSS
8730mb DLSS+Qualität / bei Leistung hat sich nichts verändert
 

Anhänge

  • 20250103015948_1.jpg
    20250103015948_1.jpg
    419,9 KB · Aufrufe: 97
  • 20250103020012_1.jpg
    20250103020012_1.jpg
    379 KB · Aufrufe: 99
  • Gefällt mir
Reaktionen: Mumbira, SavageSkull, Baal Netbeck und 2 andere
AsgardCV schrieb:
8626mb Nativ ohne DLSS
8730mb DLSS+Qualität / bei Leistung hat sich nichts verändert
Das fällt schon in den Bereich der Messungenauigkeit, je nachdem was der Garbage Collector grad treibt
 
  • Gefällt mir
Reaktionen: DJMadMax und Baal Netbeck
Interessante Fragestellund!
Ich könnte mir vorstellen, dass das auch stark vom Spiel abhängt.

So ist es ja auch mit dem Auflösungabhängigen VRAM Verbrauch.

Manche Spiele nutzen scheinbar für manche Effekte eine andere Genauigkeit in Abhängigkeit von der Renderauflösung und auch andere Qualitätsstufen für die Texturen in Abhängigkeit von der Renderauflösung.
Da hat dann die Auflösung einen großen Einfluss auf den VRAM.

In manch anderen Spielen scheint das nicht der Fall zu sein und "Ultra Texturen" sind auflösungsunabhängig das gleiche.....da hat man dann mit höheren Auflösungen nur ganz wenig mehr VRAm Bedarf, weil vermutlich das zwischenspeichern des Frames einfach etwas mehr belegt.

Naja und so könnte ich mir vorstellen, dass Spiele auch unterschiedlich mit der gesenkten Renderauflösung durch DLSS/XeSS/FSR umgehen und manche die gleichen Texturen wie in nativer Auflösung nutzen und andere schlechtere Texturen.
Die Technik an sich wird wohl kaum etwas belegen, da es ja kaum extra Daten benutzt...ein paar Bewegungs-Vektoren...der Code für den Algorithmus....und etwas mehr Speicher weil nun zwei Frames statt einem gespeichert werden.

Warum Framegen so viel mehr braucht kann ich nicht so ganz verstehen...da hat Nvidia ja teilweise eh komische Probleme.... FG in höheren Auflösungen kann zu einem heftigen CPU Limit führen, dass die FPS in 4K sogar senken kann...obwohl es ja eigentlich ein GPU Feature sein sollte. Das nutze ich aber eh nicht, da ich den Nutzen nicht sehe.
 
Ich nehme an, da das Texturausgangsmaterial vor dem Skalieren immer dasselbe sein muss, wird der Einfluss auf den Speicherverbrauch gering sein und im Zweifel für den Verarbeitungsaufwand einen kleinen Overhead erzeugen.

Maßgeblich dürfte daher das ausgewählte Textur-Detaillevel sein, ob das wie auch immer skaliert wird oder nicht. Eine skalierte 4k-Textur wird potenziell natürlich besser aussehen als eine 2k-Textur, aber vor dem Skalieren müssen sie halt alle in den Speicher wie sie sind.

Texturen sind vergleichsweise performance-neutral, solang der Speicher reicht und sind sooooo wichtig für die Optik wie kaum etwas.
 
Zuletzt bearbeitet:
DLSS selbst braucht VRAM, allerdings wird gleichzeitig die Rederauflösung verringert.
Wenn man also z.B. in UHD spielt, entspricht die Renderauflösung mit DLSS Quality exakt WQHD.
Der Speicherbedarf entspricht also nativ WQHD + DLSS.
Soweit ich weiß sinkt der VRAM Bedarf gegenüber der nativen Auflösung, ist aber etwas höher, als wenn man direkt in der Renderauflösung spielen würde. Je höher Upscaling Faktor, desto geringer müsste der der VRAM Bedarf sein.
Somit bietet es sich beispielsweise an mit einer schwachen GPU auf einem 4K TV mit DLSS Performance zu spielen anstatt mit FHD und doppelter Pixelgröße.
FG oder RT steigert den VRAM Bedarf dagegen wieder.

Leider ist es schwierig passende Benchmarks zu finden. Hier ein Beispiel:
https://www.tweaktown.com/articles/...hmarked-at-8k-dlss-gpu-cheat-codes/index.html

1735888397399.png
 
  • Gefällt mir
Reaktionen: Darkwater, anarchie99, NerdmitHerz und 2 andere
AMD-Flo schrieb:
Leider ist es schwierig passende Benchmarks zu finden. Hier ein Beispiel:
Interessanter Test, aber halt nur ein Spiel.

Ich denke das kann je nach Spiel ganz anders ausfallen.
Müsste ich einfach mal durchtesten und sollte auch nicht so schwer sein...nur aufwendig.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
AsgardCV schrieb:
bei Leistung hat sich nichts verändert
Beziehst du das auf "Qualität/Leistung" der DLSS-Einstellung? Denn in deinen beiden Screenshots gibt es ja schon deutliche Leistungsunterschiede: 55 FPS bei 98% GPU-Auslastung vs. 60 FPS und 82% - da ist letzteres natürlich zu bevorzugen.

Bei den beiden Screenshots sehe ich selbst im Detail keinerlei Unterschiede. Das Bashing gegen DLSS / FSR / XeSS, weil man somit ja weniger Rohleistung bei der Grafikkarte bekommt, halte ich für falsch.
 
@DJMadMax
Ja genau, die DLSS Stufen unterscheiden sich lediglich in den möglichen FPS. Beim 60 FPS Screenshot war noch ein FPS Cap gesetzt. Ich hab vorhin allerdings nochmal gegen geprüft mit uncapped FPS, der VRAM Bedarf von FF16 bleibt von 720p+DLSS-UltraPerformance bis 1440p+ohne Upscaler quasi fast identisch. Dieser schwankt in der selben Scene zwischen 8200mb bis knapp unter 8800mb.

Bezüglich der Bildqualität macht in FF16 FSR sogar einen deutlich besseren Job als DLSS.
 
  • Gefällt mir
Reaktionen: Baal Netbeck und DJMadMax
DJMadMax schrieb:
Bei den beiden Screenshots sehe ich selbst im Detail keinerlei Unterschiede
Die Unterschiede sieht man auf Standbildern schlecht.
Mikroskopische Unterschiede in der Kameraposition führen dazu, dass der Algorithmus sich anders entscheidet.
Um so niedriger die Ausgangsauflösung, um so mehr muss der Algorithmus extrapolieren und um so mehr rauscht das Bild in Bewegung.

Kommt auch aufs Spiel an...und die gewählten Einstellungen...und die Implementierung der upscaler....und DLSS, FSR, XeSS...

Die haben aber auch ihre eigenen Wege um die Bildstabilität zu verbessern.

DLAA oder Quality ist meist stabiler und hübscher als nativ ohne TAA...und nativ mit TAA ist unscharf....und abhängig von den FPS.

Am besten selbst ausprobieren oder gute Vergleichsvideos mit starkem Zoom angucken.
DJMadMax schrieb:
Das Bashing gegen DLSS / FSR / XeSS, weil man somit ja weniger Rohleistung bei der Grafikkarte bekommt, halte ich für falsch.
Höre ich zum ersten Mal.

Die Reviews testen doch überwiegend ohne upscaling und vergleichen die Rohrleistung.

Und DLSS ist der Empfehlungsgrund Nr.1 für Nvidia gegenüber AMD.

... Ist aber doch auch gar nicht Thema...thema ist VRam.
 
Der VRAM Bedarf ist idR etwas niedriger als er in nativer Auflösung wäre, aber natürlich höher als er in der Renderauflösung wäre.

Also z.B.
4K: 12GB
1440p: 8GB
4K+DLSS Q: 11GB
 
  • Gefällt mir
Reaktionen: LencoX2
Baal Netbeck schrieb:
Höre ich zum ersten Mal.
Die Reviews testen doch überwiegend ohne upscaling und vergleichen die Rohrleistung.
Und DLSS ist der Empfehlungsgrund Nr.1 für Nvidia gegenüber AMD.
Da kommen doch schon recht häufig aus der Community harsche Worte an die Spieleentwickler, sinngemäß etwa so: "Ihr optimiert nicht mehr richtig, Spiele müssen mit Upscaling gespielt werden, das ist eine Mogelpackung". Solche Beiträge habe ich schon zu Hauf bei diversen Spieletests auf ComputerBase gelesen.

Baal Netbeck schrieb:
... Ist aber doch auch gar nicht Thema...thema ist VRam.
Das eine schließt aber das andere nicht aus. Wenn also geklärt ist, dass DLSS keinen zusätzlichen Speicher benötigt, dann kann auch direkt geklärt werden, dass DLSS, sofern man nicht unter eine gewisse Auflösung rutscht, nicht nur zufriedenstellende, sondern in der Regel sogar bessere Ergebnisse liefert, als die native Auflösung mit aktiviertem, klassischen Antialiasung.
 
Zurück
Oben