Bericht Upscaling-FAQ: Fragen und Antworten zu Nvidia DLSS, AMD FSR & Intel XeSS

Tevur schrieb:
Nochmal: Upscaling sieht immer schlechter aus als nativ.
links nativ, rechts TSR @85% so gesehen in STALKER 2
 

Anhänge

  • Screenshot 2025-01-29 230544.png
    Screenshot 2025-01-29 230544.png
    5,5 MB · Aufrufe: 38
  • Screenshot 2025-01-29 23134447.png
    Screenshot 2025-01-29 23134447.png
    6,2 MB · Aufrufe: 36
Problematisch ist halt bei den ganzen Upsampling-Techniken, dass bestimmt nicht viele genau wissen, was sie nun nach der erfolgten Installation und dem ersten Spielstart einstellen sollen.
Welche Einstellung das optimalste Ergebnis liefert (Bildqualität vs. Performance), dafürber machen sich wohl nicht alle Gedanken, denn man geht oft davon aus, dass das alles oder das meiste im Grafik-Menü schon so korrekt voreingestellt ist. Wenigstens steht da für jeden verständlich, dass es sich um die Upsampling-Stufe "Quality", "Balanced" und dann "Performance" handelt. Aber selbst da kommen bei einigen noch Fragen auf...

Fest steht: Wer wissen will, was all die Dinge im Grafik-Menü bedeuten, muss sich eben schlau machen.
Da führt kein Weg dran vorbei. Oder einfach der schnellsten Weg gehen: Youtube und dann nach den optimalen Settings schauen...
Mit der Zeit lernt man auch, welche Settings im Menü wichtig sind und welche weniger...
Aber anfangs ist das für jeden unverständlich und man ist mit der Fülle an Einstellungsmöglichkeiten überfordert.
Da erscheinen Konsolen wie der Easy-Cheat-Mode ;)

Dass von einem 4K-Monitor ausgehend eine bessere Upsamplung-Qualität als von einem 2K-Monitor ausgehend erreicht werden kann, ist wohl weniger bekannt (je höher die Zielauflösung, desto besser das Ergebnis).
Und dass nun mit dem Transformer-Modell die Performance-Qualität auf einmal von der Bildqualität her nutzbar wird, ändert auf einen Schlag die Situation ob man sich nicht doch lieber einen 4K-Monitor holt, da "Performance" ja nur von Full-HD hochskaliert....; vor dem Transformer-Modell hätte man noch auf "Quality" gesetzt (2K).
Ursprünglich war ich am abwegen ob mit einer 6700XT ein 2K-Moni nicht doch besser wäre, da ich auf diesem von Full-HD hochskalieren würde (Quality). Aber mit Transformer hätte ich auf einem 4K-Panel mehr Pixel für mehr Details im Bild und würde weiterhin nur von Full-HD hochskalieren. Da greife ich doch gleich zum 4K-Panel.

PS: Bekannter behauptet, DLAA würde nicht zusammen mit DLSS SR laufen!?! (Bin gerade auf AMD)
Wenns so wäre, dann nicht so toll. Dachte mir, machste mal DLAA (wenn im Spiel vorhanden) an und holst die Performance aus DLSS SR wieder her. Am Ende hätte man einen ähnlichen FPS-Wert wie ohne DLAA, aber dafür mit deutlich besser geglättetem Bild.
 
Zuletzt bearbeitet:
Wofür ich noch immer keine wirkliche Antwort gefunden habe, ist, was in folgendem Szenario passiert:
  • Monitor mit 120hz wird wegen G-Sync auf z.B. 120 fps gecappt (Werte zur einfacheren Rechnung gewählt)
  • Ein Spiel liefert 60 fps
  • Es wird MFG 4x aktiviert
Bei 30fps mit MFG 4x landet man bei 120 fps. Bei allem darüber, z.B. 60fps mit MFG 4x bei 240fps, landet man jedoch über dem gesetzten fps Cap.
Was passiert in einem solchen Fall? Werden dann einfach weniger generierte Frames erzeugt oder wird die "Base Framerate" von 60fps künstlich auf 30 reduziert, damit man rechnerisch (30x4) wieder auf die 120fps kommt?

Ich vermute letzteres ist der Fall? Das würde aber wirklich bedeuten, dass MFG für jeden, der G-Sync nutzt und keinen >240hz Monitor besitzt, quasi unbenutzbar wird.
Wurde dazu irgendwo etwas erwähnt oder kann dazu jmd. mehr sagen?
 
Zuletzt bearbeitet:
5hred schrieb:
Problematisch ist halt bei den ganzen Upsampling-Techniken, dass bestimmt nicht viele genau wissen, was sie nun nach der erfolgten Installation und dem ersten Spielstart einstellen sollen.
Es ist noch schlimmer. Bin schon etwas weg vom Thema (PS5). Bisher dachte ich mir, dass ich in Spielen heut nicht mehr wüsste was ich alles einstellen müsste. Jetzt mit den Tests zu den neuen Grafikkarten ist es aber schon so schlimm, dass ich nicht mal mehr die Reviews sinnerfassend lesen kann. :D

Irgendwie dachte ich schon, dass ich mir irgendwann auch wieder einen Gaming-PC baue. Aber ich hab das Gefühl die Brücke wird gerade abgerissen.
 
Gravlens schrieb:
Beispielsweise war das bei mir mit Resident Evil 4 Remake (Die Demo, hatte das Spiel aber danach in einem Sale gekauft) der Fall, obwohl ich in der Default-Config-Datei von RE4 die Auflösung auf DLDSR umgeschrieben hatte.^^
In ganz seltenen Fällen musst du die höhere Auflösung auch auf dem Desktop wählen und erst dann funktioniert diese auch im Spiel.
 
  • Gefällt mir
Reaktionen: Gravlens
5hred schrieb:
PS: Bekannter behauptet, DLAA würde nicht zusammen mit DLSS SR laufen!?! (Bin gerade auf AMD)
Wenns so wäre, dann nicht so toll. Dachte mir, machste mal DLAA (wenn im Spiel vorhanden) an und holst die Performance aus DLSS SR wieder her. Am Ende hätte man einen ähnlichen FPS-Wert wie ohne DLAA, aber dafür mit deutlich besser geglättetem Bild.
Du musst dich natürlich entscheiden was du nun willst, downsampling oder Upscaling. Was du willst entspricht: Auflösung erhöhen per DLDSR und dann DLSS nutzen und das geht natürlich, nutze ich so schon lange.
 
  • Gefällt mir
Reaktionen: 5hred
@erazzed
Richtig, die fps die am Monitor ankommen, muss man durch den FG Faktor teilen, damit man auf die nativen fps kommt. Nicht die fps die man vor dem aktivieren von FG hat.
Und nach aktuellem Stand, wegen Latenz Erhöhung durch FG, sollten die nativen fps schon gerne 70 oder mehr sein. Somit recht einfach auszurechnen wie viel Hz der Monitor für die verschiedenen FG Modi mindestens haben sollte.
70 fps x 2xFG = 140 Hz
70 fps x 3xMFG = 210 Hz
70 fps x 4xMFG = 280 Hz
Besser
80 fps x 2xFG = 160 Hz
80 fps x 3xMFG = 240 Hz
80 fps x 4xMFG = 320 Hz

Zumal bei niedrigen fps die FG Bildfehler zunehmen, bzw auffälliger werden. So wie upscaling bei höheren Auflösungen / mit mehr Pixel besser funktioniert, so lebt FG von der nativen framerate.

Auch wenn es einige hier nicht hören wollen, aktuell taugt FG nur um die Ausgabe fps zu erhöhen und nicht um unspielbare fps zu boostern. Dafür muss man upscaling oder niedrigere Einstellungen nutzen.
Wobei nur hört sich viel zu negativ an, es ist eine super sache um günstig auf sehr hohe geschmeidige frameraten zu kommen.

https://www.computerbase.de/forum/t...nutzen-dlss-auch-auf-cb.2226298/post-30223614
 
  • Gefällt mir
Reaktionen: serve1chilled und erazzed
thermalpaste schrieb:
Links ist nativ @3440x1440px :D
Ja das ist aber auch etwas übertrieben, nur Nativ ist einfach nicht zu gebrauchen, in Rostok ist da einfach alles in Bewegung, der Boden sieht aus als wäre er mit Ameisen übersät. TAA ist da das Minimum zum vergleichen und immer noch Nativ.
Der Vergleich macht in dem Fall also nur Sinn wenn du TSR 100% neben 85% setzt, sich einfach das schlechteste Native Bild zu nehmen nennt man Cherrypicking, es gibt halt mehrere AA Verfahren für Nativ.
 
Pro_Bro schrieb:
In ganz seltenen Fällen musst du die höhere Auflösung auch auf dem Desktop wählen und erst dann funktioniert diese auch im Spiel.
Danke dir für den Tipp, dies ist auch der allgemeine Workaround für Spiele mit DirectX 12 auf den ich mich bezog.^^

Ist halt nur nicht optimal da man dann die Auflösung jedes mal wieder wechseln "muss" nach dem Spielen, und ich mache öfter Pausen beim Spielen.^^

Aber ist natürlich besser als DLDSR überhaupt nicht nutzen zu können.^^
 
HageBen schrieb:
@erazzed
Richtig, die fps die am Monitor ankommen, muss man durch den FG Faktor teilen, damit man auf die nativen fps kommt. Nicht die fps die man vor dem aktivieren von FG hat.
Und nach aktuellem Stand, wegen Latenz Erhöhung durch FG, sollten die nativen fps schon gerne 70 oder mehr sein. Somit recht einfach auszurechnen wie viel Hz der Monitor für die verschiedenen FG Modi mindestens haben sollte.
70 fps x 2xFG = 140 Hz
70 fps x 3xMFG = 210 Hz
70 fps x 4xMFG = 280 Hz
Besser
80 fps x 2xFG = 160 Hz
80 fps x 3xMFG = 240 Hz
80 fps x 4xMFG = 320 Hz

Zumal bei niedrigen fps die FG Bildfehler zunehmen, bzw auffälliger werden. So wie upscaling bei höheren Auflösungen / mit mehr Pixel besser funktioniert, so lebt FG von der nativen framerate.

Auch wenn es einige hier nicht hören wollen, aktuell taugt FG nur um die Ausgabe fps zu erhöhen und nicht um unspielbare fps zu boostern. Dafür muss man upscaling oder niedrigere Einstellungen nutzen.
Wobei nur hört sich viel zu negativ an, es ist eine super sache um günstig auf sehr hohe geschmeidige frameraten zu kommen.

https://www.computerbase.de/forum/t...nutzen-dlss-auch-auf-cb.2226298/post-30223614
Ok, damit bestätigst du meine Annahme. Was das Ganze halt richtig dämlich werden lässt, ist die Tatsache, dass man vorher gar nicht weiß, wieviel fps man haben wird. Zudem können die fps, je nach Szene und Situation deutlich schwanken. In einer Szene 30fps und in einer anderen 60 oder mehr fps sind nichts Ungewöhnliches. In einem solchen Fall in Kombination mit G-Sync und einem z.B. 120fps Cap wird das Ganze durch MFG komplett ad absurdum geführt und man verschlechtert ggf. unnötig die Latenz, obwohl es gar nicht nötig wäre. Schade!

Viel spannender wäre MFG, wenn es variabel wäre. Also quasi Framecap 120fps und je nach Anzahl der gerenderten ("echten") Frames wird in Echtzeit zwischen MFG 1x(nativ, ohne generiert)/2x/3x/4x geswitcht. Mark my words, wenn ein solches Feature mit der RTX 60 oder 70 genau so kommen wird: Variable Multi-Frame-Gen (VMFG) :D
Bis dahin ist für mich MFG komplett uninteressant.
 
A.Xander schrieb:
Ja das ist aber auch etwas übertrieben
Natürlich ist das komplett übertrieben und an der Realität vorbei, aber seine Aussage wollte ich so nicht stehen lassen. Es gibt mittlerweile so viele Spiele bei denen das AA total versaut wurde, also auch Fälle, wo man zur nativen Auflösung zuschalten kann was man will und es immernoch nicht aufhört zu flimmern ohne Upscaling. Umgekehrt gibt es genauso Upscaling implementationen, die ich mit allen Mitteln vermeiden möchte.
 
thermalpaste schrieb:
und es immernoch nicht aufhört zu flimmern ohne Upscaling
Biullshit! Ich wiederhole nochmal: mit dem PostProcessing und der gleichen AA-Methode sieht nativ immer besser aus als Upscaling.
Du willst meine Aussage nicht stehen lassen? Dann liefer endlich den Beweis! Du schaffst es ja nicht mal zu zeigen, dass du die Aussage überhaupt verstehst.
 
Ich fummel grad mit dem neuen DLSS rum, die Nvidia App tauscht leider noch nicht die DLSS Version eines Spiels auf die aktuelle, daher noch immer DLSS Swap nötig.

Aber hier muss man jetzt anfangen zu suchen:

310 DLAA
310-DLAA.jpg


310 Native Auflösung
310-NATIVE.jpg


310 DLSS Quality
310-QUALITY.jpg



Hat n Weilchen gedauert aber jetzt wird die Sucherei langsam riesig, das beste ist vllt gerade noch so die kleine Anzeige unten hinterm Lenkrad, die kleinen Striche wie bei einem Lineal, der Rest wird schon schwer ausfindig zu machen.
Dachte erst es reicht jetzt mit dem neuen Treiber nur die Nvidia App für die neue DLSS Overwrite Funktion zu nutzen, aber nope.

Den am ehesten sichtbaren Unterschied fand ich bei den blauen Pfeilen und auch bei den Zäunen.


Altes DLAA / DLSS
old-dlss-DLAA.jpg


altes Nativ

old-native.jpg


alte DLSS Quality

old-dlss-quality.jpg


Die ganzen Querstreben im Zaun verschwinden im alten DLSS, das ist im neuen beträchtlich besser und schärfer.

Ist zwar echt hart das ganze da zu "Rekonstruieren" aber das sind ohnehin die einzigen Auffälligkeiten. Die Beleuchtung ändert sich ja auch noch.

Btw. alles HDR Screenshots.
 
erazzed schrieb:
Ich vermute letzteres ist der Fall? Das würde aber wirklich bedeuten, dass MFG für jeden, der G-Sync nutzt und keinen >240hz Monitor besitzt, quasi unbenutzbar wird.

Schreibt auch CB in dem MFG-Abschnitt im 5090-Test. Optimalerweise hat man ein 240Hz-Panel am Start, damit man bei MFG Faktor 4 noch auf 60 Render-Frames kommt um noch halbwegs einen akzeptablen Input Lag zu haben. Alles unter 60 Render-Frames verschlechtert den Lag umso mehr... (hoffe, das gebe ich richtig wider...), da MFG dann mit einem höheren Input Lag Basis-Wert arbeitet....
Bei 60 FPS hat man noch die 16,66 ms, dann bei 30 den doppelten von 33,33 ms...
Daher wäre MFG auf einem 120 Hz-Panel mit der Einstellung Faktor 4 kompletter Murks, vermute ich.
Faktor 4 werde ich wohl aufgrunde der "disconnect"-Problematik nie benutzen wollen, daher bin ich froh, dass mein aktueller Monitor die 160 Hz abliefert, damit ich FG (Faktor 2) ordentlich benutzen kann, wenn 80 reale Frames anliegen sollten.

erazzed schrieb:
Ok, damit bestätigst du meine Annahme. Was das Ganze halt richtig dämlich werden lässt, ist die Tatsache, dass man vorher gar nicht weiß, wieviel fps man haben wird. Zudem können die fps, je nach Szene und Situation deutlich schwanken. In einer Szene 30fps und in einer anderen 60 oder mehr fps sind nichts Ungewöhnliches. In einem solchen Fall in Kombination mit G-Sync und einem z.B. 120fps Cap wird das Ganze durch MFG komplett ad absurdum geführt und man verschlechtert ggf. unnötig die Latenz, obwohl es gar nicht nötig wäre. Schade!

Viel spannender wäre MFG, wenn es variabel wäre. Also quasi Framecap 120fps und je nach Anzahl der gerenderten ("echten") Frames wird in Echtzeit zwischen MFG 1x(nativ, ohne generiert)/2x/3x/4x geswitcht. Mark my words, wenn ein solches Feature mit der RTX 60 oder 70 genau so kommen wird: Variable Multi-Frame-Gen (VMFG) :D
Bis dahin ist für mich MFG komplett uninteressant.

Nee, alles unter 60 reale Frames würde einen zu hohen Input Lag erzeugen...Aber das fühlt wohl jeder wohl anders... Das ist ja aktuell das Problem mit MFG: es funktioniert anscheinend erst ab 60-80 realen Frames passabel.
Ergänzung ()

Pro_Bro schrieb:
Auflösung erhöhen per DLDSR und dann DLSS nutzen

Wie ist aktuell die Qualität von DLDSR verglichen mir AMD VSR? Hat da wer Vergleiche gemacht?
Dürfte eigentlich vom Prinzip her optisch und performancetechnisch keinen Unterschied ausmachen: kein Hexenwerk von einer höheren Auflösung runterzuskalieren....
Ich nutze aktuell auch gerne VSR in Kombo mit FSR. Was DLAA angeht, ist das aktuell die effektivste Kantenglättungstechnik, oder?
 
Zuletzt bearbeitet:
5hred schrieb:
Wie ist aktuell die Qualität von DLDSR verglichen mir AMD VSR?
Es gibt zumindest Screenshot-Vergleiche zwischen DLDSR und DSR als es noch möglich war über GeforceExperience und dem in-game Overlay welche zu machen die tatsächlich das aufgenommen haben was man auch auf dem Bildschirm sieht:

https://imgsli.com/OTA5Nzk

Wenn man über der Zielflagge die weiter entfernten Bäume im Hintergrund betrachtet und vergleicht sieht man wie überlegen DLDSR gegenüber dem normalem DSR ist.^^

Oder man zoomed mit der Lupe rechts unten ran und vergleicht die Straße.^^

Ich habe aber die Glättung mit DLDSR aus wobei das vielleicht auch Geschmackssache ist.^^ Man muss aber dazu sagen das es leider nicht immer so einfach ist DLDSR in Spielen zu aktivieren.^^
 
Gravlens schrieb:
Man muss aber dazu sagen das es leider nicht immer so einfach ist DLDSR in Spielen zu aktivieren.^^

Wie kommts? Haben das nur wenige Spiele implementiert und bei den anderen muss man selber Hand anlegen und rumflickeln? Also fallen da schon Spiele mit Anti-Cheat-Engine raus oder? Valide Daten und so...

Hab den Vergleich gesehen: könnte da bei DSR nicht ein stärkerer Schärfe-Filter nachhelfen um an die Optik von DLDSR ranzukommen? Höchstwahrscheinlich ist das nicht so einfach und DLDSR gibt auf dem Bild einfach mehr feine Details wieder. Mit Schärfe lässt sich da bei DSR nichts hinzufügen, ausser das Bild schärfer wirken zu lassen.
 
5hred schrieb:
Wie kommts? Haben das nur wenige Spiele implementiert und bei den anderen muss man selber Hand anlegen und rumflickeln?
Implementiert muss es eigentlich bei keinem Spiel sein, aber man muss die höhere Auflösung als die native im Spiel auswählen können was bei DirectX 12 Spielen ein Problem darstellt.

Man kann das umgehen in dem man die Desktopauflösung auf die DLDSR Auflösung die man ausgewählt hat einstellt, aber ich finde das nicht optimal.^^
5hred schrieb:
Hab den Vergleich gesehen: könnte da bei DSR nicht ein stärkerer Schärfe-Filter nachhelfen um an die Optik von DLDSR ranzukommen?
Das normale DSR verwendet einen Gauß-Filter, was zumindest meiner Meinung nach nicht mit DeepLearning mithalten kann, ich hatte ja eine Diskussion hier in diesem Thread vor längerer Zeit mit jemand anderem der das anders sah, aber das kann man ja auch einfach selbst testen und vergleichen, dafür braucht man keine andere Meinung.^^
 
Zurück
Oben