Bericht Upscaling-FAQ: Fragen zu Nvidia DLSS, AMD FSR und Intel XeSS beantwortet

Taxxor schrieb:
Du brauchst mit 4K und FSR/DLSS Quality immer noch mehr VRAM als mit 1440p, so viel spart das nicht ein.
Wenn dann noch FG dazukommen soll, wird der VRAM Bedarf noch mal höher
Könntest du mir auch erklären warum dass nicht so viel einspart?
 
Wanderwisser schrieb:
Kann mich eigentlich nur an Witcher 3 Next Gen Edition erinnern, bei der FSR echt unscharf und deutlich schlechter als Nativ aussah. Da gab es aber irgendwie keine Nachschärfung (vllt mittlerweile?). Habe dann aber AMD CAS über Reshade rein getan, dann war das Problem behoben :D
CAS über Reshade zu nutzen ist auch nützlich, wenn man DLSS nutzt. Cyberpunk hat aktuell leider Probleme mit Reshade, aber da habe ich vorher auch immer CAS draufgeworfen. Auch bei Skyrim & Fallout 4 (mit DLSS mods) und Baldur's Gate 3 nutze ich CAS via Reshade. Sieht eigentlich immer besser aus als die Schärftungsoptionen der Spiele selbst.
 
  • Gefällt mir
Reaktionen: Wanderwisser
Floppy5885 schrieb:
Könntest du mir auch erklären warum dass nicht so viel einspart?
Weil du nicht einfach nur in 1440p renderst sondern auch Infos aus 40-60 vergangenen Frames nutzt, die auch ihrerseits VRAM brauchen.
(Edit: Plus das vom Post unter mir^^)

Hier hatte ich auch mal getestet, wie sich das ca verhält.

Wenn du nun auch noch FG nutzt, brauchst du noch mal mehr VRAM für die Zwischenbilder, die ja rein auf der GPU erstellt werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Floppy5885
Floppy5885 schrieb:
Könntest du mir auch erklären warum dass nicht so viel einspart?
Wenn Upscaling aktiv ist, laden Spiele höherauflösende Versionen der Texturen (Mip-Levels) als sie es bei der eingestellten Renderauflösung normalerweise tun würden, da das nach dem Upscaling deutlich sichtbar ist. Braucht aber halt etwas mehr VRAM (und Speicherbandbreite).
 
  • Gefällt mir
Reaktionen: MoinWoll, Floppy5885 und Mimir
Bei jeder neuen Technik/Softwärelösung wird halt immer rumgeheult. "Oh nein, GoogleSearch hilft mir bei Selberaufsuschen von Webseiten, die ich vorher nie gefunden hätte...Teufelszeug!!". 🤪

Upscaling ist für die breite Masse nur zu begrüßen. Ich für meinen Teil habe mehr Spaß an einem flüssigeren Bild, als an der kranken Suche nach irgendwelchen im Zoom gefundenen Texturuntschieden.
DLSS Qualität wird bei mir, sobald verfügbar, grundsätzlich aktiviert.....außer in Baldur's Gate 3, da ist DLAA der KING. 🥳
 
  • Gefällt mir
Reaktionen: Lille82, MoinWoll und Daddi89
-equal- schrieb:
Dieses ganze Gedöns braucht man jetzt genau weswegen?
Bessere Kantenglättung bzw. mehr FPS und/oder niedriger Stromverbrauch.

-equal- schrieb:
Klingt irgendwie hart nach Marketingewchwurbel seitens der Hersteller um Stagnation zu rechtfertigen.
Die sogenannte "Bildverbesserung" die damit einhergehen soll resultiert doch im Endeffekt im matschigen Pixelbrei.
Im Beitrag steht sogar noch, dass das nicht der Fall ist.
 
  • Gefällt mir
Reaktionen: Lille82, MoinWoll und Daddi89
Ein dickes Dankeschön @Vitche !
Ich habe schon gespannt drauf gewartet seit ihr es das erste mal im Podcast erwähnt habt.
 
  • Gefällt mir
Reaktionen: Vitche
-equal- schrieb:
Dieses ganze Gedöns braucht man jetzt genau weswegen?
Klingt irgendwie hart nach Marketingewchwurbel seitens der Hersteller um Stagnation zu rechtfertigen.
Die sogenannte "Bildverbesserung" die damit einhergehen soll resultiert doch im Endeffekt im matschigen Pixelbrei.
Nach Sli und Doppel GPU auf einem PCB, der nächste Clou - wird interessant wann dieses Feature Set fallen gelassen wird.

Warum sollte man das wieder verwerfen?

Mit Performance Upscaling + FG wird nur noch 1/8 der Pixel tatsächlich berechnet. Das erlaubt bis zu 4x höhere FPS und macht aktuell Pathtracing überhaupt erst möglich. Und das alles auf der selben Hardware nur durch ein paar Algorithmen. Das ist doch genial.
Wer keine Kompromisse eingehen will, der nutzt eben Quality Upscaling (was oft besser als TAA in nativer Auflösung aussieht) und bekommt damit dann eben zusammen mit FG eher 2-3 fache performance. Was ja immernoch SEHR viel ist. Das waren früher locker 2-3 GPU Generationen. Heute braucht es nur einen Klick und man spielt praktisch mit der performance die man ggf. sonst erst 2030 bekommen würde.

Da für Pathtracing mit fotorealistischer Qualität noch sehr viel mehr Leistung notwendig ist, haben wir weiterhin Bedarf nach immer mehr Rechenleistung. Auf der anderen Seite wird der Fortschritt bei der Chipentwicklung und Miniaturisierung immer geringer und die Kosten steigen. Der tatsächliche Fortschritt stagniert.
Daher ist eine Performanceskalierung aktuell größtenteils nur noch über solche Algorithmen möglich.

Das heißt, solche Features werden zunehmend wichtiger statt unwichtiger. Das wird irgendwann wahrscheinlcih soweit führen, dass die gesamte Renderpipeline nicht mehr auf Rasterizing und brute force rendering sondern eher auf Bild und Inhaltsgenerierung basieren wird wo die qualität und bildrate viel stärker von Algorithmen oder AI Models als von tatsächlicher Rechenleistung abhängig sein wird.

Selbst wenn sich die Chipentwicklung wieder beschleunigen sollte und wieder günstiger wird. So hat man hier trotzdem einen neuen Pfad des Fortschritts aufgemacht, den es in der Form bisher noch nicht gab und der uns auf jeden Fall auch in Zukunft schneller zum Fotorealismus bringen wird.


Ich bin mir ziemlich sicher, dass wir in den nächsten Jahren jetzt fortlaufend verbesserungen zu DLSS, FSR, Frame Generation und was auch immer man sich noch einfallen lässt, sehen werden, was dafür sorgt, dass die Rendering effizienz mit jeder iteration verbessert wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CMDCake, Zwirbelkatz, Lille82 und 7 andere
@Vitche
In der Intel XeSS Tabelle, Ultra Quality FullHD, die 1970 Pixel stimmen da nicht, oder? Dann würde er ja 50 Pixel mehr machen als er braucht. Bei QHD passt es eher hin :D
 
Oh, da hast du natürlich recht, der Wert aus der vorherigen Spalte ist da reingerutscht. Habe es korrigiert, danke dir!
 
Danke für den Bericht, ich hatte mich über Upscaling schon schlau gemacht und auch sehr viel an verschiedenen Grafikkarten und Einstellungen herumexperimentiert. Zusammen mit Cloudgaming scheint das die Zukunft zu sein.
 
Wenn Spiele nur noch mit DLSS einigermaßen FPS auf den Bildschirm zaubern , sind die Entwickler einfach zu faul.

Anstatt zu optimieren wird DLSS benutzt

Das ist keine gute Entwicklung !
 
  • Gefällt mir
Reaktionen: dfghdfgfgh und Aduasen
Berserkervmax schrieb:
Wenn Spiele nur noch mit DLSS einigermaßen FPS auf den Bildschirm zaubern , sind die Entwickler einfach zu faul.

Anstatt zu optimieren wird DLSS benutzt
Das ist Unfug. Wenn die Leistung der Hardware für die Grafikpracht nicht reicht, kannst du so viel optimieren wie du willst, aber es wird nicht spielbar. DLSS sorgt hier für Abhilfe.
Woran machst du überhaupt fest, dass ein Spiel nicht optimiert ist?
 
  • Gefällt mir
Reaktionen: Lille82, Quidproquo77, MoinWoll und 3 andere
Gerade bei hohen Auflösungen ist die Komplexität inzwischen so hoch, dass man 60 FPS (oder sogar mehr) nur noch mit den absolut besten GPUs erreichen kann.
Und da diese in den letzten Jahren halt auf Preise jenseits der Zweitausender Marke gestiegen sind, wird auf die Spielentwickler eingeprügelt.
Das war aber schon vor Jahren so - nur waren da die GPU Preise für viele noch bezahlbar.

Gleichzeitig werden Monitore günstiger und werden 'in groß' gewünscht.
So ein bisschen ein Dilemma für Spieler.

Wenn Du Dir einen großen Monitor kaufst, musst Du halt auch sehen, ob Du auf Dauer (nicht nur einmalig) bei jedem neuen Rechner die beste Grafikkarte finanzieren kannst.
 
  • Gefällt mir
Reaktionen: Lille82
Sehr gute Übersicht, vielen dank.

Ich habe Upscaling erst in einem Spiel wirklich benötigt: Cyberpunk 2077 mit RT und eine RX 7900XT. :daumen:

Optisch gefällt mir dort XeSS sogar besser als FSR Quality allerdings liefert das mind. 5fps weniger im Vergleich. Bin schon auf FS3 in Cyberpunk 2077 gespannt. Kommt hoffentlich bald.
 
Zuletzt bearbeitet:
DrFreaK666 schrieb:
Tolle Übersicht, aber irgendwie fehlt Epics TSR
Epic ist kein GPU Hersteller. Deshalb wahrscheinlich.
 
Taxxor schrieb:
@Vitche @Wolfgang der Satz zu DLSS FG

liest sich nach dem Vergleich Nativ ohne Reflex vs FG, wenn es heißt, dass Reflex zur Kompensation genutzt wird.
Habt ihr da ein konkretes Beispiel wo die Latenz am Ende höher ausgefallen ist?

In allen bisherigen Tests ist sie eigentlich nur dann höher, wenn man es mit Nativ+Reflex vergleicht, wodurch der Satz so aber keinen Sinn ergibt, denn in dem Fall kompensiert Reflex ja generell gar nichts, wenn es in beiden Fällen aktiv ist.
Das Problem von der FG-Latenz ist ja nicht, dass die Latenz schlechter als bei nativem Rendering ohne Reflex ist, sondern dass die Latenz plötzlich trotz höherer Framerate sich nicht in einem Atemzug mitverbessert, wie es bis jetzt bei einer höheren Framerate immer gewesen ist.

Damit gibt es mit Frame Generation immer einen Disconnect zwischen FPS und Latenz und das ist das Problem. Wenn das Bild flüssiger wird, erwarte ich auch eine bessere Latenz. Bekomme ich die aber nicht, fühlt sich das plötzlich ziemlich komisch an. Daran ändert eben auch Reflex mit FG gegen Nativ ohne Reflex nichts. Bei ausreichend vielen Render-FPS kann das halbwegs gut kompensiert werden, der Effekt verschwindet aber eben nicht.
 
  • Gefällt mir
Reaktionen: HageBen und MoinWoll
Warte ja darauf, dass AMD, Nvidia diese Up tech. endlich in den treiber selbst integriert und man das so mit jeder 3D Anwendung nutzen kann und nvidia endlich aufhört zu lügen und dlss3 frame gen auch für die 3000 gen zur Verfügung stellt. Dass es bei den 1K - 2K Nvidia Modellen kein Sinn macht OKAY, aber die 3K Kann definitiv Frame Generation. Finde aber halt zum Kotzen, das FSR3 FRame Gen einfach für nvidia deaktiviert wird wie zum Beispiel in dem ubisoft avatar Spiel. Diese "exklusiv" sollte endlich aufhören. Die wollen profit machen, aber das tun die am Ende auf Kosten der Umwelt, altes was noch funktioniert, soll ausgetauscht werden.
 
  • Gefällt mir
Reaktionen: Cyberpunk61
Ich denke Nvidia nutzt die FG Exklusivität von RTX40.. als selling point. Technisch sollte RTX3000er dazu in der Lage sein. Aber NV will es jetzt nur auf die 4000er begrenzen. Oder gibt es doch technische Gründe?!
 
Zurück
Oben