Bericht Upscaling-FAQ: Fragen zu Nvidia DLSS, AMD FSR und Intel XeSS beantwortet

Danke für den ausführlichen Artikel!

Ich persönlich möchte es nicht mehr vermissen. Wenn ich Avatar als aktuellstes Beispiel für FSR3 nehme, finde ich es mittlerweile konkurrenzfähig zu DLSS, zwar nur in diesem einen Game bis jetzt aber macht Hoffnung dass es in Zukunft der Standard wird. Also die Qualität der Implentierung.

Es gab vorher noch nie eine Tech die mehr FPS + bestes AA + weniger Verbrauch geboten hat. Für mich ein Nobrainer es einzusetzen. FG wird auch in 1 - 2 Jahren bessere Ergebnisse leifern und ein Nobrainer werden, zumindest in SP Games.
 
  • Gefällt mir
Reaktionen: Raptor85
@Vitche und @Wolfgang

Sehr schöner Beitrag. Gute Erklärungen und ich habe keine Einwände.

Wie sagte Wolfgang Schäuble schon? "Nicht geschimpft ist Lob genug".

Ein wenig gestolpert bin ich über folgenden Satz: "sodass eine zur nativen Auflösung vergleichbaren Qualität erhalten bleibt"

"Germanologen" wissen jetzt, ob es vergleichbare Qualität sein sollte, aber genau kann ich es auch nicht sagen.

Beim Thema FG bin ich immer noch unschlüssig. Aus meiner Shooter Zeit bin ich gewohnt, die vor berechneten FPS auf 0 zu setzen. Ich muss nicht sehen, was vor 3 FPS passiert ist. (Standard Einstellung bei Nividia)

Mal schauen, was die Zukunft bringt. Die Kombination von DLSS und dem FG Derivat von AMD scheint jedenfalls ganz brauchbar zu sein. Natürlich mit allen Nachteilen. Die Vorteile scheinen aber bei guter Umsetzung durch die Software zu überwiegen, wenn man nicht auf Latenz angewiesen ist.

Aber gerade Latenz aka "Ping" macht manchmal den Unterschied zwischen treffen und nicht treffen. Wer sowieso immer nur die Wand trifft, kann das auch mit hohen FPS und in UHD mit super schönem Bild machen.

mfg
 
@Vitche
"Es werden Motion Vektoren und Optical Flow genutzt zur Nachverfolgung der Bewegung von Pixeln genutzt,"
"In den meisten Fällen sieht auf FSR Performance noch ordentlich in der hohen Auflösung aus"

Grundsätzlich ein toller Artikel, vielen Dank dafür!
Diese Fragen werden im Forum so oft gestellt, mit diesem Artikel wird damit mal aufgeräumt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Vitche
Ich würde mich freuen, wenn zum Upscaling noch die Latenz bei AMD FSR 2 bei Unreal Engine 5 Titeln untersucht wird. Sowohl bei Immortals of Aveum und Tekken 8 konnte ich auf der 5700 XT einen recht dramatischen Latenzanstieg erfühlen. Bei Unreal Engine 4 Titeln wie Mortal Kombat 1 dagegen überhaupt nicht.
 
Bestärkt mich in meinem Glauben, dass sich bei den Anno-Spielen dieser Technikaufwand gar nicht erst lohnt.
 
@MoinWoll, @Taxxor und @Vitche
Vielen Dank für eure Antworten. Das klärt schonmal einiges.

Die Frage war nicht ganz ohne Hintergedanken gestellt:
Ich bin nun schon einige Jahre mit einem QHD Monitor unterwegs (immer noch mit TN-Panel... 😒) und konnte diesen mit Karten der XX70er Klasse immer ganz gut befeuern und teilweise auch mal eine Generation auslassen.
Natives 4K kam für mich bisher nie in Frage, einfach weil mir die passenden Highend GPUs zu teuer sind.
4K + DLSS Quality könnte da ein guter Kompromiss sein.
Ich bin mal gespannt wie sich das Ganze entwickelt und ob eine RTX 5070 nächstes Jahr ausreicht um einen potentiellen neuen 4K Monitor unter zuhilfenahme von DLSS Quality (bis dahin evtl. in einer neuen Version?) in den dann aktuellen Spielen ausreichend zu befeuern.
 
SuperHeinz schrieb:
Bestärkt mich in meinem Glauben, dass sich bei den Anno-Spielen dieser Technikaufwand gar nicht erst lohnt.
Nun, Upscaling lohnt sich spätestens in UHD immer, aber gerade Anno als unglaublich CPU-hungriger Titel ist eigentlich ein Kandidat für Frame Generation, um im CPU-Limit noch mehr FPS zu zaubern.
 
  • Gefällt mir
Reaktionen: Lille82, Daddi89, Mimir und 3 andere
In den meisten Fällen sieht auf FSR Performance noch ordentlich in der hohen Auflösung aus, auch wenn die Bildqualität dann meist etwas schlechter aussieht (aber immer noch besser ist, als zum Beispiel auf natives WQHD zu wechseln).
Ich glaube hier wurde Full HD mit WQHD verwechselt.
Beide Achsen mit 66% entsprechen von 4K ausgehend WQHD.
4K Performance entspricht mit 50% Full HD und das sieht mit FSR in der Regel nicht besser aus als natives WQHD. FSR struggled in niedrigeren Auflösungen mit der Bildstabilität.
 
Vitche schrieb:
Nun, Upscaling lohnt sich spätestens in UHD immer, aber gerade Anno als unglaublich CPU-hungriger Titel ist eigentlich ein Kandidat für Frame Generation, um im CPU-Limit noch mehr FPS zu zaubern.
Welchen Sinn haben denn mehr FPS in Anno-Spielen? Die laufen bereits mit 30 FPS recht anständig und so bei 60 FPS dürfte selbst bei Anno 1800 im Vollausbau der Sweetspot erreicht sein.
 
SuperHeinz schrieb:
Welchen Sinn haben denn mehr FPS in Anno-Spielen?
Die Situation ist eben die, dass aus meinetwegen 60 FPS per FG quasi "kostenlos" 120 FPS werden. Ohne dass die Bildqualität leidet oder signifikant mehr Strom verbraucht wird. Analog werden aus 30 FPS dann 60 FPS, hier sollte der Unterschied merklicher sein. Klar, Anno läuft auch mit weniger als 60 FPS "flüssig", also lässt sich gut spielen, aber wenn man ohne Kosten im dort andauernd vorhandenen CPU-Limit mehr FPS haben kann, wieso nicht? Gerade Spieler, die aufgrund ihrer CPU partout nicht über 30 FPS kommen, würden denke ich sehr von FG profitieren. Auch, wenn 60 FPS mit FG natürlich "schlechter" sind als native 60 FPS, besser als native 30 FPS sind sie allemal.

Alternativ: Wenn du sagst, dir reichen 60 FPS, dann wären diese 60 FPS mit FG bei deutlich geringerem Stromverbrauch zu erzielen. Nimm noch Quality-Upscaling dazu und das Ergebnis ist noch eindeutiger. Dann könnten im Grunde genommen 100+ FPS bei geringerem Stromverbrauch als bei nativen 60 FPS möglich sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Daddi89, Schlumpfbert, Mimir und 4 andere
seyfhor schrieb:
Eigentlich ja eine tolle Technik, aber

macht einen ja nachdenklich. Da sind die GPU Preise schon so hoch und ohne Upscaling Trickserei hat man dann grad mal Durchschnitts-FPS.
Lädt zum schlampigen Entwickeln von Spielen ein...
Ergänzung ()

Fighter1993 schrieb:
Man merkt das du keine Ahnung von der Materie hast. Hast du schonmal CP 2077 mit PT und DLSS Quality gesehen?
Ich glaube nicht das du da von Bildverschlechteren reden würdest.
DLSS braucht man einfach für PT oder RT, damit habe ich kein Problem.
Wenn es aber für schlecht optimierte Spiele missbraucht wird, dann werd ich einfach sauer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CMDCake und LukS
rentex schrieb:
Lädt zum schlampigen Entwickeln von Spielen ein...
Das mag auf einzelne Fälle zutreffen (die es aber immer schon gab), ist aber im Großen und Ganzen an den Haaren herbeigezogen. Entwickler haben schon immer versucht, Leistungsressourcen in eine bessere Grafik zu investieren. Hätten sie das nicht getan, wären wir heute halt alle mit 1000+ FPS in Spielen unterwegs, die aussehen wie das originale Doom. Mit Upscaling und FG sind nun eben zu Brute-Force-Hardware-Ressourcen auch Software-Ressourcen hinzugekommen, die es ein Stück weit ermöglichen, eine höhere Bildqualität ohne noch weiter ansteigende Leistungsaufnahmen zu erreichen. In der mittlerweile 3. Generation RTX und fünfeinhalb Jahre nach der Turing-Vorstellung im Sommer 2018 besitzen die allermeisten Spieler eine Grafikkarte, die DLSS unterstützt. Und nahezu jeder besitzt eine Grafikkarte, die FSR unterstüzt. Es wäre insofern "schlampig" von den Entwicklern, wenn sie diese Leistungsressourcen nicht auch nutzen würden, um die Bildqualität zu steigern.
 
  • Gefällt mir
Reaktionen: Lille82, Daddi89, Schlumpfbert und eine weitere Person
rentex schrieb:
Lädt zum schlampigen Entwickeln von Spielen ein...
DLSS braucht man einfach für PT oder RT, damit habe ich kein Problem.
Wenn es aber für schlecht optimierte Spiele missbraucht wird, dann werd ich einfach sauer.
GPU-seitig schlecht optimierte Spiele gab es meines Wissens längere Zeit eigentlich nicht, mit Ausnahme von The Last of Us Part I, Starfield auf NV-Karten (mittlerweile behoben) und so Totalausfällen wie Gollum. Die Spiele haben durch den Generationswechsel der Konsolen einen großen Sprung in der Grafik gemacht, der irgendwie befeuert werden muss. Mit Nicht-High-End- oder älteren Karten muss man dann eben die Settings reduzieren, wie seit je her in den Jahren nach Konsolengenerationswechseln üblich. Jetzt hat man als Alternative dazu noch FSR und DLSS, was ich persönlich super finde.

Was Optimierung angeht, liegt das Problem häufig eher auf der CPU-Seite - schlechte Auslastung vieler Kerne, Shader-Compilation-Stutter, Traversal-Stutter usw.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lille82, Syrian, Daddi89 und eine weitere Person
Ich spiele Anno 1800 selbst auf einem Gaming Notebook mit 17" FHD-Monitor recht gerne. Läuft dort mit i7 9750H und einer RTX 2070 mobile (8GB) ganz anständig. Das Spiel braucht eigentlich auch gar keine besondere Bildqualität, weil man sowieso zu sehr damit beschäftigt ist, seine Leute bei Laune zu halten, als dass man sich Gedanken über die Schönheit machen sollte. In mancher Situation stört eine hohe Bildqualität auch nur. :-D
 
Komisches Voodoo-Zeugs!
Alles außer möglichst hoher nativer Auflösung ist doch Schrott!
 
seyfhor schrieb:
Eigentlich ja eine tolle Technik, aber

macht einen ja nachdenklich. Da sind die GPU Preise schon so hoch und ohne Upscaling Trickserei hat man dann grad mal Durchschnitts-FPS.
Ich spiele seit knapp 10 Jahren in UHD, und aktuelle AAA-Spiele liefen in hohen Einstellungen bei mir nie auf stabilen 60 fps. Ich musste immer Einstellungen runterdrehen (oft stark), um in die 50er zu kommen. Erst DLSS hat mir es mir ermöglicht, AAA-Spiele auf Ultra mit 4k-Output auf 60 fps oder höher zu spielen.
Deshalb sehe ich Upscaling als eine Art Equalizer: Ist nicht so nützlich auf niedrigeren Auflösungen, aber macht hohe Auflösungen viel leichter zugänglich. 4k DLSS performance produziert z.B. deutlich bessere Bilder als natives 1440p - man kann also auch Nutzen aus einem 4k-Monitor ziehen, ohne gezwungen zu sein, immer die fettesten Grafikkarten zu kaufen.
 
  • Gefällt mir
Reaktionen: CMDCake, Lille82, MoinWoll und eine weitere Person
Qualitativ ist FSR 1 generell nicht zu empfehlen
Es lohnt sich FSR1 Quality in Terminator Resistance oder Necromunda Hired Gun anzutesten, als positive Gegenbeispiele. Wenn das spieleigene Antialiasing bescheiden ist - was bei vielen Spielen der Fall ist/war - ist es doch klar, dass Spatial Upscaling keine gute Ergebnisse liefern kann. Das lag nie an den Upsampling Algorithmen wie FSR1 und NIS selbst. Vorteil von FSR1 ist aber immernoch, dass man es gerade bei Radeon per Treiber in praktisch jedem Spiel anwenden kann und meines Erachtens funktioniert das auch ganz OK.

In Full HD ist FSR meistens unbenutzbar und in WQHD müssen selbst mit FSR Quality größere Einbußen in kauf genommen werden. Jedoch gibt es auch Ausnahmen, wo FSR auch in WQHD noch gut aussieht – das ist sehr spieleabhängig.
Welche "größeren Einbußen" bei WQHD? In praktisch jedem Fall sieht es Quality bei 1440p immer noch besser als natives TAA aus. Das Problem ist generell doch eher, dass FSR2/3 ohne Einfluss der Entwickler eben nicht von sich aus gut mit bestimmten Elementen in der Spielwelt umgehen kann, sondern der Entwickler da schon noch Arbeit leisten muss (bspw. reactive masks), das aber häufig nicht geschieht. Gleiches kann bei DLSS/XeSS aber auch passieren (bspw. Schmieren bestimmeter Objekte in Death Stranding, Probleme mit dem Regen in Cyberpunk 2077 bei XeSS, etc). Selbst dann ziehe ich Upscaling jeglicher Form TAA und nativer Framerate immer vor.

Die Bewegung wird stattdessen ausführlich mittels Optical Flow verfolgt, die Bildqualität fällt entsprechend schlechter aus. Darüber hinaus kann das spieleigene HUD nicht von AFMF ausgeschlossen werden
Meiner Erfahrung mit den AFMF Preview-Treibern nach ist das UI in keinem Fall eine Problemstelle, solange die Framerate hoch genug ist, also min. 60-80 FPS. Es wird ja nicht die UI gesondert berechnet. An für sich funktioniert die UI da besser als mit spielintegriertem FMF, wenn Entwickler da selbst nicht richtig testen und Hand anlegen. Die Bildqualität ist meines Erachtens bei ausreichend hohen Framerates auch keinesfalls schlechter als nativ sondern erstaunlich gut. Das Problem ist in einigen Fällen eher das Framepacing, was optisch zu einem vor-zurück Ruckeln und bei hohen Framerates eben nicht zu einem klareren sondern eher verwascheneren Bild führen kann. Wenn aber alles funktioniert sieht es auf einem 240 Hz Monitor jedenfalls einwandfrei aus.

Nach einem Registry-Eintrag und einem Neustart läuft AFMF auch in DirectX 9 und Vulkan übrigens ganz normal soweit.
 
Zuletzt bearbeitet:
Vitche schrieb:
Das stimmt streng genommen, ja. Ich meinte das so, dass Entwickler kompensieren, in dem sie Reflex generell ins Spiel einbauen (müssen).
In dem Fall ist der Vergleich aber ja auch mit der Situation vor dem Einbau von FG und damit auch Reflex^^

Wenn ein Spiel am 01.02. FG und in dem Zuge auch Reflex bekommt, dann ist die Latenz mit FG nicht höher, als sie am 31.01. bei gleichen FPS war, mit dem zusätzlichen Vorteil, dass man ab dann auch ohne FG die Latenz mit Reflex noch weiter reduzieren kann, bei dann aber auch geringeren FPS.
 
  • Gefällt mir
Reaktionen: Lille82
Danke für den aufklärenden Artikel @Vitche.
Vereinfacht einem die Vorstellung, und die Zusammenhänge zwischen den Bild Optimieren.
 
  • Gefällt mir
Reaktionen: Vitche
Dieses ganze Gedöns braucht man jetzt genau weswegen?
Klingt irgendwie hart nach Marketingewchwurbel seitens der Hersteller um Stagnation zu rechtfertigen.
Die sogenannte "Bildverbesserung" die damit einhergehen soll resultiert doch im Endeffekt im matschigen Pixelbrei.
Nach Sli und Doppel GPU auf einem PCB, der nächste Clou - wird interessant wann dieses Feature Set fallen gelassen wird.
 
Zurück
Oben