Bericht Upscaling-FAQ: Fragen zu Nvidia DLSS, AMD FSR und Intel XeSS beantwortet

Wanderwisser schrieb:
Habe dann aber AMD CAS über Reshade rein getan, dann war das Problem behoben :D
Eigentlich kannst du auch einfach RIS über den Treiber nutzen, ist doch noch leichter^^
 
  • Gefällt mir
Reaktionen: MoinWoll
Ich stelle häufig eine höhere Auflösung ein als mein Monitor her gibt und dann dazu fsr, ...
Sieht oft besser aus.
 
  • Gefällt mir
Reaktionen: MoinWoll
Danke für den Artikel. Bei den ganzen diversen Abkürzungen der 3 Hersteller und welche Settings miteinander, und vor allem mit welcher Graka funktionieren wirds langsam schwierig den Überbick zu behalten.
Ich fühl mich latent an die 90er erinnert wo für die Voodoo auch beinah für jedes Game nen eigenen Omegatreiber installieren durftest....
 
  • Gefällt mir
Reaktionen: axi, Marius und daknoll
franzerich schrieb:
Ja, ähm.. es wäre aber auch sicher kürzer gegangen. Für die meisten Nutzer ist wahrscheinlich nur relevant, dass damit von einer kleineren Auflösung auf eine größere hochskaliert wird. Dafür hätte wahrscheinlich 1 Absatz genügt und danach eine Tabelle mit den entsprechenden Auflösungen.

(Aber dann hätten sich vielleicht manche beklagt dass es zuwenig fachchinesisch gewesen wäre 🤪)


Da gebe ich dir absolut recht. Mir würden als info auch die Upscaling Faktoren alleine reichen (den Rest kann man sich ausrechnen) und die Info, dass Frame Gen zwar Kosten hat, aber nach Abzug der Kosten die Framerate immer exakt verdoppelt. Dann noch als Info, dass DLSS nur auf Nvidia Karten geht und DLSS Frame Gen nur ab Ada Lovelace und taht's it.

Leider haben die Leute trotzdem 1000 Fragen, die sich zwar alle erschließen lassen würden, die ausformuliert aber nunmal doch so viel Text erfordern...


Czk666 schrieb:
Ich stelle häufig eine höhere Auflösung ein als mein Monitor her gibt und dann dazu fsr, ...
Sieht oft besser aus.

Ja, FSR2 und DLSS werden beim Upscaling effizienter je höher die Output Auflösung bzw. der Skalierungsfaktor ist.

Auf einem 1440p Monitor sieht 4K DLDSR (Downsampling) mit DLSS Performance (=1080p Renderauflösung) meistens sogar besser aus, als 1440p mit DLAA (= native Auflösung) und läuft dabei auch noch schneller.

ABER sobald man Frame Generation nutzt muss man aufpassen. Bei Frame Generation ist die Auflösung auf die es angewendet wird, sehr entscheidend. Frame Generation ist in 4K teurer als in 1440p und dort teurer als in 1080p. Wenn man also durch Downsampling eine besonders hohe Auflösung nutzt, dann verschlechtert sich der Performanceboost durch Frame Generation. Dadurch kann 1440p DLAA mit Frame Generation potenziell wieder schneller laufen, als 4K DLSS performance mit Frame Generation. Hängt aber vom Spiel ab.

Außerdem wird natürlich auch der VRAM Bedarf erhöht. Frame Gen in hohen Auflösungen braucht mehr VRAM, aber auch Upscaling auf hohe Auflösungen braucht mehr VRAM als die gleiche Renderauflösung nativ zu nutzen.

Heißt, 4K mit DLSS Performance (= 1080p renderauflösung) braucht deutlich mehr VRAM als native 1080. Sogar mehr als 1440p nativ.

Sollte man also je nach GPU auch nicht unterschätzen. Der Nettogewinn ist zwar in jedem Fall groß, aber man muss trotzdem ressourcen investieren. Entweder Rechenleistung oder Speicher.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lille82 und Alienate.Me
franzerich schrieb:
Für die meisten Nutzer ist wahrscheinlich nur relevant, dass damit von einer kleineren Auflösung auf eine größere hochskaliert wird.
Gerade dieser Satz würde mMn zu mehr Verwirrung führen, denn man liest auch heute noch öfter von Leuten die denken, dass sie bei Nutzung von DLSS und FSR die Ingame Auflösung selbst runterstellen müssen(wie es bei RSR der Fall ist).

Wenn man ihnen das mit so einem Satz erklärt, würde das diese Vermutung noch verstärken, weil sich das liest als müsse man eine niedrige auflösung einstellen und DLSS/FSR skaliert dann von dort aus hoch

Der Startpunkt bei DLSS und FSR ist ja die hohe Auflösung, dann gehts intern runter und anschließend für die Ausgabe wieder rauf.
 
  • Gefällt mir
Reaktionen: Lille82, franzerich und Mimir
Taxxor schrieb:
Eigentlich kannst du auch einfach RIS über den Treiber nutzen, ist doch noch leichter^^
Hab ich natürlich versucht, aber irgendwie hat das nur zu nem Flimmern geführt. Habs auch nich ganz verstanden, aber am Ende hats zumindest funktioniert^^
 
Spannendes Thema und toll erklärt. :) Ich habe DLSS zugegebenermaßen eine Weile links liegen gelassen, nachdem ich in den frühen Phasen damit viele Bildfehler hatte.
Folgende Frage stellt sich mir:
Wie viel Leistung kostet denn der Einsatz von DLSS ansich?
Sprich:
4K im Quality Preset wird, so wie ich das verstehe, mit einer 2.560 × 1.440 (QHD) Rendering-Auflösung gerechnet.
Würde ich das gleiche Spiel mit einer nativen QHD Auflösung ohne DLSS laufen lassen, hätte ich dann (ohne einen potentiellen DLSS Overhead) weniger oder gleichviele FPS?
-> Läuft 4K mit DLSS Quality mit vergleichbaren Frameraten wie QHD nativ ohne DLSS?
Wenn nein, über wieviel Leistungsverlust sprechen wir da grob?
 
@Taxxor Strg+F "Dim(ension)" über Artikel, nix found. Dein Source-Artikel steht da nicht. Verstehe dass das so gemeint ist, aber es steht nicht so im Artikel. In die Tabelllenüberschriften müsste "pro Dimension" rein oder die Skalierwerte verdoppelt und Prozente halbiert werden. Thema läuft bei mir auch unter Kleinigkeit und es ist nicht kriegsentscheident ob das so stehen bleibt.
 
  • Gefällt mir
Reaktionen: jlnprssnr
Taxxor schrieb:
Der Startpunkt bei DLSS und FSR ist ja die hohe Auflösung, dann gehts intern runter und anschließend für die Ausgabe wieder rauf.
Das ist allerdings auch etwas verwirrend ausgedrückt. Man stellt im Spiel die hohe Zielauflösung ein und dann DLSS. Als "Startpunkt" bei DLSS/FSR würde ich aber trotzdem die niedrigere Renderauflösung sehen.
 
MoinWoll schrieb:
Der Startpunkt für DLSS/FSR ist dann aber trotzdem die niedrigere Renderauflösung.
Naja Für den Algorithmus ist ja als erstes die hohe Ausgabeauflösung relevant auf die er skalieren soll. Man gibt ihm ja nur die Prozente mit, z.B. 0.5 für performance.
Dann startet er mit der hohen Auflösung und wendet den Faktor drauf an, um auf seine Renderauflösung zu kommen.

Wenn man es so schlicht formuliert dass er von einer geringen auf eine hohe Auflösung skaliert, liest es sich eher so als gibt man ihm eine 2.0 statt einer 0.5 mit
 
Xes schrieb:
Wie viel Leistung kostet denn der Einsatz von DLSS ansich?
Das ist abhängig vom jeweiligen Spiel, dem Skalierungsfaktor und der genutzen Grafikkarte. Z. B. in Cyberpunk mit Pathtracing ist der Performanceabstand zwischen 1440p nativ und 4K DLSS Quality wesentlich geringer als z. B. bei Read Dead Redemption 2, da bei Cyberpunk ein sehr großer Anteil der Rechenleistung für das Pathtracing aufgewendet wird, welcher bei 1440p und 4K DLSS Quality gleich ist. Auf der 4090 ist die Berechnungszeit des DLSS-Algorithmus geringer als z. B. auf einer 4060. Meines Wissens sind auch die Leistungskosten um 1080p auf 4K hochzuskalieren größer als bei 1440p auf 4K.

Xes schrieb:
4K im Quality Preset wird, so wie ich das verstehe, mit einer 2.560 × 1.440 (QHD) Rendering-Auflösung gerechnet.
Würde ich das gleiche Spiel mit einer nativen QHD Auflösung ohne DLSS laufen lassen, hätte ich dann (ohne einen potentiellen DLSS Overhead) weniger oder gleichviele FPS?
Ohne DLSS Overhead hättest Du in Deinem Beispiel gleichviele FPS. Ein unterschiedlich ausgeprägter Overhead (siehe oben) ist allerdings immer vorhanden.

Xes schrieb:
-> Läuft 4K mit DLSS Quality mit vergleichbaren Frameraten wie QHD nativ ohne DLSS?
Wenn nein, über wieviel Leistungsverlust sprechen wir da grob?
Nein, es läuft immer langsamer. Ein grober Wert für den Leistungsverlust lässt sich nicht angeben, da dieser wie gesagt je nach Spiel und Grafikkarte variiert.

Taxxor schrieb:
Naja Für den Algorithmus ist ja als erstes die hohe Ausgabeauflösung relevant auf die er skalieren soll. Man gibt ihm ja nur die Prozente mit, z.B. 0.5 für performance.
Dann startet er mit der hohen Auflösung und wendet den Faktor drauf an, um auf seine Renderauflösung zu kommen.
Ich denke man kann es auf beide Arten formulieren. Allerdings finde ich die Variante, dass DLSS mit der hohen Auflösung startet missverständlicher. Klar, DLSS muss die Zielauflösung und den Skalierungsfaktor kennen, allerdings sind das eher Parameter die einer Funktion übergeben werden und nicht wirklich ein Startpunkt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Faultier und Xes
Taxxor schrieb:
Gerade dieser Satz würde mMn zu mehr Verwirrung führen, denn man liest auch heute noch öfter von Leuten die denken, dass sie bei Nutzung von DLSS und FSR die Ingame Auflösung selbst runterstellen müssen(wie es bei RSR der Fall ist).


Uff, wenn ich daran denke, dass Leute tatsächlich so spielen und glauben, alles richtig zu machen, rollen sich mir die Fußnägel hoch.

Aber hab ich auch schon öfter gelesen. :freak:

Es ist wirklich etwas haarsträubend, wie viel man beim PC Gaming letzten endes tatsächlich noch falsch machen kann, obwohl das meiste eigentlich trivial ist. Die Details sind es häufig dann doch nicht. Alleine das Thema Gsync und Vsync sorgt ja schon immer wieder für ungläubigkeit, selbst hier im Forum. Kaum einer versteht, warum man beides braucht...

Ich bin ehrlich gesagt nach wie vor sehr froh, dass es für den Otto Normal Casual die Konsolen gibt. Eigentlich kannste keinem zumuten sich die ganzen Eigenheiten am PC zu geben, wenn er sich für sowas nicht interessiert, schlimmstenfalls hat jemand auf seinem 2000€ Rechner dadurch ein schlechteres Spielerlebnis als auf einer 500€ Konsole.
 
Xes schrieb:
Läuft 4K mit DLSS Quality mit vergleichbaren Frameraten wie QHD nativ ohne DLSS?
Wenn nein, über wieviel Leistungsverlust sprechen wir da grob?
Je nach GPU und allgemeinem FPS Bereich in dem man sich bewegt, kann man von grob 20% ausgehen, also mit 1440p hast du ~20% mehr als mit 4K+DLSS Q
 
  • Gefällt mir
Reaktionen: Xes
lynxx83 schrieb:
AMD FMF kann etwa auch auf anderen / älteren nvidia Generationen sowie Intels Arc funktionieren,
Bloß offiziellen Support gibt es seitens amd dafür keinen.
Guter Punkt, das könnte ich noch irgendwie in die Tabelle einpflegen. Schaue ich mir nachher mal an, danke!

Taxxor schrieb:
der Satz zu DLSS FG liest sich nach dem Vergleich Nativ ohne Reflex vs FG, wenn es heißt, dass Reflex zur Kompensation genutzt wird.
Das ist so gemeint, dass Nativ mit Reflex verglichen wird mit FG + Reflex. Es gibt natürlich Spiele / Fälle, wo Reflex einfach nur in Kombination mit FG angeboten wird und nicht als Standalone, das fände ich aber unfair als Vergleich. Letztlich geht es auch einfach um die Erkenntnis, dass beispielsweise 60 FPS nach FG sich nicht flüssig spielen.

xtf schrieb:
@Vitche
Die Skalierungswerte sind falsch. 1080p ist ein viertel von 4k. Zieht sich komplett durch.
Was genau meinst du? Auf die Anzahl der Pixel der Fläche bezogen ist UHD = Full HD x4, ja, auf die Pixel pro Achse bezogen aber x2. Die Upscaling-Faktoren der Tabellen sind außerdem direkt aus AMDs und Nvidias Dokumentationen übernommen.

xtf schrieb:
Hinweis auf open source bei FSR wäre noch hilfreich. Jeder (know how vorrausgesetzt) kann das implementieren.
Das könnte man vielleicht noch ergänzen. Ich schau mal, danke!
 
Taxxor schrieb:
Je nach GPU und allgemeinem FPS Bereich in dem man sich bewegt, kann man von grob 20% ausgehen, also mit 1440p hast du ~20% mehr als mit 4K+DLSS Q

Die kosten betreffen aber nicht nur das Upscaling sondern auch andere Aspekte!

Spiele haben die Möglichkeit, Post Processing erst nach dem Upscaling in voller Auflösung anzuwenden.
Das kostet natürlich mehr performance, erhöht aber die Bildqualität.

Alan Wake 2 hat z.B. so ein Setting, wo man die Wahl hat, ob die Tiefenunschärfe in Cutscenes vor oder nach dem Upscaling angewendet wird. Der Performanceimpact ist gar nicht so klein, der Qualitätsunterschied aber relativ groß, da die Tiefenunschärfe nicht gut mit dem niedriger aufgelösten Ausgangsbild harmoniert und Kantenflimmern erzeugt.

Dazu kommt, dass die Upscaler das LoD und die Mip Maps für die höhere Zielauflösung laden und die Anisotropische Filterung auch auf die Zielauflösung passiert.

Man muss also durchaus einen gewissen, wenn auch meist nur kleinen Teil der Rechen- und Speicherkosten tragen, die in der höheren Zielauflösung anfallen würden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Faultier und jlnprssnr
Vitche schrieb:
Das ist so gemeint, dass Nativ mit Reflex verglichen wird mit FG + Reflex.

Kompensieren würde ja bedeuten ich habe Latenz Nativ und ich habe Latenz FG und Latenz FG ist deutlich schlechter.
Dann kommt Reflex bei FG dazu, um diesen Einbruch zu kompensieren.

Wenn Reflex schon vor der Aktivierung von FG aktiv ist, hat man im Ergebnis rein die Latenzerhöung von FG, da findet ja keine Kompensierung mehr statt.

Speziell wenn man nicht nur Nvidia Karten vergleicht, haben 100FPS mit FG ja trotzdem keine höhere Latenz als 100FPS mit einer AMD oder Intel GPU, die mit FSR Super Resolution 100FPS erreicht.
Nur im Vergleich mit einer Nvidia Karte die immer Reflex nutzt wäre das so.
 
  • Gefällt mir
Reaktionen: Lille82, Pro_Bro und Mimir
Xes schrieb:
Würde ich das gleiche Spiel mit einer nativen QHD Auflösung ohne DLSS laufen lassen, hätte ich dann (ohne einen potentiellen DLSS Overhead) weniger oder gleichviele FPS?
Du hättest mit nativem QHD eigentlich immer mehr FPS als mit Quality-Upscaling in UHD. Allerdings eben auch immer einer schlechtere Bildqualität, das ergibt also nie Sinn, denn viel mehr Leistung braucht es nicht. Wie viel mehr, das kann auch von einer konkreten Implementierung abhängen. Oft sind es aber weniger als 10 % bzw eben weniger als 10 % weniger FPS.
 
  • Gefällt mir
Reaktionen: Faultier und Xes
Vitche schrieb:
Was genau meinst du? Auf die Anzahl der Pixel der Fläche bezogen ist UHD = Full HD x4, ja, auf die Pixel pro Achse bezogen aber x2. Die Upscaling-Faktoren der Tabellen sind außerdem direkt aus AMDs und Nvidias Dokumentationen übernommen.
Fast, per Dimension fehlt. Ansonsten, wenn man Output durch Input rechnet ist es bei Performance 4x Area (2x Per dimension), wie in der Doku. Nix dramatisches
 
  • Gefällt mir
Reaktionen: jlnprssnr
Taxxor schrieb:
Wenn Reflex schon vor der Aktivierung von FG aktiv ist, hat man im Ergebnis rein die Latenzerhöung von FG, da findet ja keine Kompensierung mehr statt.
Das stimmt streng genommen, ja. Ich meinte das so, dass Entwickler kompensieren, in dem sie Reflex generell ins Spiel einbauen (müssen).

Taxxor schrieb:
Speziell wenn man nicht nur Nvidia Karten vergleicht, haben 100FPS mit FG ja trotzdem keine höhere Latenz als 100FPS mit einer AMD oder Intel GPU, die mit Suoer Resolution 100FPS erreicht.
Nur im Vergleich mit einer Nvidia Karte die immer Reflex nutzt wäre das so.
Puh, das sind wieder schwierige Vergleiche und vielleicht auch zu voreilige Pauschalaussagen. Da hab ich aber gerade auch keine Tests mit x > 10 Spielen im Kopf, nach denen man das in diese FAQ evident so reinpacken könnte. Aber ja, das ist ein komplexes Thema.
 
RogueSix schrieb:
DLAA for president! :D
Das sollte wirklich in jedem Spiel, unabhängig von DLSS drin sein. Beste AA bis dato. Knackscharf und glättet besser als alles andere.
 
  • Gefällt mir
Reaktionen: Lille82, jlnprssnr, Alienate.Me und eine weitere Person
Zurück
Oben