Bericht Upscaling-FAQ: Fragen und Antworten zu Nvidia DLSS, AMD FSR & Intel XeSS

Moin zusammen,

Ich habe mich mit der Thematik ehrlich gesagt nicht wirklich beschäftigt. Verständnisfrage: wenn ich das richtig verstehe, sollte fsr/dlss usw. also die annähernd selben FPS/GPU Auslastung haben wenn die Auflösung FullHD, oder eben 4K im upscaling balanced gesetzt wird, richtig?

Und ist all dies nur unter Windows nutzbar? Gibt es bereits Linux Unterstützung der Hersteller hier für?

Ansonsten toller Artikel, werde ich mir nochmal zu Gemüte führen wenn ich nicht wie jetzt im Halbschlaf bin😁.
 
  • Gefällt mir
Reaktionen: Jan
Danke für den Artikel. Gleich mal gebookmarked.

Das hier hab ich schon öfter hier im Forum gelesen, verstehe ich aber nicht ganz und konnte ich so jetzt auch nie bei irgendeinem Spiel nachvollziehen:
Zielsetzung ist es, eine bessere Bildqualität zu liefern, als es klassisches Upscaling und TAA in Kombination können, sodass eine zur nativen Auflösung vergleichbare Qualität erhalten bleibt oder diese sogar besser ausfällt.

Hier ist gemeint dass die Bildqualität mit DLSS besser ausfallen kann als nativ MIT TAA, oder? Weil bessere Bildqualität als nativ ohne TAA ganz bestimmt nicht. DLSS ist immer unschärfer als nativ ohne TAA und das allein verschlechtert für mich schon die Bildqualität als ein gestochen scharfes natives Bild ohne irgendwas.
TAA ist halt noch ne Spur unschärfer als DLSS aber abgesehn davon merke ich da jetzt keine großen Qualitätsunterschiede.
Vielleicht erkennt man das ja wenn man Vergleichsbilder lange studiert aber das mache ich beim zocken ja nicht.

Wie soll das auch sonst Sinn machen? Wie soll ein Bild, das mit weniger Pixel gerendert und nur durch nen Algorithmus aufgeblasen wird besser aussehen als ein Bild das mit mehr Pixel gerendert wurde?

Die beste Bildqualität hat man meiner Meinung nach nativ mit MSAA. Gestochen scharfes Bild und glatte Kanten aber frisst natürlich die meiste Leistung, ist klar.

Bei älteren Spielen würde ich sogar eher mittels DSR in 4K oder höher (je nachdem was die Karte leisten kann) rendern lassen und dann runterrechnen auf native Auflösung (bei mir WQHD). Damit hat man ebenfalls ein gestochen scharfes Bild und glatte Kanten, kostet auch nicht so viel Leistung (die Grafikkarte muss das Spiel natürlich in 4K packen).

Bei aktuellen Spielen kann man meist nur nicht mehr die Kantenglättung deaktiveren dh. man ist gezwungen DLSS, DLAA, TAA oder FSR einzustellen (die ganzen Weichzeichner quasi) was ich sehr schade finde.
 
  • Gefällt mir
Reaktionen: 9t3ndo, iron_monkey und FR3DI
SilverSkill schrieb:
Und ist all dies nur unter Windows nutzbar? Gibt es bereits Linux Unterstützung der Hersteller hier für?
Es ist in den Spielen integriert, daher unabhängig vom OS.
Ergänzung ()

SilverSkill schrieb:
sollte fsr/dlss usw. also die annähernd selben FPS/GPU Auslastung haben wenn die Auflösung FullHD, oder eben 4K im upscaling balanced gesetzt wird, richtig?
4K mit DLSS/FSR Performance würde der Renderauflösung von 1080p entsprechen, die FPS wären aber ~15-20% niedriger als bei normalen 1080p, weil die Algorithmen natürlich auch selbst Leistung fressen.
Ergänzung ()

Azeron schrieb:
Wie soll das auch sonst Sinn machen? Wie soll ein Bild, das mit weniger Pixel gerendert und nur durch nen Algorithmus aufgeblasen wird besser aussehen als ein Bild das mit mehr Pixel gerendert wurde?
Weil das was du hier beschreibst so nicht passiert.
Das Bild wird nicht erst gerendert und dann aufgeblasen, das wäre, was klassische spatiale Upscaler tun.

Du hast durch temporales supersampling insgesamt mehr Bildinformationen als beim nativen Bild da du die Informationen aus mehreren Dutzend vergangener Frames plus deren bewegunsvektoren nutzt
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, gartenriese, serve1chilled und 4 andere
Taxxor schrieb:
Du hast durch temporales supersampling insgesamt mehr Bildinformationen als beim nativen Bild da du die Informationen aus mehreren Dutzend vergangener Frames nutzt
Alles klar, verstehe. Danke. Gut, dann ist es nur meine persönliche Ansicht dass mir ein natives (natürlich auch ohne TAA) Bild dennoch aufgrund der Schärfe besser gefällt als mit DLSS das etwas unschärfer ist (und auch mit dem Schärferegler nicht schöner aussieht meiner Meinung nach).
 
  • Gefällt mir
Reaktionen: FR3DI
Azeron schrieb:
Wie soll das auch sonst Sinn machen? Wie soll ein Bild, das mit weniger Pixel gerendert und nur durch nen Algorithmus aufgeblasen wird besser aussehen als ein Bild das mit mehr Pixel gerendert wurde?

Indem man nicht nur mit der Bildinformation eines Bildes rechent, sondern mit der von vielen Bildern.
Statt 8 Millionen Pixeln dann z.B. 20 mal 4 Millionen Pixel, aus welchen man dann mit der Information was wo hingeht (Bewegungsvektoren der Engine) ein Bild zusammenfügt.
 
  • Gefällt mir
Reaktionen: RedDragon83, Quidproquo77, gartenriese und 2 andere
ich hätte mal eine Frage:
Frame Generation oder "Zwischenbildberechnung" wird doch schon seit (vielen) Jahren bei Fernsehern angewendet

jetzt erst kommt es seit wenigen Jahren bei Grafikkarten

wo liegen hier die Unterschiede ?
Latenzen sind bei FErnseher wohl egal.. solange Sound zum Bild passt..
und die Frames: Ausgangsframe und Endframe sind auch alle schon vorhanden,
bei der Grafikkarte müssen sie erst berechnet werden

trotzdem wundere ich mich, dass es so lange bei Grafikkarten gedauert hat, dass das kam?

gibt es da deutliche Unterschiede zwischen den Techniken ?
 
  • Gefällt mir
Reaktionen: Glasreiniger
Weiß jemand, bis wohin hinab nun genau die Kompatibilität von FSR 3 reicht? Ist das identisch mit dem FSR 2-Support? Die APUs der 5000er-Reihe (Vega-Architektur) haben FSR 2 auf jeden Fall unterstützt.
 
Danke für die schicke Übersicht/Tabelle @Vitche , bei FSR 4 hätte ich für RDNA3 wohl eher ein Fragezeichen gesetzt, denn das scheint ja in Entwicklung zu sein bzw. für RX 7000er Karten berücksichtigt zu werden bei AMD.
 
  • Gefällt mir
Reaktionen: Vitche
Azeron schrieb:
Alles klar, verstehe. Danke. Gut, dann ist es nur meine persönliche Ansicht dass mir ein natives (natürlich auch ohne TAA) Bild dennoch aufgrund der Schärfe besser gefällt als mit DLSS das etwas unschärfer ist (und auch mit dem Schärferegler nicht schöner aussieht meiner Meinung nach).
Jaein, DLSS kann besser aussehen, tut es aber nicht immer und Ghosting/Schlieren kannst du auch haben, aber es ist jetzt nicht so als würde man das in jedem Spiel merken.
 
Kraeuterbutter schrieb:
"Zwischenbildberechnung" wird doch schon seit (vielen) Jahren bei Fernsehern angewendet

Latenzen sind bei FErnseher wohl egal..
Genau. Beim TV sind die Latenzen ziemlich latte. Beim Zocken eben nicht. Wenn du die TV auf PC oder Gaming stellst, schalten die Frame Generation aus.

Willst du das für Videos am PC nutzen, so kannst du bei AMD Blue Sky (kostenlos) nutzen oder Lossless Scaling nutzen. (Besser, läuft auf AMD und NV, kostet 7€)

Die Technik ist im Prinzip die selbe, nur dass die GPUs die Objekte deutlich genauer erfassen. Also selbst bei Finger werden Zwischenbilder berechnet. Die TVs haben das nicht geschafft. Dann gibts noch Zwischenbildberechnung mit KI wie z.B RIFE. Da brauchste aber schon ne 4080 für 720p.

BTT: Man meinte vor 2-3 Jahren noch AMD würde FSR niemals exklusiv für die eigenen Karten laufen lassen. Laut der News nur ausgewählte RDNA3 und RDNA4. Ui. Das ist übel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kraeuterbutter und Vitche
crustenscharbap schrieb:
BTT: Man meinte vor 2-3 Jahren noch AMD würde FSR niemals exklusiv für die eigenen Karten laufen lassen. Laut der News nur ausgewählte RDNA3 und RDNA4. Ui. Das ist übel.
Alles bis FSR 3 ist allseits kompatibel. FSR 4 ist eben auf die KI-Berechnung von RDNA 4 zugeschnitten. Ob AMD da einen ähnlichen Weg wie Intel geht und eine kompatible aber qualitativ evtl. schlechtere Variante anbieten wird, wissen wir nicht. Also von Exklusivität wie bei DLSS sind wir weit entfernt.
 
  • Gefällt mir
Reaktionen: Windell
CDLABSRadonP... schrieb:
Wobei es auch früher so war, dass diverse Spiele auf der jeweils aktuellen HighEnd-Hardware nicht mit 60 FPS liefen...
Das war "früher" ganz normal.
Höchste Grafikqualität - da kamen selbst die besten Grafikkarten kaum über 20 bis 30 FPS.
Besonders krass nach Einführung von DirectX 10.
Heutzutage gäbe das ein weltweiter Shitstorm.
 
  • Gefällt mir
Reaktionen: gartenriese und serve1chilled
Diddleman schrieb:
Insgesamt ein wirklich toller Artikel, leider erst heute gelesen. Vielen Dank für eure Mühe!!!
Peterkem schrieb:
Danke, mehr gibt's zu diesem sehr aufschlussreichen Artikel nicht zu sagen.
Azeron schrieb:
Danke für den Artikel. Gleich mal gebookmarked.
Vielen Dank für das Lob!

Azeron schrieb:
Hier ist gemeint dass die Bildqualität mit DLSS besser ausfallen kann als nativ MIT TAA, oder? [...] Wie soll das auch sonst Sinn machen? Wie soll ein Bild, das mit weniger Pixel gerendert und nur durch nen Algorithmus aufgeblasen wird besser aussehen als ein Bild das mit mehr Pixel gerendert wurde?
Weil das eine Frage ist, die immer wieder aufkommt, dachte ich mir kurzerhand, dass das ja eigentlich auch Teil eines FAQ-Artikels sein sollte - sehr geistreich, ich weiß. Dementsprechend hab ich kurzerhand den Absatz Wie kann es sein, dass das Bild mit Upscaling besser aussieht als „nativ“? ergänzt. Allzu sehr geh ich da aber nicht in die Tiefe, das ganze soll ja möglichst kurz und knackig bleiben im eh schon ziemlich umfangreichen Artikel. :)

Chismon schrieb:
Danke für die schicke Übersicht/Tabelle @Vitche , bei FSR 4 hätte ich für RDNA3 wohl eher ein Fragezeichen gesetzt, denn das scheint ja in Entwicklung zu sein bzw. für RX 7000er Karten berücksichtigt zu werden bei AMD.
Hab ich mal so umgesetzt, mit einer entsprechenden Fußnote.
 
  • Gefällt mir
Reaktionen: Jan, PietVanOwl, BrollyLSSJ und 9 andere
Tuetensuppe schrieb:
Das war "früher" ganz normal.
Höchste Grafikqualität - da kamen selbst die besten Grafikkarten kaum über 20 bis 30 FPS.
Besonders krass nach Einführung von DirectX 10.
Heutzutage gäbe das ein weltweiter Shitstorm.
Auf so einen neuen crysis - Shooter hätte ich schon mal wieder Bock
 
  • Gefällt mir
Reaktionen: Qyxes und FR3DI
Vitche schrieb:
Achtung! Mit XeSS in Version 1.3 hat Intel die bis dato etablierte Ordnung von Upscaling-Profil und Upscaling-Faktor aufgebrochen und in der Regel eine Stufe heruntergeschraubt, sodass fortan der Modus „Ultra Quality“ gewählt werden muss, wenn analog DLSS und FSR Quality ein Faktor von 1,3 angestrebt wird.
Das müssten 1.5 sein.
 
  • Gefällt mir
Reaktionen: Vitche
Ich frage mich ob man den Lesestoff für die ganzen Upsampling-Techniken und dem ganzen Feature-Paket der GPU-Anbieter noch in einem Bachelor-Studiengang unterbringen könnte oder ob man da noch das Master-Studium dranhängen müsste? Leute, die einfach nur Spielen wollen mit ihren PC, werden mittlerweile von einer Flut von Features überworfen, dass sie gar nicht mehr wissen, wie, was, wo und warum.
In solchen heraufforndernden Zeiten kommt dann so ein CB-Guide gerade recht ;)
 
  • Gefällt mir
Reaktionen: Jan und FR3DI
5hred schrieb:
Ich frage mich ob man den Lesestoff für die ganzen Upsampling-Techniken und dem ganzen Feature-Paket der GPU-Anbieter noch in einem Bachelor-Studiengang unterbringen könnte oder ob man da noch das Master-Studium dranhängen müsste?
Leider kann ich dir aus der Perspektive eines Informatik-Studenten mitteilen, dass man das komplett in eines von sechs 5-Punkte-Modulen in einem Semester stopfen würde, Stoff gibts nämlich eh stets genug.

5hred schrieb:
Leute, die einfach nur Spielen wollen mit ihren PC, werden mittlerweile von einer Flut von Features überworfen, dass sie gar nicht mehr wissen, wie, was, wo und warum.
Ironischerweise hab ich mir das vor gut zehn Jahren gedacht, als ich das erste Mal den Schritt von der Konsole auf den selbstgebauten Gaming-PC gewagt habe und vom Grafikmenü komplett überfordert war. Tesselation? MSAA? Screen-Space-Reflections? Dreifach-Pufferung? Anistropische Filterung? Was ist das alles? Hilfe?

Letztlich kommt da halt immer wieder was neues dazu und anderes verschwindet oder wird zum Standard marginalisiert, also gar nicht mehr einzeln aufgeführt. bei Upsampling ist jetzt halt die Besonderheit, dass es einerseits einen sehr großen Einfluss haben kann und es andererseits medial stark aufgebaut wird. Teilweise könnte man schon den Gedanken bekommen, Nvidia will nur so oft und so sehr mit all diesen Buzzwords um sich schmeißen, damit Spieler sich irgendwann denken "fuck it, ich kauf mir die neueste Grafikkarte, dann geht alles und ich muss mich damit nicht länger beschäftigen!" ^^

5hred schrieb:
In solchen heraufforndernden Zeiten kommt dann so ein CB-Guide gerade recht ;)
<3
 
  • Gefällt mir
Reaktionen: 5hred und Jan
MrHeisenberg schrieb:
Das ist Unfug. Wenn die Leistung der Hardware für die Grafikpracht nicht reicht, kannst du so viel optimieren wie du willst, aber es wird nicht spielbar. DLSS sorgt hier für Abhilfe.
Woran machst du überhaupt fest, dass ein Spiel nicht optimiert ist?

Naja so einfach ist das nicht .... Konsolen ports schon vergessen , auf den aktuellen Konsolen ist upscalling ja Standart um brauchbare FPS rauszukommen , das schwappt oft mit auf dem Rechner und selbst wenn man da ein high end Gerät stehen hat das um einiges schneller als aktuelle Konsolen ist fallen die fps wenn man dlss und co ausmacht oft ins Bodenlose.....

Die Gehirnwäsche ist komplett wenn man reine Konsolen Spieler fragen würde ohne tiefgründiges wissen zu Grafik Einstellung sagen wahrscheinlich alle es läuft bei denen am TV mit 4k .... Das es oft nur 1440p oder gar 1080p sind die hochskalliert sind um überhaupt irgendwas zwischen 30-60 FPS zu haben wissen die meisten nicht

Und wenn wir ehrlich sind schwappt das immer mehr in PC Ports oder reine PC Spiele

Ich kann mich noch erinnern als upscalling auf dem PC angefangen hatte da sollte es eigentlich mehr oder weniger für kleinere gpus sein um 60fps zu erreichen und starke CPUs auch öfter die 100knacken zu lassen

Hat man einen aktuellen high end PC sollte eigentlich jedes Spiel und dazu sollten die Programmierer bestrebt sein 4k 60fps native darstellen zu können und erst bei zuschalten von RT sollte die Verbesserungen für mehr FPS nötig sein

Leistungs schwächere Rechner zb mit 4060 und co sollten locker auf 4k upscalled 60fps darstellen können
 
Guter und wichtiger Artikel!
 
  • Gefällt mir
Reaktionen: RedDragon83
Also ich habe mich mit dieser Thematik auch nie so richtig befasst.. zudem lese ich immer das eine Auflösung von QHD dann 4k hätte.. und das lese ich jetzt aus dem Artikel aber nicht heraus.

So wie ich das verstanden habe, wird mein natives Bild von 2560x1440 auf 1.707×960 heruntergebröckelt.. Die verbliebenen Pixelinformationen dann eingerechnet in die 1707x960 und dadurch ergibt sich ein schärferes Bild als mit nativ auf 2560x1440 !?? Ist das so in etwa richtig ?



 
Zurück
Oben