News AMD Radeon Super Resolution: Upscaling auf Basis von FSR 1.0 für alle Spiele

@SV3N
hi , meint ihr/du mit spectral in eurer tabele nv NIS ? wenn ja, will ja keine pixelzählen aber bei mir sind die pixels etwas "ungenauer" für 1440p , und wieso ist das so ? :)

(nutze NIS1707x960@1060FE/6gb zZ. bei rdr2 , Spellforce 3, prey(2020) )
 

Anhänge

  • nis.png
    nis.png
    27,7 KB · Aufrufe: 283
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oseberg
Muss man das später einfach im Treiber aktivieren und das jeweilige Spiel nutzt das dann automatisch?
 
  • Gefällt mir
Reaktionen: Czk666
@[wege]mini

Problem ist aber dass es die meisten Upscaler in den Monitore so nicht machen. Sieht man schön am Upscaling-Test von Prad und Co. Da wird dann selbst bei 1080p auf 2160p teils mit grauen Pixel aufgefüllt.

Selbst wenn es so gemacht wird leidet scheinbar oft Helligkeits-und Farbinformation. Mal davon ab dass Kantenglättung nicht um den richtigen Faktor besser wird. Wenn es reichen würde bei 1080p jedem Pixel in alle Richtungen zu verschieben hätte es sowas wie Checkerboard bei PS4 Pro nicht gegeben. Aber es hilft für den Effekt mehr Bildinformationen aus aufeinanderfolgenden Frames zugenerieren. Die Infos zieht ja auch DLSS durch gemporale Komponente. Machen Upscaler durchaus Sinn und nicht nur 1080p 4x in 2160p zu bekommen.
 
  • Gefällt mir
Reaktionen: mibbio
t3chn0 schrieb:
Überzeugen konnte mich bis jetzt nichts. Für mich wird die Performance klar durch schlechtere Bildqualität erkauft.
Wenn man DLSS außen vor lässt, stimmt das. Da wo keine Mehrinformation vorhanden ist, kann die Originalqualität nicht erreicht werden (FSR).
t3chn0 schrieb:
DLSS wird irgendwann mal ansprechend funktionieren. Meiner Meinung nach mit DLSS 3.0 in Kombination mit einer 4090 und den nochmals besseren Tensor Cores.
Bei DLSS hapert es nicht an Leistung der Tensor- Cores. Im Augenblick tauscht man Quantisierungsartefakte der nativen Auflösung mit einer fehlerhaften Pixel- Prediction von DLSS.

Mal stört das eine (feine Strukturen werden zerrissen, Linecrawling usw.) mal das andere (nachziehen, Halos und andere Bildfehler). Einhergehend der deutlichen Gewschwindigkeitssteigerung von DLSS und den kontinuierlichen Fortschritten im Unterdrücken von Fehlern ist DLSS jedoch, wenn ordentlich implementiert (da hapert es leider auch noch oft), ein no- Brainer.
t3chn0 schrieb:
Solange rühre ich das Schlangenöl nicht an.
Kein Schlangenöl - Du hast mit DLSS kumuliert mehr Pixelinformation als nativ (temporales SUPERSAMPLING). Die Kunst ist es, zu bestimmen, welche Pixel gültig bleiben und welche jeweils zu verwerfen sind.

Mit der neuesten Iteration werden 3d motion- vectors unterstützt. Das wird nochmal einen gehörigen Genauigeitsgewinn bedeuten.
 
  • Gefällt mir
Reaktionen: ComputerJunge und rumpeLson
Spike Py schrieb:
Liest hier niemand mehr einen gesamten Post, existiert kein Textverständnis mehr oder drücke ich mich einfach nicht präzise genug aus?

Genau das habe ich doch geschrieben: DLSS setzt praktisch TAA voraus. Mir geht es darum ältere spiele mit schlechten AA-Modi in hübscher zu spielen. Diese Spiele besitzen kein TAA und damit auch kein DLSS sondern meist nur MSAA oder FXAA.

Wie ich bereits geschrieben habe, skaliert dieser neue Modus niedrigere Äuflösung hoch, ich hätte stattdessen liebert einen Modus der die native Auflösung beibehält aber dafür die Bildqualität erhöht und dabei nicht im Spiel implementiert werden muss, weil sich bei älteren Spielen keiner mehr den Aufwand machen wird!
Ergänzung ()


(...)
Naja, die Antworten musst du dann aber auch lesen.
Stell auf deinem Monitor per DSR/VSR, also einfach Downsampling, eine höhere Auflösung als nativ ein, dann nutze RSR/NIS in der Qualitätsstufe die intern der nativen Auflösung entspricht.
So hast du bessere Bildqualität als nativ bei etwa gleicher Performance. Die bessere Bildqualität durch Downsampling und die Performance durch das Upscaling.
Das ist dann exakt was du beaschreibst:
  • native Auflösung wird intern berechnet
  • muss nicht im Spiel implementiert werden
  • höhere Bildqualität als nativ
Das schrieb ich oben bereits.
Downsampling funktioniert jedenfalls in 90+% der Spiele problemlos (egal ob NV oder AMD). Der Rest hat halt technische Probleme, das kann man eher dem Spiel anlasten als der Technik.


Der Punkt ist doch, dass diese Upscaler einen bestimmten Bruchteil (der genaue Faktor ergibt dann die Qualitätsstufen) der eingestellten Auflösung intern berechnen und dann hochskalieren. Das kann man nutzen um mehr Performance zu erhalten oder eben um eine höhere Auflösung einzustellen, intern aber weiter nativ zu berechnen und so das Bild zu verschönern.
Man entscheidet selbst ob man Bildqualität oder Performance steigern will. Upscaler können, ihrer Natur entsprechend, beides.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pro_Bro, 54698uij0 und Spike Py
Nur mal so als Frage: Was passiert wenn AMD eine KI DLSS konkurrenz raushauhen würde, die genaus so proprietär wie nvidias DLSS würde?
Glaubt ihr wiklich ALLE Spiele/Entwickler bauen BEIDES (mit Intel eventuell dreimal!) ein?
Sorry, aber IM LEBEN NICHT! Und genau dass ist das größte Problem bei DLSS, es ist proprietär.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AssembIer
@.Sentinel.

Das wird auch echt Zeit. Bisher waren jegliche DLSS Spiele von mir für die Tonne. Zuletzt in BF2042, wo ich der Sache nochmal eine Chance gegeben habe.

Absolut grausam, wirklich. Auch bei Battlefield kann man DLSS on the fly aktivieren und deaktivieren. Der Unterschied ist riesig. Mit DLSS gibt es einen leichten Grauschleier im Hintergrund. Sämtliche Objekte haben eine unscharfe, weiß-gräuliche Aura um sich herum. Texturen, Schriften auf Texturen sehen verwaschen und unscharf aus. Da brauch ich dann auch kein DLSS mehr.

Sowas ist für mich echt ein Abturner. Ich rede hier vom Qualitäts Modus.
 
  • Gefällt mir
Reaktionen: Lamaan und .Sentinel.
Ich nutze DLSS auf meiner 3060 immer wenns gehts denn im Auto Modus und 1080P (Legeion 5 notebook) sehe ich keinen unterschied ausser das die FPS durch die decke gehen.
RS6 Siege Alles Maxed (kein Blur oder Lens und Sehr Hohe statt Ultra Texturen wegen 6GB Ram -.-) statt 120-150 FPS bekomme ich 240-300FPS, selbe verhalten bei Diablo 2 Remaster.

Leider habe ich ein Problem mit Vulkan, mit aktivierter iGPU kann ich RS6 Siege nicht in Vulkan starten
 
Jetzt frag ich mich, wie das aussieht zu Drittanbietern, lossless scaling nutzt ja fsr, warum geht das bei AMD dann nicht auch direkt? Bzw sieht denn FSR von Lossless scaling besser aus?
Bin jedenfalls gespannt.
 
janeeisklar schrieb:
Glaubt ihr wiklich ALLE Spiele/Entwickler bauen BEIDES (mit Intel eventuell dreimal!) ein?
Sorry, aber IM LEBEN NICHT! Und genau dass ist das größte Problem bei DLSS, es ist proprietär.
Es ist doch egal an welche Bibliothek Du entsprechende Buffer schickst.
Insofern sehe ich ehrlich gesagt keinen großen Aufwand. Eine Vendor- und ID Abfrage hast Du sowieso in jedem Titel.

Ob Du den if... then ... -> proxy nun einfach oder dreifach ausführst ist eine Sache von Minuten.
Dies natürlich unter der Voraussetzung, dass Intel und AMD entsprechende Lösungen ähnlich einfach ansprechbar gestalten, wie es NVIDIA inzwischen tut.
 
lol ok. Evtl. hab ich die Umfrage falsch verstanden xD

Cyberpunk 2077 ist ein gutes Beispiel !
Eigentlich nativ aber DLSS aktiviert. Und das Bild war besser !
Am Porsche hat man es suuper gesehen: Der Draht der Heckscheibenheizung war mit DLSS nicht mehr unterbrochen. Sieht gut aus ! :)

In Forza 5 hingegen ist es FSR. Entweder weil ich eine Nvidia Karte nutze oder einfach weil es "achlecht" gemacht ist. Also das ist definitiv aus bei mir.

Hab aber auch keine starke AMD Karte hier um das zu vergleichen.
 
frank99 schrieb:
Die Umfrage im Artikel macht so aktuell wenig Sinn..
Klar wird "Nein, ich spiele immer mit nativer Auflösung" deutlich jetzt gewinnen, viele wie ich warten ja aktuell auf humanere Preise für GPUs und was soll man mit einer "veralteten" GPU denn auch sonst antworten---
Ich verstehe nicht ganz. Dadurch, dass viele noch auf ihren "alten" Grakas sitzen werden die Upscaler doch nur interessanter.
Ausser DLSS wird ja auch keine allzu moderne Grafikkarte vorausgesetzt. Dass Vega für RSR nicht offiziell supported wird ist schade, aber ich denke man kann sich auch da noch begründete Hoffnungen machen. Ansonsten laufen FSR/RSR und NIS doch auf so ziemlich jeder halbwegs aktuellen Karte.
 
.Sentinel. schrieb:
Es ist doch egal an welche Bibliothek Du entsprechende Buffer schickst.
Insofern sehe ich ehrlich gesagt keinen großen Aufwand. Eine Vendor- und ID Abfrage hast Du sowieso in jedem Titel.

Ob Du den if... then ... -> proxy nun einfach oder dreifach ausführst ist eine Sache von Minuten.
Dies natürlich unter der Voraussetzung, dass Intel und AMD entsprechende Lösungen ähnlich einfach ansprechbar gestalten, wie es NVIDIA inzwischen tut.
Boah bitte hör doch auf, wie "einfach" das ist zeigen ja die zt extrem unterschiedlichen ergebnisse mit DLSS. Das nvidia dies natürlich anders darstellt ist ja wohl klar. Ungeachtet dessen gehst du von einer 1:1 Kopie der Schnittstellen aus, was sicher das beste wäre aber ob sich AMD/Intel wirklich diesbezüglich an nvidia hängen werden wage ich zu bezweifeln (nach dem was man so hört macht Intels Lösung dies schon einmal nicht!), ein möglicher DLSS Konkurrent wäre damit immer nur ein "Nvidia Weg". Denke da lassen die 2 sich nicht drauf ein.
 
janeeisklar schrieb:
Boah bitte hör doch auf, wie "einfach" das ist zeigen ja die zt extrem unterschiedlichen ergebnisse mit DLSS.
Naja- Man muss halt seine eigene Software schon kennen und wissen, was geht, was man maskieren muss und mit welchen Informationen die Bibliothek beschickt. Shit in-> Shit out.
DLSS bringt einen wieder dazu, eine saubere Ausgabe zu erstellen, wenn man will, dass es ebenso sauber funktioniert. Kumulation auf Kumulation, Temporal auf Temporal und welche Schweinereien einem derzeit sonstnoch als vermeintlich "nativ" vorgesetzt wird, funktioniert mit DLSS nicht zufriedenstellend.
Diese Schweinereien würden aber durch DLSS und deren überproporional hohe Performancesteigerung wiederum obsolet.
janeeisklar schrieb:
Das nvidia dies natürlich anders darstellt ist ja wohl klar.
Wie stellt es NVIDIA denn dar? Implemetation guide schon mal durchgearbeitet?
janeeisklar schrieb:
Ungeachtet dessen gehst du von einer 1:1 Kopie der Schnittstellen aus, was sicher das beste wäre aber ob sich AMD/Intel wirklich diesbezüglich an nvidia hängen werden wage ich zu bezweifeln (nach dem was man so hört macht Intels Lösung dies schon einmal nicht!),
Die Frage ist, ob sich die Lösungen prinzipbeding unterscheiden. Die Buffer/Targets sind so oder so da. Kein modernes Spiel kommt mehr ohne eine Variante von TAA aus.
Was ich da wie wo hinschicke ist mir völlig egal. Es liegt am Entwickler der entsprechenden Lösung den Input zu verarbeiten.
janeeisklar schrieb:
ein möglicher DLSS Konkurrent wäre damit immer nur ein "Nvidia Weg". Denke da lassen die 2 sich nicht drauf ein.
Wie sollte denn eine qualitativ hochwertige Variante mit ähnlichem Geschwindigkeitsgewinn denn sonst aussehen?
Du kannst keine Pixelinformation aus dem Nichts zaubern. Wir reden hier immernoch von Bilderzeugung durch Rasterisierung und da sind der Auswahl an Information für ein entsprechendes Verfahren, enge Grenzen gesetzt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pietcux und ComputerJunge
.Sentinel. schrieb:
Naja- Man muss halt seine eigene Software schon kennen und wissen, was geht, was man maskieren muss und mit welchen Informationen die Bibliothek beschickt. Shit in-> Shit out.

Wie stellt es NVIDIA denn dar? Implemetation guide schon mal durchgearbeitet?

Die Frage ist, ob sich die Lösungen prinzipbeding unterscheiden. Die Buffer/Targets sind so oder so da. Kein modernes Spiel kommt mehr ohne eine Variante von TAA aus.
Was ich da wie wo hinschicke ist mir völlig egal. Es liegt am Entwickler der entsprechenden Lösung den Input zu verarbeiten.

Wie sollte denn eine qualitativ hochwertige Variante mit ähnlichem Geschwindigkeitsgewinn denn sonst aussehen?
Du kannst keine Pixelinformation aus dem Nichts zaubern. Wir reden hier immernoch von Bilderzeugung durch Rasterisierung und da ist die Auswahl an Information für ein entsprechendes Verfahren, enge Grenzen gesetzt.
Die deutliche implementierungs differenz bezüglich der gelieferten Bildqualität ist nun einmal Fakt und das obwohl es dabei ledeglich um eine Variante geht (DLSS), bei unterschiedlichen Varianten wird die nicht besser. Es ist dabei natürlich immer einfach zu sagen, es liegt am Entwickler.
Zudem ist die implementierung eine sache, das testen dann eventuell 3 Lösungen eine ganz andere. Wer soll das machen? Es gibt doch schon jetzt kaum budget dafür.

Letztlich brauchen wir eine Schnittstelle durch einen dritten, wie zb jüngst die Video Encode API. Und dies dann bitte ohne BinaryBlob im GameCode.
 
Oseberg schrieb:
Gibt es irgendwo eine aktuelle Übersicht welche Spiele FSR unterstützen?
Bin zu blöd eine Übersicht zu finden die nicht bereits ein halbes Jahr alt ist. :freak:

fsr spiele.png


fsr spiele 1.png
 
  • Gefällt mir
Reaktionen: Epistolarius, Oseberg und janeeisklar
janeeisklar schrieb:
Die deutlichen implementierungs differenz bezüglich der gelieferten Bildqualität ist nun einmal Fakt und das obwohl es dabei ledeglich um eine Variante geht (DLSS),
Genau..... Siehe oben. Ich habe oben ein par Ursachen mal kurz angerissen.
janeeisklar schrieb:
bei unterschiedlichen Varianten wird die nicht besser.
Das ist nicht gesagt...
janeeisklar schrieb:
Es ist dabei natürlich immer einfach zu sagen, es liegt am Entwikler.
Wie passt das zusammen, wenn Entwickler die offensichtlichen Punkte, die in einer eigenen Checklist des Programmers Guide stehen, ebenso offensichtlich ignoriert?

Deployment checklist Punkt #3
1640808807764.png


Ist das etwa NVIDIA zuzuschreiben, wenn 70% der Entwickler zu dämlich sind, das mipmap/lod bias anzupassen obwohl das in der Liste ganz oben steht?
Könnte man vielleicht daraus auf die Sorgfalt schließen, was den Rest der Implementation anbelangt?

janeeisklar schrieb:
Zudem ist die implementierung eine sache, das testen dann eventuell 3 Lösungen eine ganz andere. Wer soll das machen? Es gibt doch schon jetzt kaum budget dafür.
Das schöne am Testing der Grafikkonsistenz ist, dass im Normalfall Testszenen erstellt werden, in welchen alle Varianten von Shadern untergebracht sind.
Da läuft man einmal durch, macht 10 delta- Screenshots mit einer supergesampelten Ground- Truth und schwups hast Du Dein Ergebnis.

...nebst dem, dass NVIDIA inzwischen einen umfangreichen Debugger für DLSS zur Verfügung stellt.....
...und einen umfangreichen Troubleshooting guide für dummies....

Insofern komme ich nicht umhin, manchen meiner Kollegen mangelnde Sorgfalt zu unterstellen. Wahlweise auch zu hohen Fertigstellungsdruck. Vielleicht wurde einem die Integration von DLSS kurz vor Deadline aufs Auge gedrückt....

Alles möglich. Es ist aber falsch das auf die Technik DLSS an sich zu schieben.
Wenn andere Hersteller nachziehen ist eher zu hoffen, dass man diesbezüglich dann doch eher das Augenmerk auf diese Technik legt.

Verdient hätte sie es in Zeiten sinkender Effizienz auf jeden Fall.

janeeisklar schrieb:
Letztlich brauchen wir eine Schnittstelle durch einen dritten, wie zb jüngst die Video Encode API. Und dies dann bitte ohne BinaryBlob im GameCode.
Die Basisschnittstelle ist jedes beliebige (saubere) TAA. Das wird bei ene AMD oder Intel- Derivat nicht anders sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DDM_Reaper20 und Spike Py
Schinken42 schrieb:
Stell auf deinem Monitor per DSR/VSR, also einfach Downsampling, eine höhere Auflösung als nativ ein, dann nutze RSR/NIS in der Qualitätsstufe die intern der nativen Auflösung entspricht.
So hast du bessere Bildqualität als nativ bei etwa gleicher Performance. Die bessere Bildqualität durch Downsampling und die Performance durch das Upscaling.
Das klingt als sollte es in den meisten Fällen funktionieren, wenn auch leider etwas umständlich. Schön wäre es, wenn dieses neue RSR einen Variane hätte der dies erledigt, ist aber wahrscheinlich hier nicht Sinn der Sache, da das Upscaling im Vordergrund steht und nicht das Anti-Aliasing.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schinken42
Spike Py schrieb:
Das klingt als sollte es in den meisten Fällen funktionieren, wenn auch leider etwas umständlich. Schön wäre es, wenn dieses RSR einen Variane hätte der dies erledigt, ist aber wahrscheinlich hier nicht sinn der Sache, da das Upscaling im Vordergrund steht und nicht das Anti-Aliasing.
Besser kann man es nicht ausdrücken.

Allerdings klingt es umständlicher als es ist. Die VSR Faktoren fürs Downsampling aktiviert man ja nur einmalig in Treiber, dann kann man die Auflösungen > nativ ja einfach in jedem Spiel wählen. Da ich sowieso nach jedem ersten Spielstart in die Grafikoptionen gehe ist es so auch nicht wirklich Mehraufwand.
In den Treiber um RSR zu aktivieren müsste man ja eh in beiden Fällen.

Uh, da fällt mir ein: Ich bin ja eh ziemlich begeistert von der Möglichkeit des AMD Treibers, Einstellungen "on the fly" im Spiel zu verändern (übers Overlay).
Für manche Optionen muss man trotzdem das Spiel neustarten aber ich fänd es ja seeehr nice, wenn RSR übers Overlay ohne Neustart aktiviert werden könnte.
 
Zuletzt bearbeitet:
Zurück
Oben