Bericht Upscaling-FAQ: Fragen zu Nvidia DLSS, AMD FSR und Intel XeSS beantwortet

Pumper33 schrieb:
Oder gibt es doch technische Gründe?!
Ja gibt es, die Optical Flow Accelerator sind auf den 3000er Karten zu langsam, als dass es einen positiven Effekt für dich als Nutzer hätte. Technisch läuft das Feature aber auf allen RTX Karten. Das hat Nv auch nie bestritten.
 
  • Gefällt mir
Reaktionen: Lille82
Pumper33 schrieb:
Ich denke Nvidia nutzt die FG Exklusivität von RTX40.. als selling point. Technisch sollte RTX3000er dazu in der Lage sein. Aber NV will es jetzt nur auf die 4000er begrenzen. Oder gibt es doch technische Gründe?!

Das mit dem OFA könnte plausibel sein. Es ist ja bereits mit DLSS Upscaling ähnlich.

Nvidia setzt eben auf ein KI model was auf älteren Karten nicht schnell genug läuft, deswegen gibts DLSS erst ab RTX. AMD hat gezeigt, dass sowas auch ohne KI umsetzbar ist, allerdings mit schlechterer Qualität.

Aber wie sinnvoll wäre es denn jetzt, wenn Nvidia DLSS nochmal neu entwickelt ohne KI Komponente? Dann hätte man sowas ähnliches wie TSR oder FSR. Wem nützt das zum aktuellen Zeipunkt noch etwas? Eigentlich niemandem.

Mit Frame Gen wirds ähnlich gewesen sein. Man erhoffte sich vom OFA bessere Qualität oder andere Vorteile und hat eben darauf gesetzt. Klar dass man dann nicht einfach so sagt "ja, dann machen wir alles nochmal ohne OFA" Denn letztendlich hat genau das AMD getan.

Möglich ist immer vieles. Upscaling und Frame Generation sind auf alten GPUs möglich. Aber der technische Ansatz, den nvidia gewählt hat, funktioniert eben nur auf der richtigen Hardware und profitiert davon.
Und hier muss man auch ganz klar unterscheiden. Es ist ein riesen Unterschied, ob man sagt, die technische Umsetzung ist auf ältere GPUs nicht übertragbar oder ob man generell sagt, dass sowas wie Frame Gen ohne OFA überhaupt nicht möglich sei.


Klar gibt es da immer auch wirtschaftliche Entscheidungen, aber ich denke, dass die Entscheidung auf ein KI Modell bei DLSS zu setzen oder auf den OFA bei FramGen auch technische Gründe hatte, von denen man sich eben Vorteile sowohl kurz als auch langfristig versprochen hat. Logisch, dass sich Entwickler da für einen Weg entscheiden mussten und dieser Weg dann beibehalten wird.


Für AMD ist die Entscheidung eben relativ einfach. Die wurden mit Upscaling und Frame Gen konfrontiert, als ihre GPUs längst am markt waren. Die hatten gar keine möglichkeit, mit neuer Hardware darauf zu reagieren und waren gezwungen, eine Lösung zu entwickeln, die auf aktuellen GPUs funktioniert.
 
  • Gefällt mir
Reaktionen: Lille82
Danke @Vitche für den Bericht.
Eine Frage hätte ich tatsächlich noch: Welche Rolle spielen im Zusammenhang mit den im Bericht vorgestellten Technologien die Techniken zum Synchronisieren der Monitorframes (V-SYNC, G-SYNC, etc.)
Ich kann z.B. in Warhammer 40k Darktide wenn FG an ist kein V-SYNC dazuschalten. G-SYNC funktioniert aber 🤪
 
MrHeisenberg schrieb:
Ja gibt es, die Optical Flow Accelerator sind auf den 3000er Karten zu langsam, als dass es einen positiven Effekt für dich als Nutzer hätte. Technisch läuft das Feature aber auf allen RTX Karten. Das hat Nv auch nie bestritten.
Mag sein, aber das könnte NV dann doch freigeben, wenn es wirklich nichts bringen würde, hätte NV es nicht eingeschränkt. Wahrscheinlicher halte ich es, damit Leute bewogen werden, zu 4000 upzugraden.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Es lässt sich aber in Games nicht aktivieren.
Im Thread, der verlinkt steht:
„…kriegst halt nur keinen Support, sollte es Ärger geben. Und ja- Sie könnten es wohl auch auf einer 3090 freigeben.“
 
Guter Beitrag, der hilft, das Bewusstsein für die Technik zu fördern.
Finde die Technik von Nvidia eleganter gelöst und technisch und qualitativ ausgereifter, aber das sage ich auch nicht erst seit gestern.
 
Pumper33 schrieb:
„…kriegst halt nur keinen Support, sollte es Ärger geben. Und ja- Sie könnten es wohl auch auf einer 3090 freigeben.“
Sie sind in dem Falle die Spieleentwickler. Das ganze lässt sich auch ohne die Beschränkung kompilieren. Macht halt nur kein Entwickler.
 
Top Artikel danke dafür, besonders für die Zahlen in UWQHD.

LucLeto schrieb:
Ich kann z.B. in Warhammer 40k Darktide wenn FG an ist kein V-SYNC dazuschalten. G-SYNC funktioniert aber
finde gerade die Grafik nicht wieder, wenn ich mich recht entsinne greift VSync in der Bearbeitung vor Framegeneration zu, kann also die von FG generierten Frames nicht erfassen. Gsync und Freesync greifen ganz am Ende auf die gesamten Frames zu.
 
  • Gefällt mir
Reaktionen: LucLeto
Pumper33 schrieb:
„…kriegst halt nur keinen Support, sollte es Ärger geben. Und ja- Sie könnten es wohl auch auf einer 3090 freigeben.“
Ja, aber unterhalb der 3090 nicht. Nvidias Aussage ist, dass Frame Generation positiv von den Nutzern aufgenommen werden soll. Wenn du ne 3060 hast und das kacke läuft, wirst du dich beschweren.
Erinnere dich mal zurück, wie hier gegen FG gehatet wurde und noch wird (Fake Frames, alles quatsch...). Was denkst du wäre losgewesen, wenn das dann noch beschissen auf älteren Karten funktioniert hätte?
Dann hätten die "Kritiker" hier behauptet, dass Nvidia es absichtlich auf älteren Karten verlangsamt.

LucLeto schrieb:
Eine Frage hätte ich tatsächlich noch: Welche Rolle spielen im Zusammenhang mit den im Bericht vorgestellten Technologien die Techniken zum Synchronisieren der Monitorframes (V-SYNC, G-SYNC, etc.)
Ich kann z.B. in Warhammer 40k Darktide wenn FG an ist kein V-SYNC dazuschalten. G-SYNC funktioniert aber 🤪
FG + VSync funktioniert über den Treiber.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lille82
Wolfgang schrieb:
Damit gibt es mit Frame Generation immer einen Disconnect zwischen FPS und Latenz und das ist das Problem. Wenn das Bild flüssiger wird, erwarte ich auch eine bessere Latenz. Bekomme ich die aber nicht, fühlt sich das plötzlich ziemlich komisch an. Daran ändert eben auch Reflex mit FG gegen Nativ ohne Reflex nichts.
Genau der Vergleich mit Nativ ohne Reflex zeigt aber doch, dass man eine deutlich geringere Latenz mitsamt höheren FPS bekommt.

Hier euer Cyberpunk Test zum Vergleich
1705402754425.png

1705402762289.png


Nativ sind 29,1FPS bei 121,5ms Latenz.

Nativ + FG sind 50,5FPS bei 71,2ms, also 73% mehr FPS bei gleichzeitig 42% geringerer Latenz.

Das ist das gleiche Verhältnis von mehr FPS zu geringerer Latenz, wie man mit dem "realen" Sprung von 29 auf 50 FPS bekommt, wie man an den Werten von DLSS Quality ohne Reflex sieht, wo man auf 51,3FPS bei 69,7ms kommt.

Du bekommst mit FG also genau die gleiche Reduzierung der Latenz
wie es bis jetzt bei einer höheren Framerate immer gewesen ist.

Nochmal, diesen Disconnect hat man nur, wenn vorher bereits Reflex an ist und es somit keine Latenzreduzierung speziell für FG stattfindet, weil diese immer aktiv ist.


Würde Nvidia nicht erlauben Reflex außerhalb von FG zu nutzen, gäbe es den Punkt mit der angeblich schlechteren Latenz gar nicht.
Da hat AMD eigentlich alles richtig gemacht, denn genau das machen sie ja bei FMF.
Dort wird dann im Test lobend erwähnt, dass die Latenz nicht gestiegen ist. Bei FG wird dann negativ erwähnt, dass sie verglichen mit Nativ+Reflex gestiegen ist
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LucLeto, Quidproquo77, MrHeisenberg und eine weitere Person
@Vitche und @Wolfgang danke für den tollen Artikel.

Könnt ihr den hier im entsprechenden Forenteil "sticky" machen? Dann kann man neue Mitglieder, die hierzu Fragen haben, darauf aufmerksam machen.
 
  • Gefällt mir
Reaktionen: Zensai
Wolfgang schrieb:
Daran ändert eben auch Reflex mit FG gegen Nativ ohne Reflex nichts.
Genau an dieser Stelle finde ich deine Überlegung aber etwas widersprüchlich, denn Reflex stellt den Disconnect von Latenz und FPS gegenüber einer Nativen Nutzung laut euren Messungen teilweise wieder her.

DLSS Quality und Nativ+Reflex+FG bieten etwa die gleiche FPS Höhe. 50,5 zu 51,3
Bei der Latenz ist die FG Variante etwa 16ms schlechter.
Man holt aber dennoch 30 bis 40% an besserer Latenz heraus, das heißt der Disconnect ist nicht so groß.
Zu sehen ist das auch bei Nativ vs. FG+ Reflex.
Taxxor schrieb:
Würde Nvidia nicht erlauben Reflex außerhalb von FG zu nutzen, gäbe es den Punkt mit der angeblich schlechteren Latenz gar nicht.
Bei gleicher FPS Höhe, die ich ja durch niedrigere Darstellungsqualität erkaufe schon, aber insgesamt gesehen wäre das nicht der Rede wert, weil der Qualitätsverlust ins Kontor schlägt.
MrHeisenberg schrieb:
Ja gibt es, die Optical Flow Accelerator sind auf den 3000er Karten zu langsam, als dass es einen positiven Effekt für dich als Nutzer hätte.
Diese Behauptung bleibt unbelegt. Ich glaube da haben wir schon einmal diskutiert und es fehlte der Beweis.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Diese Behauptung bleibt unbelegt. Ich glaube da haben wir schon einmal diskutiert und es fehlte der Beweis.
Die Aussage eines unabhängigen Entwicklers reicht mir als Beweis. Wenn dir das nicht reicht, dann installier dir Visual Studio und teste es selbst?
Abgesehen davon ist Nvidias Aussage schlüssig. Die OFA von Ada sind um Faktor 2 schneller.

Und warum muss man euch überhaupt was beweisen? Beweis du doch erstmal deine Behauptung.
Solange man Nvidia nicht das Gegenteil beweisen kann, sehe ich keinen Grund im Forum irgendwas Gegenteiliges zu verbreiten. Die einzige Grundlage ist aktuell nur die Abneigung gegen Nvidia und sonst nichts.
 
MrHeisenberg schrieb:
Die Aussage eines unabhängigen Entwicklers reicht mir als Beweis.
Mir nicht und wenn ich seinen Beitrag richtig gelesen habe, dann hat er überhaupt nicht gesagt, dass DLSS3 keinen positiven Effekt haben könne, sondern das Gegenteil, nämlich, dass es auf den schnellen Karten gut funktionieren sollte.
Davon abgesehen ist der OFA meines Wissens auf allen Ampere Karten gleich schnell, daraus resultierend habe ich Zweifel.
Ich habe bei Kollegen nachgefragt, die Spieleprogrammierer sind und meinten zu mir sie können auch in einem "Entwicklermodus" in der Unreal Engine 4 oder 5 kein DLSS3 auf Ampere Karten mit Nvidias Plugin aktivieren.
Was da mit dem Visual Studio "nachgebaut" wurde, ist für mich nicht greifbar.

Wie das genau gemacht wurde, weiß ich ergo nicht. Und deine Ableitung davon "bringt keinen positiven Effekt" ist dann auf grundlage des Postings von Sentinels auch nicht richtig.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Genau der Vergleich mit Nativ ohne Reflex zeigt aber doch, dass man eine deutlich geringere Latenz mitsamt höheren FPS bekommt.

Hier euer Cyberpunk Test zum Vergleich
Jetzt hast du dir aber schon ziemlich den Best Case rausgepickt, so ist es meistens schlicht und ergreifend nicht.
Schaue dir auch in deinem Beispiel mal DLSS Quality an. Dort habe ich 51,3 FPS bei 69,7 ms. Schalte ich nun FG hinzu habe ich 78,6 FPS (+53 Prozent) und 60,5 ms (-13 Prozent). Und prompt habe ich auch in Cyberpunk einen ziemlich großen Disconnect zwischen FPS und Input-Lag bei Frame Generation. Da rettet mich auch Reflex nicht im Ansatz vor.

FPS mit FG sind nicht gleichwertig zu FPS ohne FG. Es ist einfach nicht dasselbe. Deswegen ist FG ja nicht unnütz. Aber es hat eben seine Limits, die nicht zu unterschätzen sind.
 
  • Gefällt mir
Reaktionen: A.Xander und Quidproquo77
Quidproquo77 schrieb:
Mir nicht und wenn ich seinen Beitrag richtig gelesen habe, dann hat er überhaupt nicht gesagt, dass DLSS3 keinen positiven Effekt haben könne, sondern das Gegenteil, nämlich, dass es auf den schnellen Karten gut funktionieren sollte.
Ich habe auch nichts Gegenteiliges behauptet. Auf der 3090 (TI) würde es was bringen, aber ich kann nachvollziehen, dass Nvidia diese Karten nicht supportet. Es lohnt sich aus ihrer Sicht einfach nicht, weil der Nutzerkreis so klein ist.

Quidproquo77 schrieb:
Davon abgesehen ist der OFA meines Wissens auf allen Ampere Karten gleich schnell, daraus resultierend habe ich Zweifel.
Edit: Hier stand Mist. Hast du dazu auch was handfestes?
Laut Nvidia klingt das aber nicht so, als könnte das sein. Bei Turing und Ampere berechnet die Compute Engine der GPU den OFA Workload und nicht jede Ampere Karte hat die gleiche Anzahl an compute Einheiten.
The Optical Flow algorithm requires certain pre– and post-processing steps to improve the quality of the flow vectors.

In the NVIDIA Turing and NVIDIA Ampere architecture generation GPUs, most of these algorithms use a compute engine to perform the required tasks. As a result, when the compute engine workload is high, the performance of the NVIDIA Optical Flow Accelerator (NVOFA) could be affected.

On NVIDIA Ada-generation GPUs, most of these algorithms are moved to dedicated hardware within the NVOFA, reducing the dependency on the compute engine significantly.
Quelle: https://developer.nvidia.com/blog/h...up-conversion-in-the-nvidia-optical-flow-sdk/

Quidproquo77 schrieb:
Wie das genau gemacht wurde, weiß ich ergo nicht. Und deine Ableitung davon "bringt keinen positiven Effekt" ist dann auf grundlage des Postings von Sentinels auch nicht richtig.
Wieso nicht? Sentinel sagt selbst, dass es unterhalb der 3090 nichts bringt.

Das berechnen von Zwischenbildern funktioniert grundsätzlich auf allen RTX Karten:
https://developer.nvidia.com/opticalflow/download
Du kannst es also selbst testen, wenn du wollen würdest.

Wolfgang schrieb:
Schaue dir auch in deinem Beispiel mal DLSS Quality an. Dort habe ich 51,3 FPS bei 69,7 ms.
Was aber auch nicht mehr nativ ist, weil DLSS.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Ich habe bei Kollegen nachgefragt, die Spieleprogrammierer sind und meinten zu mir sie können auch in einem "Entwicklermodus" in der Unreal Engine 4 oder 5 kein DLSS3 auf Ampere Karten mit Nvidias Plugin aktivieren.
Was da mit dem Visual Studio "nachgebaut" wurde, ist für mich nicht greifbar.

Das ist eine Einschränkung seitens EPIC.
Im NVIDIA Software Stack zur Einbindung in die eigene Engine ist es jedenfalls als Bool hinterlegt.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Wolfgang schrieb:
Schaue dir auch in deinem Beispiel mal DLSS Quality an. Dort habe ich 51,3 FPS bei 69,7 ms. Schalte ich nun FG hinzu habe ich 78,6 FPS (+53 Prozent) und 60,5 ms (-13 Prozent). Und prompt habe ich auch in Cyberpunk einen ziemlich großen Disconnect zwischen FPS und Input-Lag bei Frame Generation.
Natürlich wird die mögliche Latenzreduzierung immer geringer je höher die Basis-FPS sind.

Bei 78 realen Frames wären das irgendwas um die 45ms(ausgehend von den 50ms bei 70FPS mit DLSS Performance ohne Reflex ), also -25% Latenz bei +53% FPS. so riesig finde ich den Disconnect nun nicht zu -13% bei +53% FPS

Die Latenz hätte mit realen Frames um ca 25ms gesenkt werden können, mit FG waren es dann nur noch ca 10ms, bleibt ein Unterschied von 15ms übrig zwischen realen 78FPS und FG 78 FPS, ich weiß nicht, wer das fühlen soll.
In den Bereichen, wo die Latenzen aber deutlich höher sind und auch Unterschiede eher spürbar, macht Reflex seinen Job.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und MrHeisenberg
Bei DLSS bin ich mittlerweile übergegangen nicht immer direkt die DLL-Datei mit der neuesten Version der DLL-Datei auszutauschen, sondern immer zu schauen welche Version das jeweilige Spiel verwendet und dann auf der Seite welche die Downloads der DLSS-Dateien anbietet über das darüberstehende "Whats new" zu erfahren welchen Ursprung diese Datei hat.^^

Und anhand dessen suche ich mir dann eine neuere Datei heraus, bin aber noch damit am herum probieren.^^

https://www.techpowerup.com/download/nvidia-dlss-dll/
 
Zurück
Oben