Test FidelityFX Super Resolution im Test: AMD FSR kann was, schlägt Nvidia DLSS aber noch nicht

foo_1337 schrieb:
Heute wurde bekannt, dass BF2042 DLSS erhalten wird. Daher vermutlich kein FSR bei diesem Game. EA/DICE waren IIRC auch nicht auf der FSR Folie gelisted.
Man wird sehen wohin die Reise geht. Das FSR nicht gelistet wurde und weiterhin erstmal nicht gelistet wird, könnte auch damit zusammenhängen das man diese Möglichkeit bisher noch nicht richtig auf den Schirm hatte.

Ich glaube aber auch, das DLSS langfristig mehr Möglichkeiten bieten und sich daher durchsetzen wird. Als Übergangslösung bzw Kompromiss, solange man auf ältere Grafikkarten angewiesen ist, könnte FSR durchaus was taugen.
KuroSamurai117 schrieb:
"Halten wir fest: FSR ist ein klassisches Upscaling, das eine niedrige Auflösung als Input verwendet, diese aufwertet und als Output ein höher auflösendes Bild generiert. FSR kommt erst dann zum Zuge, wenn das Spiel-interne Anti-Aliasing bereits durchgeführt wurde. Das bedeutet, dass temporal keinerlei Verbesserung zu erwarten ist. Spatial hingegen wird versucht, den Verlust an internen Pixeln durch eine schlaue Heuristik wiederherzustellen oder gar zu überbieten."
Wenn es funktioniert und die Heuristik eine Verbesserung im Prinzip nur "vorgaukelt" wird es dem User am Ende doch shit egal sein solange das Ganze einigermaßen gelungen rüberkommt.
 
McSchott schrieb:
Ich glaube aber auch, das DLSS langfristig mehr Möglichkeiten bieten und sich daher durchsetzen wird. Als Übergangslösung bzw Kompromiss, solange man auf ältere Grafikkarten angewiesen ist, könnte FSR durchaus was taugen.
Wie soll das gehen, wenn DLSS nur auf einer Handvoll Karten läuft?
 
whyme schrieb:
Wie soll das gehen, wenn DLSS nur auf einer Handvoll Karten läuft?
Wenn man danach geht, dürfte es auch kein RT geben. Die Frage ist, wieviel mehr aktuelle Karten nvidia im Vergleich zu AMD verkauft. Plus die ganzen Turing RTX Karten der letzten 2 Jahre.


1624998005560.png



Ja, die Grafik gibt nicht die aktuellen Werte (Verkaufszahlen bzw. Ratio) her, aber es wird sich nicht gedreht haben. Dazu kommt, dass AMD aktuell die GPU Produktion zurückfährt. Warum auch immer. Vermutlich aber wegen Epyc.
 
whyme schrieb:
Wie soll das gehen, wenn DLSS nur auf einer Handvoll Karten läuft?
Wie @foo_1337 schon angemerkt hat, Raytracing wird sich auch irgendwann durchsetzen, obwohl es aktuell nur auf einer Handvoll Karten läuft.
Und zwar dadurch, dass die Anzahl dieser Karten sich deutlich erhöhen wird.

Wenn wir mal zwei Generationen weiter sind, dann hat man RTX2000, RTX 3000, RTX 4000 und RTX 5000, auf denen man DLSS nutzen kann.
Das was heute die GTX 700 Besitzer sind, sind zu dem Zeitpunkt dann die RTX 2000 Besitzer, somit beläuft sich die Menge der Leute mit Nvidia Karten, die dann immer noch kein DLSS nutzen könnte, ca auf die Menge an Leuten, die heute eine GTX 600 Serie oder älter nutzen.

Ohne jetzt extra nachzuschauen, würde ich vermuten, dass der Anteil von Nvidia Karten der GTX 700 Serie bis zur RTX 3000 Serie am dGPU Markt über 50% liegt.
Das wird dann später auch ca der Anteil von RTX 2000 bis RTX 5000 Besitzern sein, sofern AMD bei den Marktanteilen bis dahin nicht massiv aufgeholt hat(seit RDNA1 Release sind sie ja quasi stetig gefallen).

Edit: Nachgeschaut, in der Steam Statistik kommt man alleine schon auf 56,67% Anteil von Nvidia Karten, wenn man nur so lange zusammenrechnet bis mit der GTX 750Ti überhaupt mal eine Karte unterhalb der 900er Serie auftaucht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337
Dann hoffen wir nur das Nvidia dlss + tensor Cores treu bleibt und nicht einen neuen Ansatz wählt der dann auf älteren Tensor Cores nicht mehr läuft. Wer weiß was Nvidia in ihrer Entwicklungsabteilung noch alles ausheckt. Es wird auf jedenfall sehr interessant die nächsten 2 Generationen.
 
ZeroStrat schrieb:
Haben temporale Upscaler eigentlich einen negativen Impact auf den Input Lag? @.Sentinel.
Nein, weil der temporale Upscaler zeitgenau einen Anteil des Frametimebudgets des aktuell berecchneten Bildes kostet.

Erhöht sich durch einen temporalen Upscaler die Framerate hat es sogar den gegenteiligen Effekt, nämlich sinkenden Input- Lag.
 
.Sentinel. schrieb:
Nein, weil der temporale Upscaler zeitgenau einen Anteil des Frametimebudgets des aktuell berecchneten Bildes kostet.
Um das richtig zu verstehen, es handelt sich dabei also um ein n-elementiges Sliding Window über der zeitlichen Framesequenz? Beispiel mit n=3 Frames.

Code:
1. | k-2 | k-1 | k |
2.       | k-1 | k | k+1 |
3.             | k | k+1 | k+2 |

usw.

Wenn also ein Bild dazu kommt (k+1), kann sofort refresht werden, aber die letzten n-1 Frames müssen gebuffert werden?
 
Zuletzt bearbeitet von einem Moderator:
foo_1337 schrieb:
Wenn man danach geht, dürfte es auch kein RT geben. Die Frage ist, wieviel mehr aktuelle Karten nvidia im Vergleich zu AMD verkauft. Plus die ganzen Turing RTX Karten der letzten 2 Jahre.

Nein, RT ist die Zukunft, da es ein Standard ist, mit einheitlicher Schnittstelle für in Zukunft alle drei Hersteller.

So lange DLSS nur auf den Karten von einem dieser Hersteller läuft, kann es sich einfach nicht Durchsetzen. Was aber passieren kann, ist dass es durch eine vergleichbare Technik, die alle Hersteller unterstützt ersetzt wird. Siehe Gsync ;)
 
Northstar2710 schrieb:
Dann hoffen wir nur das Nvidia dlss + tensor Cores treu bleibt und nicht einen neuen Ansatz wählt der dann auf älteren Tensor Cores nicht mehr läuft.
Muss es garnicht- Selbst wenn die Tensor- Recheneinheiten später mit Multi- Purpose Einheiten verschmelzen sollten, brauchst Du ja nur die Schnittstelle. Der Treiber abstrahiert dann halt in die neue Hardware.

Vorteil von DLSS ist eben auch, dass es umfrangreich Informationen einsammelt und per proxy DLL funktioniert. So halten sie sich alle Optionen der Verbesserungsmöglichkeiten zukünftig offen inklusive der Möglichkeit im Nachhinein alle Spiele ab DLSS2.x immer mit den neuesten Entwicklungen zu verbessern.
Ergänzung ()

ZeroStrat schrieb:
Um das richtig zu verstehen, es handelt sich dabei also um ein n-elementiges Sliding Window über der zeitlichen Framesequenz? Beispiel mit 3 Frames.

Code:
1. | n-2 | n-1 | n |
2.       | n-1 | n | n+1 |
3.             | n | n+1 | n+2 |

usw.

Wenn also ein Bild dazu kommt (n+1), kann sofort refresht werden, aber die letzten n-1 Frames müssen gebuffert werden?
Genau- Es verwendet die im Puffer befindlichen vergangenen Daten und konstruiert daraus Zielgenau auf das aktuelle Frame mit Last auf das Zeitbudget das aktuellen Frames.

Sieht man an älteren Versionen von DLSS. Du hast Ghosting bzw. temporale Schlieren, aber nie invers.....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeroStrat
whyme schrieb:
So lange DLSS nur auf den Karten von einem dieser Hersteller läuft, kann es sich einfach nicht Durchsetzen.
Jetzt ist die Frage wie man "Durchsetzen" definiert. Nvidia hat einen Weg geschaffen, wie man mit recht einfachen Methoden DLSS implementieren kann, gerade wenn man UE4/5 oder Unity nutzt. Nun werden die AAA Titel mit recht viel Aufwand "produziert" und nicht selten ist hier ohnehin nvidia als Partner mit an Bord. Von daher ist davon auszugehen, dass auch zukünftig sehr viele, insbesondere ressourcenhungrige, Titel mit DLSS support erscheinen werden. Ob man das jetzt Durchsetzen nennt oder nicht ist daher für mich zweitrangig. Aber es wird jedenfalls nicht so schnell in der Versenkung verschwinden, wie sich das der Eine oder Andere hier im Thread gerne wünscht.
Abgesehen davon wird sich FSR erstmal beweisen müssen. Ggf. werden es anderen Engines wie die UE handhaben und eigene temporale upsampler einbauen, die dann FSR obsolet machen.
 
whyme schrieb:
So lange DLSS nur auf den Karten von einem dieser Hersteller läuft, kann es sich einfach nicht Durchsetzen.
Hat Windows sich auch nicht als PC Betriebssystem durchgesetzt, weil es nur auf 77% der Rechner läuft?

Im anderen Thread wird Microsoft für diese 77% als Quasi-Monopolist bezeichnet, und hier sollen 83% dGPU Anteil von Nvidia nicht für DLSS ausreichen, um sich durchzusetzen?
 
.Sentinel. schrieb:
Genau- Es verwendet die im Puffer befindlichen vergangenen Daten und konstruiert daraus Zielgenau auf das aktuelle Frame mit Last auf das Zeitbudget das aktuellen Frames.

Sieht man an älteren Versionen von DLSS. Du hast Ghosting bzw. temporale Schlieren, aber nie invers.....
Ein Punkt, den ich noch nicht ganz verstehe, warum die temporalen Ansätze bei Stillstand der Szene z.B. durch einen Fotomodus im Spiel dennoch so gut funktionieren. Im dem Fall sind die Bilder deckungsgleich, alle Infos sind redundant. Muss das nicht prinzipiell versetzt sein, um dazwischen interpolieren zu können? Oder wird ein Offset künstlich erzeugt? Dabei wäre dann die Frage, wie das überhaupt funktionieren soll.
 
@ZeroStrat Haha genau die Frage hatte ich hier vor nicht allzu langer Zeit auch gestellt^^
 
In irgendeinem Thread hier, @.Sentinel. hatte es unter anderem beantwortet, deswegen lustig dass du ihn jetzt genau das gleiche fragst ^^

Im Prinzip sind die Builder niemals deckungsgleich, weil ein Stillstand bei einem 3D Bild niemals ein exakter Stillstand ist.
 
ZeroStrat schrieb:
Ein Punkt, den ich noch nicht ganz verstehe, warum die temporalen Ansätze bei Stillstand der Szene z.B. durch einen Fotomodus im Spiel dennoch so gut funktionieren. Im dem Fall sind die Bilder deckungsgleich, alle Infos sind redundant. Muss das nicht prinzipiell versetzt sein, um dazwischen interpolieren zu können? Oder wird ein Offset künstlich erzeugt? Dabei wäre dann die Frage, wie das überhaupt funktionieren soll.
Die kamera wird im Subpixel bereich bewegt um die zusätzlichen Informationen zu erzeugen, ähnlich super sampling wo pixel auch mehrfach abgetastet werden, nur bei temporalen Ansätzen passiert das eben zeitlich.
Durch diese minimale Bewegung der Kamera fallen die Probleme mit den Motion vektoren nicht ins gewicht.
Ergänzung ()

Taxxor schrieb:
Im anderen Thread wird Microsoft für diese 77% als Quasi-Monopolist bezeichnet, und hier sollen 83% dGPU Anteil von Nvidia nicht für DLSS ausreichen, um sich durchzusetzen?

Wir sprechen vom Spielemarkt, Konsolen nicht vergessen. Ein Großteil der Spiele wird schon lange nicht mehr nur für den PC entwickelt.
Und theoretisch auch iGPUs, auf denen spielen auch manche, wobei nicht die neusten Titel.
 
whyme schrieb:
Wir sprechen vom Spielemarkt, Konsolen nicht vergessen.
Die Konsolen haben schon ewig ihre eigenen upscaling Techniken, daran wird sich nichts ändern, aber im PC Bereich wird sich DLSS durchsetzen.
Man sieht ja heute schon, wie viele neue Titel DLSS bekommen, obwohl der Anteil an DLSS fähigen Karten im Gesamt dGPU Markt vielleicht 2-3% beträgt UND sie überwiegend für Konsole etwickelt werden.

Das betrifft auch PC Versionen von ehemals exklusiven Konsolentiteln, Final Fantasy XV z.B. hat in der PC Version auch DLSS bekommen, FF VII Remake läuft auf der Unreal Engine, wenn das irgendwann für PC erscheint, ist DLSS dort auch so gut wie sicher.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Die Konsolen haben schon ewig ihre eigenen upscaling Techniken, daran wird sich nichts ändern, aber im PC Bereich wird sich DLSS durchsetzen.
Ich hoffe, dass sich eine allgemeine Schnittstelle durchsetzt, wo Nvidia, Intel und AMD sich dann mit ihren speziellen Implementierungen dranhängen können.
 
  • Gefällt mir
Reaktionen: rumpeLson
Zurück
Oben