Bericht Final Fantasy XV: DLSS ist eine Alternative, aber kein Ersatz für Ultra HD

Ist schön wir hier einige Vega und nicht RTX Besitzer die Technik schlecht reden wollen. Ich hab eine RTX und FF15 live am PC mit den verschiedenen Techniken probiert und letztlich empfinde ich die Technik richtig gut.

Selbst am PC auf einem 4k Bildschirm spielen, dann kann man erst den Unterschied richtig bewerten.
 
  • Gefällt mir
Reaktionen: Oneplusfan, Unnu, pietcux und 2 andere
Taxxor schrieb:
@Lübke82 die 20-25% an FPS kann man in 4K auch gut durch die Settings rausholen ohne viel Bildqualität zu verlieren. Ist dann die Frage, ob 4K DLSS mit maximalen Details dann besser aussieht

Richtig, man muss Details reduzieren...was schlechter nunmal schon aussieht. Und dann musst du TAA oder FXAA anschalten um gegen die hässlichen Flimmerkanten vorzugehen. Und zack ist es deutlich schlechter mit der Grafik wieder. DLSS ist der beste Kompromiss aus Leistung und Bildqualität.
Ergänzung ()

Palatas schrieb:
Ist schön wir hier einige Vega und nicht RTX Besitzer die Technik schlecht reden wollen. Ich hab eine RTX und FF15 live am PC mit den verschiedenen Techniken probiert und letztlich empfinde ich die Technik richtig gut.

Selbst am PC auf einem 4k Bildschirm spielen, dann kann man erst den Unterschied richtig bewerten.

Genau so siehts aus. Selbst in einem UHD-Video auf YT kommt es nicht so rüber wie in Echtzeit!

Ebenso ist ja nun auch bekannt, dass DLSS noch im Beta-Stadium ist und weitere Qualitäts- und Geschwindigkeitssteigerungen noch drin sind.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Luzifer71 und Palatas
Palatas schrieb:
Ist schön wir hier einige Vega und nicht RTX Besitzer die Technik schlecht reden wollen. Ich hab eine RTX und FF15 live am PC mit den verschiedenen Techniken probiert und letztlich empfinde ich die Technik richtig gut.

Liegt vermutlich an der VEGA im eigenen Rechner und nicht an den detaillierten Bildern und Videoaufzeichnungen in diesem Test hier im direkten Vergleich.
 
  • Gefällt mir
Reaktionen: (-_-)
Ich weiß nicht, ich betrachte DLSS nach wie vor skeptisch.
Man stellt sich im Spiel die Auflösung ein, die einem gefällt (idealerweise natürlich die des Monitors). Und dann kommt DLSS daher und manipuliert an der Auflösung herum - wenn ich CB hier richtig verstanden habe, lässt sich nicht einmal feststellen, welche Auflösung letztlich verwendet wird, es bleibt ein Geheimnis. Was soll das? Noch mehr Kontrolle abgeben, für eine zweifelhafte "Verbesserung" der Qualität? Nein danke.
 
Lübke82 schrieb:
Ebenso ist ja nun auch bekannt, dass DLSS noch im Beta-Stadium ist und weitere Qualitäts- und Geschwindigkeitssteigerungen noch drin sind.

Ebenso wie sich RT im Beta Stadium befindet.
Zusammen betrachtet löst das bei mir im Moment Null Aufrüstundswillen aus.
Ist schon ziemlich dünn was drei Monate nach erscheinen der Karten an Spielen existiert welche die neuen Features unterstützen. Ich war davon ausgegangen das man DLSS auch in ältere Spiele Implementieren kann, wenn man denn will.
 
Wenn der Unterschied zwischen DLSS und 1800p mit Upscaling nicht nennenswert ist, dann verstehe ich nicht was der Ganze DLSS Aufwand (extra Tensor cores, AI Berechnungen seitens Nvidia) wert sein soll. Scheint für mich unnötig aufwendig.

Deswegen wäre hier Vergleichsbilder wohl am Interessantesten.
 
@cookie_dent

Das dürfte schon gehen, aber hier geht es ja auch darum ganz neue HW, den RT und Tensor Bereich einzusetzen und dafür braucht es erstmal entsprechende Erfahrungswerte, Libs usw.. Das fällt nicht vom Himmel. Hört man den Entwicklern zu so sitzt quasi immer noch ein Entwickler von Nvidia mit im Boot, man arbeitet gemeinsam an Tweaks und Kniffen eben mehr aus neuer Hardware rauszuholen. Das alles packt man dann natürlich in ein besser werdendes Framework dass später auch einfacher von Dritten eingesetzt werden kann.

Wenn es jemand verstanden hat Entwickler zu binden dann Nvidia. Dabei ist das aber erstmal nichts negatives und gerade jetzt bei der recht jungen Technik wichtig. Kommt auch den Studios entgegen.
Die Erfahrungen die auch gerade Nvidia dabei sammelt helfen auch in der Gen 2 etwaige Flaschenhälse auszubessern.

Man sollte sich im Klaren darüber sein dass aktuell der Grundstein für eine quasi neue Render Pipeline und Hardware / API geschaffen wird. Möglich dass diese Tensor und RT Sache nachher im einzelnen Shader aufgeht. Nvidia hat eben erkannt dass es wenig Sinn macht weiter nur in Rasterizing zu investieren. Und diese Erkenntnis ist meiner Meinung nach absolut richtig. Deep Learning und RT ermöglichen das ein oder andere interessante Experiment im Bereich PC Grafik. Das kann hin zu sehr agilen KI gesteuerten Grafik Engines gehen die dann selbst LOD, Details und viele Effekte / Parameter steuern, da etwas selbst Herr der Lage sind und ggf sich an eine Wunschframerate anpassen die sich wieder selbst über KI ermitteln lässt, je nach Bewegungsprofil.

Ggf sogar sowas wie Generierung von Level, Texturen, lernend. Dem Spieler anpassend.

Edit: natürlich immer mit wirtschaftlichem Interesse im Hintergrund. Deswegen muss der Weg aber nicht falsch sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu, Lübke82 und cookie_dent
cookie_dent schrieb:
Ebenso wie sich RT im Beta Stadium befindet.
Zusammen betrachtet löst das bei mir im Moment Null Aufrüstundswillen aus.
Ist schon ziemlich dünn was drei Monate nach erscheinen der Karten an Spielen existiert welche die neuen Features unterstützen. Ich war davon ausgegangen das man DLSS auch in ältere Spiele Implementieren kann, wenn man denn will.

Geht mir genauso, ich hatte auf eine deutlich schnellere RTX 2080 ohne beschnittenen Chip gehofft, aber 30% Mehrleistung gegenüber meiner GTX 1080 ist es einfach nicht wert und für 70% Mehrleistung in 1440p müsste ich mehr als das doppelte bezahlen was ich vor fast 2 Jahren für meine derzeitige Karte bezahlt habe. :p

Features wie DSR und G-Sync haben mir deshalb so gut gefallen, weil sie mit fast allen Spielen, neu oder alt, kompatibel waren, im Gegensatz zu DLSS und Raytracing heute.
Ergänzung ()

Sun-Berg schrieb:
Wenn der Unterschied zwischen DLSS und 1800p mit Upscaling nicht nennenswert ist, dann verstehe ich nicht was der Ganze DLSS Aufwand (extra Tensor cores, AI Berechnungen seitens Nvidia) wert sein soll. Scheint für mich unnötig aufwendig.

Deswegen wäre hier Vergleichsbilder wohl am Interessantesten.

Es handelt sich wohl eher um einen alternativen Verwendungszweck der Tensor-Cores, neben Raytracing.

Hier ist ein Test für das Infiltrator-Demo und FF15, wohlgemerkt, beim Infiltrator demo laufen die Szehnen immer exakt gleich ab, also wie eine Kamera auf Schienen, es sollte also das Optimum für DLSS darstellen.
And here’s the fun part. Native 1800p rendering delivers nearly identical performance to DLSS in the Infiltrator demo: DLSS is about 2 percent faster in average framerates, and 6 percent faster in 1% lows. Of course, DLSS is a good 37 percent faster than 4K in average framerates, but the key thing here is DLSS is nearly visually identical to 1800p while also providing near identical performance.
https://www.techspot.com/article/1712-nvidia-dlss/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: paccoderpster, Tor Tesla, bad_sign und eine weitere Person
Ich denke viele hätten sich erstmal einfach nen Big Chip der einfach skaliert gewünscht. Aber versucht mal etwas über den Tellerrand zu sehen.

Genau dieser Wunsch wäre der kleinste Aufwand für Nvidia gewesen. Jetzt, wo die Konkurrenz aber kaum nachlegt, genau da kann man sich eher langfristig positionieren und hat überhaupt erst die Chance nen Wechsel einzuleiten. Weil Wechsel eben erstmal oft ein Schritt zurück bedeutet bevor es vorangehen kann.

So mag zb im Bereich RT die Performance erstmal bescheiden sein. Absolut.

Geht man aber von hypothetisch 4 facher GPU Leistung in 5 Jahren aus, kann kann schon da die Grafik gerade unter Zunahme von RT ggf viel besser aussehen kann als mit 4x Rasterizing Power allein. Oder sieht die Grafik heute oft so viel besser aus als noch bei Battlefront 1 trotz 3 facher GPU Power?
Fakt ist eher der das bei Rasterizing auch 10 fache GPU power kaum besserer Grafik bescheren kann da es nicht physikalisch ansatzweise korrekt arbeitet.
 
  • Gefällt mir
Reaktionen: Palatas, Lübke82, Luzifer71 und eine weitere Person
Sind das Videoartefakte oder sieht DLSS bei 2:22 im Video tatsächlich so bescheiden aus?
 
Krautmaster schrieb:
Finde im Video seh ich das maximiert auf 4K kaum, müsste man unkomprimiert sehen. Treppchenbildung wird denke ich nicht gravierender sein als bei 4K ohne AA, je nach Größe des 4K Monitors dürfte das auch weniger schlimm sein als der Schärfeverlust durch TAA.

Dürften wohl am besten die beurteilen können die die Sache hier schon einsetzen, gab's ja welche die meinten es funktioniert ganz gut.

Edit: außerdem vergisst du dass die DLSS Sache hier ja schneller läuft. Is also eine Sache der eigenen Abwegung. Mag sein dass 60 zu 50 FPS hier mehr Mehrwert bieten als das ein oder andere "Treppchen" weniger.
Achte bei dem besagten Zeitpunkt mal auf den Spalt bei der Sonnenblende. Da rollen bei DLSS fröhlich die Kanten durch und bei 4K mit TAA ist davon weniger zu sehen. Gleiches gilt auch für die Kopfstütze. Das ist in meinen Augen einfach nur ein Versagen auf ganzer Linie.
 
  • Gefällt mir
Reaktionen: Tor Tesla
Bevor die Konsolen Echtzeit Raytracing nutzen bleibt das ganze samt DLSS ja leider eh nur eine “Spielerei“.
Wirklichen Fortschritt der Grafik für die Masse gibt’s ja immer nur mit der Konsolen next Gen, verstehe daher das Gehate nicht, NV versucht’s wenigstens.

In 10 Jahren nutzt es dann auch jedes Hinterhofspiel.
 
  • Gefällt mir
Reaktionen: Palatas
Im Test fehlt der optischer Vergleich von DLSS zu TAA mit einer Auflösung, die vergleichbar performant ist.
Ist doch witzlos, das mit dem viel langsameren 4K und dem viel schnelleren 1440p + TAA zu vergleichen.

Wirklich interessant wäre doch gewesen, ob es bei der aufgerufenen Leistung besser oder schlechter aussieht als die alternative Methode.
 
  • Gefällt mir
Reaktionen: Lübke82
Wadenbeisser schrieb:
Achte bei dem besagten Zeitpunkt mal auf den Spalt bei der Sonnenblende. Da rollen bei DLSS fröhlich die Kanten durch und bei 4K mit TAA ist davon weniger zu sehen. Gleiches gilt auch für die Kopfstütze. Das ist in meinen Augen einfach nur ein Versagen auf ganzer Linie.
Dann achte beim Linksabbiegen des Wagens ab ca. 1:28 mal auf den Zaun auf der linken Seite, hinter dem die 3 Silos aufgebaut sind und dann auf die Flimmerfrequenz des Schildes hinter dem dem Lastwagen, der im linken Bild parkt.
Das ist sieg von DLSS auf ganzer Linie. Da schluckt TAA ordentlich Details und blinkert zudem erheblich "hochfrequenter" vor sich hin.

Was wiederum zeigt, dass DLSS deutlich besser sein kann. Es ist wohl nur eine Frage des Trainings bzw. der Art und Weise, wie es integriert wird. Man könnte es ja auch Szenenabhängig einsetzen bzw. unterschiedliche Profile für Szenen mit Zäunen, Außenarealen, Innenräumen etc.

Man kann Bereiche mittels KI analysieren und Detailshader über die Oberflächen legen. Berg, Holz etc.

Und bevor Du jetzt wieder Schnappatmung bekommst, weil hier jemand auch nur ein gutes Haar an den neuen Techniken und NVIDIA lässt.
Auch ich halte die Integration von DLSS verbesserungswürdig. Wer aber das Potenzial der Technik nicht erkennt oder leugnet, dem ist nicht mehr zu helfen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: USB-Kabeljau, Palatas, Lübke82 und eine weitere Person
Was mich am meisten enttäuscht ist der geringe FPS zuwachs mit DLSS....~10 FPS mehr ist nicht wirklich viel und habe eher mit mind. +20 FPS gerechnet, so das man halt von 40 FPS auf angenehm spielbare 60 FPS bei 4k kommt.

Von 40 auf 50 FPS bringt mir persönlich nix, da ich 60 FPS benötige, alles darunter sieht am 55" 4k-TV nicht flüssig aus.
 
@Luzifer71
Es ist eine Beta. Da darf man auch nicht vergessen...
Bei RT haben sie ja im zweiten Schritt in Battlefield schonmal geliefert.
Und Du kannst den ganzen kram ja auf verschiedene Arten und Weisen trainieren und bei bedarf auch wie oben beschrieben Szenenabhängig, Contentabhänig oder was weiss ich auch immer in Realtime modifizieren.

Dafür sind ja diese neuen Möglichkeiten da.
 
  • Gefällt mir
Reaktionen: Lübke82
Da bringt NV ne Technik, die die Frames drastisch und optional erhöht, und dann ist es doch nicht recht.
1st World Problems
 
  • Gefällt mir
Reaktionen: Jesterfox und Lübke82
Luzifer71 schrieb:
Was mich am meisten enttäuscht ist der geringe FPS zuwachs mit DLSS....~10 FPS mehr ist nicht wirklich viel und habe eher mit mind. +20 FPS gerechnet, so das man halt von 40 FPS auf angenehm spielbare 60 FPS bei 4k kommt.

Von 40 auf 50 FPS bringt mir persönlich nix, da ich 60 FPS benötige, alles darunter sieht am 55" 4k-TV nicht flüssig aus.

Spiele zwar nicht am TV, aber an einem TV-ähnlichen Monitor mit 60fps ohne G-Sync. Ich geb dir Recht , dass man schon nicht komplett alles flüssig hat mit DLSS, grade in Kämpfen. Aber es ist trotzdem deutlich besser mit den 50fps als vorher mit dem 35-40 fps rumzudümpeln. Man kann ja immernoch ein paar Details runterregeln. ;-)
 
  • Gefällt mir
Reaktionen: .Sentinel.
ZeroZerp schrieb:
Dann achte beim Linksabbiegen des Wagens ab ca. 1:28 mal auf den Zaun auf der linken Seite, hinter dem die 3 Silos aufgebaut sind und dann auf die Flimmerfrequenz des Schildes hinter dem dem Lastwagen, der im linken Bild parkt.
Das ist sieg von DLSS auf ganzer Linie. Da schluckt TAA ordentlich Details und blinkert zudem erheblich "hochfrequenter" vor sich hin.

Was wiederum zeigt, dass DLSS deutlich besser sein kann. Es ist wohl nur eine Frage des Trainings bzw. der Art und Weise, wie es integriert wird. Man könnte es ja auch Szenenabhängig einsetzen bzw. unterschiedliche Profile für Szenen mit Zäunen, Außenarealen, Innenräumen etc.

Man kann Bereiche mittels KI analysieren und Detailshader über die Oberflächen legen. Berg, Holz etc.

Und bevor Du jetzt wieder Schnappatmung bekommst, weil hier jemand auch nur ein gutes Haar an den neuen Tehniken und NVIDIA lässt.
Auch ich halte die Integration von DLSS verbesserungswürdig. Wer aber das Potenzial der Technik nicht erkennt oder leugnet, dem ist nicht mehr zu helfen.
Meinst du den Zaun wo der Stackeldraht auf Entfernung so aussah als hätten sie durchhängende Gartenschläuche lang gespannt und der immer mehr verschwindet je näher sie ran kommen, also genau das Gegenteil von dem wie es aussehen sollte?
Sorry aber bei den ständig durchlaufenden Kanten im deutlich sichtbaren hell - dunkel Kontrast an allen möglichen Ecken vom Innenraum des Fahrzeugs muss es gnadenlos untergegangen sein.

PS: schaut euch das Video bloss nicht auf einem großen Bildschirm an, das ist gnadenlos tot komprimiert. :freak:
Ergänzung ()

g0dy schrieb:
Da bringt NV ne Technik, die die Frames drastisch und optional erhöht, und dann ist es doch nicht recht.
1st World Problems
Definitiv denn die Anderen könnten sich die dafür erforderliche Hardware wohl kaum leisten. Das Geld für ein so eingerschränkt einsetzbares Produkt, welches anscheinend auch noch das schlechtere Ergebnis zu liefern scheint, ist praktisch der Inbegriff von Luxus.
 
Zuletzt bearbeitet von einem Moderator:
ZeroZerp schrieb:
Gilt im übrigen auch oft für die Pro- Fraktion, die sich bei Neuerscheinen eines Produkts umgehend mit einem "Kauf ich", "ist angekommen","hier mein Abzug der Bestellung" , "kommt von Firma XY- Kann also nur TOP sein" etc. im Internet produzieren muss.

Etwa wie die beliebte "schaut mal was ich alles habe"-Signatur?


Wenn ich auf Nvidias Marketingfolie schaue sollte DLSS eher 45-50% Mehrleistung in FF15 (bei einer 2080) bringen. Ohne von einer noch niedrigeren Auflösung hochzuskalieren sehe ich da aber nur Cherrypicking vom Feinsten.

3 Monate nach Release haben je 1 von 21 respektive 26 RTX-/DLSS-Games die Features erhalten. Ernüchternd für die Early Adopter...
 
Zurück
Oben