Test Nvidia Turing: DLSS 2.0 zeigt endlich, was möglich ist

Coeckchen schrieb:
Mangel an Support in nicht Tripple A titeln

Also darin sehe ich auch ein Problem. Wenn das explizit von den Spieleentwicklern implementiert werden muss als Option, dann frage ich mich auch wie viele sich die Mühe machen werden. Es wäre besser, wenn man DLSS auch in den Nvidia-Einstellungen aktivieren und für jedes Spiel erzwingen könnte.
Ich könnte schwören Nvidia hat mal sowas Ähnliches vorgestellt, aber das war glaub nur darauf bezogen, dass man die Auflösung von jedem Spiel in den Nvidiaeinstellungen ändern konnte.
 
Zuletzt bearbeitet von einem Moderator:
Kann man DLSS eigentlich auch mit DSR kombinieren?

Beispiel: Ich habe einen Monitor mit 1920x1080. Ich stelle im Spiel die Auflösung 3840x2160 ein und aktiviere DLSS "Quality".

-> Das Spiel wird in 2560x1440 gerendert mit einer Qualität äquivalent zu 3840x2160 und ausgegeben auf 1920x1080 für meinen Monitor?
 
[wege]mini schrieb:
Man muss halt aufpassen, dass nicht mehr oder weniger das selbe Bild 2mal ausgegeben wird, welches mittels KI ausreichend verändert wurde, um nicht identisch zum ersten Bild zu sein aber trotzdem nicht ein neu berechnetes ist.

Klingt kompliziert, ist es auch

Das würde ja eher passieren, wenn in der gleichen Auflösung gerendert werden würde und der Algorithmus Zwischenbilder berechnen würde.
Bei DLSS werden ja aber echte frames in niedriger Auflösung berechnet und dann vom ki Algorithmus hoch gerechnet (upscaling)
 
  • Gefällt mir
Reaktionen: [wege]mini
@tidius1979

Ja das funktioniert. Du hast dann eine Art DLSS X2, was ja auch Mal vor Urzeiten von Nvidia versprochen wurde.

LG
Zero
 
  • Gefällt mir
Reaktionen: KlaraElfer, Colindo, Esenel und eine weitere Person
DLSS3 wird ein Gamechanger wird alle Spiele von Haus aus Unterstützen die TAA haben.

Neue Leaks schon gesehen? 3070=2080super usw.
 
Bin gespannt ob ein update für Tomb Raider kommt. Würde mich darüber sehr freuen.
 
tidus1979 schrieb:
Kann man DLSS eigentlich auch mit DSR kombinieren?
Ja, das ist kein Problem.
iqhigherthanshi schrieb:
DLSS3 wird ein Gamechanger wird alle Spiele von Haus aus Unterstützen die TAA haben.

Neue Leaks schon gesehen? 3070=2080super usw.
Ich kenne die die Gerüchte die du meinst. Ich würde die nicht allzu ernst nehmen. Ich weiß noch absolut nichts über Nvidias Next-Gen-Gaming-GPU, aber bei den Spekulationen ist so einiges unlogisch. Das ist imo mehr Wunschdenken als irgendwas anderes.
 
  • Gefällt mir
Reaktionen: cm87, iqhigherthanshi und tidus1979
thommy86 schrieb:
Aber es steht doch da, also verstehe ich das. Auflösung WQHD 2560x1440 und bei Quality 1706x960
Nein.
Mit DLLS renderst du mit 1706x960, mit fast der gleichen FPS wie wen due mit rendern würdest 1706x960, aber du hast auch fast Bildqualität wie wen du mit WQHD renderst und natürlich bleibt die die Auflösung von WQHD. Nur hast du viel mehr FPS als wen du nativ mit der auflösung Renderst.

DLSS ist quasi ein upskaling nur mit wenig wahrnehmbaren Qualitätsverlust.

@Wolfgang
Welcher AA wird eigentlich bei Native genutzt? Oder wird da gar kein AA genutzt? Weil das zieht ja auch Leistung. Und einen zusätzlichen AA spare ich mir ja durch das DLSS oder?

Und geht DLSS auch andersherum? Sprich man rendert in 4k und hat dennoch mehr Leistung als wen man SSAA machen würde? Oder kann DLSS zum upscallen genutz werden?
 
Zuletzt bearbeitet:
@ZeroZerp Das ist ja witzig :D

Das ergibt interessante Möglichkeiten zum Rumspielen. Wenn ich z.B. einen 1080p Monitor habe und eine GPU, die bei nativ 720p genügend FPS schafft, kann ich mehrere Dinge probieren, um die beste Bildqualität zu erreichen:

1) 1080p mit DLSS auf Quality
2) 1440p mit DSR und DLSS auf Performance
3) 720p und olles "GPU Scaling" aus dem Treiber
 
  • Gefällt mir
Reaktionen: pietcux, Esenel und .Sentinel.
thommy86 schrieb:
Aber es steht doch da, also verstehe ich das. Auflösung WQHD 2560x1440 und bei Quality 1706x960

Solltest aber auch weiterlesen. BZW, siehst du in den Screenshots absoluten Pixelbrei? JA, das Bild wird in geringerer Auflösung gerendert, dann wieder auf deine WQHD Auflösung hochskaliert und aber eben mit Hilfe des neuralen Netzwerks dann so "bearbeitet" dass so gut wie kein Unterschied zum nativen Bild erkennbar ist.

Und ich sag mal ein klein wenig Textur für die Doppelten Frames zu opfern finde ich keinen schlechten Kompromiss.
 
Lasyx schrieb:
Hat AMD etwas vergleichbares oder ein anderes „Killer Feature“ in den Startlöchern?
Wenn DLSS mal wirklich funktioniert dann kauft keiner mehr AMD-Karten..
Naja, RIS (ein "simpler" shader!) hat DLSS ja schon lächerlich gemacht. DLSS 2.0 gibt es jetzt nur noch mit Raytracing, die bei nvidia sind immerhin mal so clever und sorgen dafür das ein vergleich so momentan kaum fair möglich ist.
 
  • Gefällt mir
Reaktionen: Lasyx
Passend dazu nutzt DLSS 2.0 nun erstmals die Turing- beziehungsweise GeForce-RTX-exklusiven Tensor-Cores für die Matrizenberechnungen.

Das stimmt so nicht. Tensor-Cores gibt es bereits seit Volta, sie sind nicht Turing Exclusive.
 
  • Gefällt mir
Reaktionen: adAstra
Wolfgang schrieb:
Nein, die sind richtig so.
Wolfenstein: Youngbloods eigenes AA schafft das Kunststück, stellenweise zugleich unscharf wie auch ineffizient zu sein. Daher sieht das DLSS-Bild teilweise schärfer und dabei auch noch besser geglättet aus.
Danke für die Antwort. Das ist ja sehr bitter für Wolfenstein: Youngbloods AA. Vll lohnt sich für einige Developer bzw. Engines der komplette Umstieg auf DLSS. Würde mir dann eigentlich bei Nativ keine AA Effekte zum Vergleich wünschen. Die Idee ist doch, dass man in Auflösung X ohne AA zu wenig FPS hat und als Lösung auf eine niedrigere Auflösung mit DLSS wechselt. Meine Herangehensweise wäre, wenn man in Auflösung X mit AA Einstellungen etwas zu wenig FPS hat kann man immer noch AA zurück nehmen bevor man upsampling mit DLSS versucht. Zumindestens wäre das meine Überlegungen ohne Raytracing als besondere "FPS-Bremse".

tidus1979 schrieb:
Haben wir den gleichen Artikel gelesen?
Ja nur haben wir ihn nicht gleich verstanden. Das Fazit das du gelesen hast gilt nämlich mit der starken Einschränkung:
Raytracing auf „Hoch“
Aber wie viele Spiele unterstützen das? Unterm Strich ist es so wie ich sage, auf RTX2060(Super) kein sinnvolles Feature welches hohe FPS durch niedrige Auflösung ermöglicht und dann auf FullHD hoch skaliert. Stattdessen ist DLSS in FullHD ein Feature das Raytracing ermöglichen kann. Bedeutet z.B. ist einem Raytracing mit einer RTX2060Super in FullHD egal, ist einem auch DLSS egal.
 
Zuletzt bearbeitet:
lynx007 schrieb:
@Wolfgang
Welcher AA wird eigentlich bei Native genutzt? Oder wird da gar kein AA genutzt? Weil das zieht ja auch Leistung. Und einen zusätzlichen AA spare ich mir ja durch das DLSS oder?

Und geht DLSS auch andersherum? Sprich man rendert in 4k und hat dennoch mehr Leistung als wen man SSAA machen würde? Oder kann DLSS zum upscallen genutz werden?
DLSS 2.0 benötigt ein temporales Anti-Aliasing, da das neuronale Netzwerk für jeden Frame auch Informationen aus vorherigen Frames benötigt. Entsprechend unterstützen alle Spiele mit DLSS 2.0 immer ein temporales AA, da gibt es ja so einige Möglichkeiten. Sprich, auch bei DLSS ist die Kantenglättung aktiv.

striker159 schrieb:
Das stimmt so nicht. Tensor-Cores gibt es bereits seit Volta, sie sind nicht Turing Exclusive.
Stimmt, das (für Consumer) exotische Teil habe ich vergessen. Das ist aber eine gute Frage: Kann Volta eigentlich DLSS 2.0? Die Tensor-Cores sind ja nicht gleich zu Turing.
 
  • Gefällt mir
Reaktionen: miagi
@miagi Nun, wie wir jetzt wissen, lässt sich DLSS ja auch mit DSR kombinieren, für ein besseres Bild ;)

Wenn deine Grafikkarte also nativ 1080p schafft, stellst du im Spiel 3840x2160 und DLSS Performance ein. Das Spiel wird in 1080p gerendert, aber ausgegeben mit höherer Bildqualität als nativ.

DLSS hat damit in jeder Situation Vorteile, egal wo sich die Performance der GPU befindet. Egal ob sie für die native Auflösung zu "stark" oder zu "schwach" oder genau richtig ist.

Interessant wird der Vergleich von DSR vs. DSR + DLSS sein, wenn "zu viel" Leistung für nativ da ist. Wenn mein Monitor 1080p ist und meine Grafikkarte 1440p schafft, stelle ich dann lieber DSR auf 1440p ein, oder DLSS Quality auf 2160p?
 
DLSS ist echt super und wär cool wenn das mehr Spiele hätten. Für Konsolen ist das sicher am interessantesten, aber da ist AMD Hardware verbaut.

PS.
Der Artikel hätte auch Minecraft zeigen sollen, ohne DLSS ist da bei der RTX Variante kaum an vernünftige fps zu kommen
 
Wenn man sich den Test im Detail durchliest hätte man es auch bei "In der Theorie top, in der Praxis solala" belassen können.

Performance schön und gut, aber wenn es immer noch zum Teil flimmern oder Grafikfehler verursacht bzw. diese verstärkt überzeugt mich die Technik noch nicht wirklich.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack und Mcr-King
nme1337 schrieb:
Bei DLSS werden ja aber echte frames in niedriger Auflösung berechnet und dann vom ki Algorithmus hoch gerechnet (upscaling)

So soll es in der Theorie sein.

Wenn einfach so, 100% Leistung dazu kommt, muss man aber auch mal schauen, ob denn wirklich das versprochene, das verkaufte ist.

Im Schummeln war und ist so ziemlich jeder Hardware Hersteller großartig und Wunder Treiber müssen grundsätzlich hinterfragt werden.

mfg
 
Zurück
Oben