Test Nvidia Turing: DLSS 2.0 zeigt endlich, was möglich ist

DarkerThanBlack schrieb:
Ein Feature welches Grafikfehler produziert hat keine als zu lange Lebensdauer.
Auch sieht man wie gewisse Grafikdetails einfach verschwinden.
Man beachte die Schleuse welche ihre Symbole verliert.
Die verschwundenen Symbole haben safe nichts mit DLSS zu tun.
Das hätte genau so gut ohne DLSS auftreten können.

Und auch deinem ersten Satz kann ich nicht zustimmen.
Grafikfehler haben wir in Spielen immer. Wenn du eine niedrigere Auflösung ohne DLSS verwendest, hast du z.B. (mehr) hässliches Kantenflimmern, Moiré, etc.

DLSS 2.0 ist nicht perfekt.
Aber es ist schon so gut, dass man es in nahezu jedem Spiel nutzen würde, wenn es denn ginge.
 
  • Gefällt mir
Reaktionen: Bhaal3010, Iconoclast, fullnewb und 8 andere
charmin schrieb:
Muss DLSS denn nativ vom Spiel unterstützt werden wie Raytracing, oder ist das etwas was Treiberseitig passiert und potentiell mit jedem Spiel funktioniert?
DLSS muss nicht nur integriert sein im Spiel. Vorher muss Nvidia auf Server Farmen das neuronale Netz auch für das Spiel trainieren. Da jedes Spiel anderster Programmiert ist muss wahrscheinlich dann auch für jedes Spiel ein eigenes Neuronale Netzt erst erzeugt werden.
 
DarkerThanBlack schrieb:
Das ist sicherlich kein Feature, welches man uneingeschränkt empfehlen kann.
Die Frage ist, ob es am Feature liegt, oder an einer fehlerhaften Implementation.
Zweiteres ist hier wohl der Fall, da DLSS nicht in die Geometrie/LOD oder den Texture- Pass eingreift.

Deliver us the moon war das erste Spiel mit DLSS2.0. Gut möglich, dass es bei der ersten Variante noch nicht perfekt war, denn gerade die Unschärfe dürfte so nicht auftreten.

Gut Ding will Weile haben...

LG
Zero

Ergänzung ()

ampre schrieb:
DLSS muss nicht nur integriert sein im Spiel. Vorher muss Nvidia auf Server Farmen das neuronale Netz auch für das Spiel trainieren. Da jedes Spiel anderster Programmiert ist muss wahrscheinlich dann auch für jedes Spiel ein eigenes Neuronale Netzt erst erzeugt werden.
Lies doch einfach den Text von CB.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Xidus, dister1, Wintermute und 8 andere
Schön, dass es mal verlässliche Zahlen zu den Vorteilen gibt. Solange gewisse Nachteile bestehen, ist es natürlich nicht das Allheilmittel, aber ein Fingerzeig, was künftig möglich sein könnte.

Warum sollte man seine GPU mit nativem 4K "quälen", wenn es mit DLSS aka. 1440p KI-Upscaling genau so gut aussehen könnte/wird.

(Selbsternannte) Puristen und Hardware-Fetischisten werden sich wahrscheinlich nie damit anfreunden können, aber dem Großteil der User wird es schlichtweg egal sein. Die Strikte Kopplung zwischen Bildschirm Auflösung und Render Auflösung wird spätestens mit PS5 und Series X eh weiter an Bedeutung verlieren und auch am PC irgendwann ganz fallen. (Ist sie streng genommen eh oftmals schon.)

Würde mich freuen, wenn auch die technische Seite noch mal genauer beleuchtet würde. Vlt. in einem separaten Artikel oder auch durch Verlinkungen der Foristen.
 
  • Gefällt mir
Reaktionen: pipa, pietcux, Onkel Föhn und 2 andere
Ich glaube dass es bei FullHD überhaupt keinen Sinn macht, außer man möchte mit einer mit einer iGPU zocken ...oh wait, geht ja gar nicht - aber da würde es sinn machen in zB Ultrabooks ohne eigene GPU.
Ansonsten finde ich es bei UHD oder gar 5k/8k lohnt sich das sicherlich!

Grundsätzlich fände ich aber eine Lösung die Spielunabhängig wäre besser. Aber das wird dann schwierig mit der KI-Fähigkeit/Berechnung. Aber ich denke das wäre dann "next-Level shit".

Aber das hier geht gar nicht!
Bei Wolfenstein
1588681714328.png
 
Wie gesagt. Ich brauche kein Feature, welches die Texturen verwischt und Grafikfehler produziert und das erst eingereift werden muss...
Da spiele ich einfach auf nativ und gut.

Klar, ab 8K oder so, kann es einen Vorteil bringen. Aber ob man bei 8K wirklich noch einen Unterschied zwischen 4K erkennt?
 
Holindarn schrieb:
komisch ich finde die DSLL Bilderchen alle verwaschener als nativ...

Geht mir genauso. Finde die Bilder mit DLSS alle unschärfer als Nativ.

Und wurde mal Nativ + Sharpen per nVidia-Treiber gegenüber DLSS gestellt/verglichen?
 
  • Gefällt mir
Reaktionen: Holindarn
@ Wolfgang
Passend dazu nutzt DLSS 2.0 nun erstmals die Turing- beziehungsweise GeForce-RTX-exklusiven Tensor-Cores für die Matrizenberechnungen.
Gibt es dafür eine Quelle? Wenn das stimmt, dann haben die Tensor-Cores ja zwei Jahre Däumchen gedreht. Denoising mit denen gibt es ja auch nicht!
nagus schrieb:
ich finde das auch sehr komisch dass die spiele "nativ" richtig matschig aussehen und mit DLSS plötzlich so als wenn man die scharfzeichnung aktiviert hätte (+ upscaling).
Deswegen im Text ja auch der Vergleich, wie stark Kanten flimmern. Das sollte hier der Maßstab sein. Wenn es schärfer wird, aber die Kanten gleich wenig flimmern, ist es doch eine Verbesserung. Ansonsten muss man es mit einem geschärften Bild, oder ohne TAA, vergleichen.
 
  • Gefällt mir
Reaktionen: fullnewb und Obvision
Habe (als derzeitiger Navi-Nutzer) großes Interesse an diesem Feature gehabt und verfolge die Entwicklung gespannt. Ich kriege beim Spielen selten viele Details mit, für mich tuns auch mittlere Einstellungen dicke, weil ich schon da die Unterschiede zu "Hoch" oder "Ultra" oft mit der Lupe suchen muss ("Ahh, jetzt habe ichs! Die Textur dorthinten auf dem Berg ist nicht mehr ganz so scharf wie vorher!"). Das mag bei Menschen mit besserem Augenlicht einen größeren Unterschied machen - ich jedenfalls bin neugierig, wohin die Reise mit einem DLSS 3.0 gehen wird :)
 
  • Gefällt mir
Reaktionen: pietcux, Alex1966, Esenel und eine weitere Person
Hier kann man gut an den Schläuchen starke Unschärfe bei aktiven DLSS erkennen

Nativ Full HD:
44-1080.fbb03109.jpg


DLSS Quality:
43-1080.df64b9a0.jpg


Verstehe nicht wie man da von einem Schärferen Bild mit DLSS als Nativ sprechen kann...
 
  • Gefällt mir
Reaktionen: paulemannsen, PS828, Iapetus und 11 andere
@ZeroZerp @Wolfgang

Da ging aber einiges schief, glaube ich, als die Pics gemacht wurden. DLSS 2.0 bringt nicht so viel Unschärfe rein ins Bild. Ich hab's ja selbst schon getestet. Stimmt was mit der Karte oder dem Treiber nicht?

So sind's ja absolute Negativbeispiele. Um Jottes Willen... ^^
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: KlaasKersting, pietcux, Iscaran und 2 andere
Da DLSS 2.0 die Bildqualität verbessert und gleichzeitig die FPS steigert, empfinde ich es als fair, das Feature zukünftig bei allen Grafikkarten Tests zu aktivieren.

Denn wenn ich z.B. von einer GTX1080 auf eine GRX2080 upgrade, will ich ja nicht wissen, wieviele FPS ich bei „technisch gleicher“ Berechnung bekomme, sondern ich möchte wissen, wie viele FPS ich bei „optisch gleicher“ Grafik bekomme.

Meine Bitte also: Wenn DLSS 2.0 Quality verfügbar ist, immer damit benchmarken.
 
  • Gefällt mir
Reaktionen: electronish, Xidus, iSight2TheBlind und 2 andere
Ist DLLS auch für VR Spiele anwendbar? Bzw. ist irgendetwas in Planung?
 
  • Gefällt mir
Reaktionen: Xidus und Londo Mollari
v_ossi schrieb:
Warum sollte man seine GPU mit nativem 4K "quälen", wenn es mit DLSS aka. 1440p KI-Upscaling genau so gut aussehen könnte/wird.

Sehe ich ähnlich, aber in eine etwas andere Richtung. Jetzt stell dir mal vor wie sehr der Einstieg in VR damit an Erstkosten spart, wenn auch kleinere Karten viel besser darstellen können. Denn hier hast du ja im prinzip 2 Bildschirme an die du ausgibst die 2 unterschiedliche (leicht versetzte) Bilder anzeigen.

Wenn das richtig angegangen wird und eine Implementierung ins Spiel durch den Entwickler nicht mehr verpflichtend ist, sehe ich auch im VR Bereich sehr viel Potential
 
  • Gefällt mir
Reaktionen: pietcux
DarkerThanBlack schrieb:
Da spiele ich einfach auf nativ und gut.
Tu das. Auch DLSS2.0 ist noch verbesserungswürdig, wobei man hier die Darstellungsbugs, die durch eine eventuell nicht saubere oder fehlerhafte Integration entstehen, nicht unbedingt dem Verfahren an sich zuschreiben sollte.

Eine im Gesamteindruck qualtitativ der nativen Bildqualität ebenbürtige Darstellung bei Verdoppelung der FPS ist für viele andere ein no- brainer.

LG
Zero
 
  • Gefällt mir
Reaktionen: KlaraElfer, pietcux, adAstra und 3 andere
Immortal Ghost schrieb:
Und wurde mal Nativ + Sharpen per nVidia-Treiber gegenüber DLSS gestellt/verglichen?
Nicht direkt gegen DLSS 2.0, aber erst vor kurzem ausführlich gegen DLSS 1.x, dessen Artikel wegen DLSS 2.0 dann leider obsolet wurde. Ich schätze, dass sich DLSS 2.0 und RIS/GIS bezüglich der Bildschärfe nicht viel geben. Es fehlt natürlich der Performanceschub und wenn DLSS Grafikfehler ausbügelt oder reinbringt fehlt das natürlich auch.
Colindo schrieb:
@ Wolfgang
Gibt es dafür eine Quelle? Wenn das stimmt, dann haben die Tensor-Cores ja zwei Jahre Däumchen gedreht. Denoising mit denen gibt es ja auch nicht!
Nvidia hat dies so nicht direkt gesagt, aber sie drücken es in den Webematerialien zumindest so aus, dass man das vermuten kann.
 
  • Gefällt mir
Reaktionen: YetiSB und Colindo
Wer sucht der findet. Bei Bewegtbildern wird man noch weniger sehen. Interessant wäre auch, Raytracing mit 50% berechnen aber Bild selbst mit 100% rendern. Sollte doch auch machbar sein (selected DLSS)
 
Zurück
Oben