News Nvidia GeForce RTX: DLSS 3.5 soll Raytracing hübscher machen

Also Rockstar nutzt für RDR2 immer noch die fehlerhafte Version 2.2.10.0 mit Vegetationsgeflimmer
und austauschen geht nicht weil das Spiel sich dann immer wieder auf die alte Version "aktualisiert".

Mit Tool gehts:

rdr2.jpg
 
Zuletzt bearbeitet:
Habe die Datei einfach reinkopiert, rdr2 startete ohne Probleme.
Geflimmer ist weg, ob nun wegen 3.5 oder überhaupt mal eine neue DLSS.dll, keine Ahnung. Vorher nie drum gekümmert.
 
Kann man die DLSS 3.5 Datei bei jeden Spiel benutzen was DLSS Unterstützt? Spiele zurzeit ratchet and Clank, würde es dann da versuchen.
 
Das bringt aber nur Updates für die existierenden Features. Ray Reconstruction bräuchte ja neue und andere Inputdaten und Support vom Spiel genau dafür...


Abgesehen davon ist die Wahrscheinlichkeit hoch, dass man neuere DLLs rein tauschen kann, solange kein DRM oder Integritätszeugs darauf läuft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Experte18 und Asghan
Ray519 schrieb:
Das bringt aber nur Updates für die existierenden Features.
Denoising sollte doch grundsätzlich greifen?
 
Warum? Wenn Denoising bisher als getrennter Schritt ausgeführt wurde. Und vom Spiel selbst oder einer anderen Library und nicht den DLSS Libraries, können die diese Funktionalität nicht an sich reißen.

Und mit extrem großer Wahrscheinlichkeit hat sich die API geändert für DLSS SR + Ray Reconstruction (gegenüber nur SR). Abgesehen davon, dass das Spiel ja dann Schalter bräuchte ob es das eingebaute Denoising macht oder weglässt, selbst wenn die API schon seit Ewigkeiten so gebaut ist, das DLSS Zugriff auf die Infos separat vom bisherigen Denoiser-Ergebnis hätte.
 
Mh, magst du recht haben. Aber um das richtig Beurteilen zu können habe ich zu wenig Ahnung :)
Ich weiß nicht inwieweit man mit DLSSTweaker da was machen kann, evtl muss der auch um eine "Denoise Funktion" ergänzt werden?
Denn hiermit kann man auch nicht vom Spiel und/oder Nvidia vorgesehene Funktionen, wie DLAA, in jedem Spiel implementieren.
 
lynx007 schrieb:
Verstehe ich nicht... Kann mir jemand erklären, warum das native Bild, mit RT on der art von DLSS 3.5 abweicht? Sollte es nicht dem realen Bild am nächsten sein? Das bedeutet doch umgekehrt das DLSS 3.5 verfälscht ist...
Das ist in dem Fall relativ einfach - das geht jetzt auch an @Taxxor - und ergänzt das, was @.Sentinel. geschrieben hat.

Das Entrauschen basiert immer darauf, dass man ein Pixel mit den Nebenpixeln vergleicht und entsprechend entscheidend ist hier auch die Anzahl der "Artefakte", die durch das Rauschen im Bild sich wieder finden und wie viele Fehlpixel es am Ende auch gibt.

Das - was du da anmerkst @Taxxor - kommt dadurch zustande, dass gerade in den eigentlich "dunklen" Bereichen der Denoiser nicht richtig zwischen "validen" dunklen Pixeln und den eigentlich falschen dunklen Pixeln unterscheiden kann. Es baut sich in so einem Fall beim Denoiser eine "Kaskade" an Fehlern auf, die dann dazu führen, dass plötzlich Bereiche "heller" sind, die eigentlich nicht heller sein sollten.

Man erkennt ja an deinem Beispielbild, dass ein "Lichtkegel" vorhanden ist, der aber sich etwas über das Auto zieht - und erst danach wird das Bild dunkler. Das liegt eben daran, dass der Algorithmus an dieser Stelle nicht zwischen wirklichen dunklen Fehlpixeln und dunklen realen Pixeln unterscheiden kann und erst mal die Werte der hellen Pixel als "korrekt" annimmt und im weiteren Verlauf aber immer stärker abdunkelt.

@lynx007 die Probleme hier kommen daher, wie Ray Tracing / Path Tracing heute berechnet wird und wie lange man auch die Strahlen verfolgt. Es kommt daher bei der Berechnung der einelnen Effekten immer zu "Fehlfarben". Hier mal aus Quake 2 RTX:
1693398769083.png

Bitte vergrößern, dann sieht das Problem, in der kleinen Version kommt das nicht so "durch". Der Denoiser geht über dieses Bild und vergleicht die Pixel. Um das in der Regel einfacher zu machen, kann man bewusst "Fehlfarben" einbauen, das kann aber dazu führen, dass man andere Artefakte beim RT hat, die unschön sind.

Und genau hier setzt jetzt DLSS 3.5 mit dem neuen Denoiser an: Es ist nicht mehr nur ein stumpfer Vergleich, sondern die KI wird auf bestimmte Situationen mit Referenzbildern, die mit mehr Aufwand erstellt wurden, auf solche Probleme trainiert und kann diese dann effektiver umgehen.
 
  • Gefällt mir
Reaktionen: SweetOhm und .Sentinel.
Taxxor schrieb:
...

Hab jetzt schon öfter glesen, das DLSS 3.5 Balanced nun so gut oder teilweise besser aussehen soll, als DLSS 3.1 Quality.

Ich hab ja nach dem Wechsel auf einen Monitor mit höherer ppi mal die Rechnung gemacht, wie viel ppi ich denn jeweils mit den DLSS Qualitätsstufen auf meinem vorherigen und nun auf meinem neuen Monitor habe.

...
Da bin ich ja gespannt, ob das stimmt und wie viel besser das dann wirklich ist. Denn das ist ja leider noch ein Punkt, dass man mindestens 1080p rendern muss, sei es DLSS oder FSR, es nicht wirklich empfehlen ist weiter runter zu gehen, da, FSR kann ich es bestätigen, zu viele Details verloren gehen, der den grafischen Mehrwert oft wieder zunichtemacht. Da macht es halt noch immer mehr Sinn, auf 1080p zu rendern und zuschauen mit welchem AA man die meisten FPS hat und zugleich das Texturflimmen in den griff bekommt.

Ich hoffe ja auch mal auf einen Stand der Technik, der es möglichst macht, bezahlbar auf 1440p zu genießen. mit spielbaren FPS, über 100 min, mit Raytracing, ohne Texturflimmern, wo hintenrum hochskaliert wird und deshalb gleich auch AA mit abgefertigt wurde.

Auf der andern Seite kosten die Monitore dafür noch gern 1k. Solange der richtige Monitor dafür noch so weit über meinem Budget kostet, kann man natürlich auch noch auf die GPU warten. Aber so langsam bewegt sich da schon etwas. Der erste 1440p Gaming Monitor unter 600€ soll ja schon drausen sein. Für mich noch mit zu vielen Kompromissen, aber so langsam geht es zumindest von Monitorseite zur 1440p Seite. :-)



@DevPandi

dlss 3.5 22222.jpg

Also ist das eine Grafikbug von DLSS, wo über das eigentliche "original" drüber gezeichnet wird?

Gefühlt weicht das Bild bei 3.5 extrem vom "Orignal" Nativ gerenderten ab. Weil das ja nicht rein AI ist, sondern mit AI ein "algorymus" Trainiert wird, ist meine erste vermutung das halt in diesem Fall, die falschen sachen rausgefiltert und dadur die anderen über satuiert werden. Oder ist es genau anders herum, das im Nativ Bild aufgrund fehlender SR inforamtion, vieleicht aufgrund fehlender "Pathtracing" Information der AI, "Sachen" fehlen und hinein "interpretiert" werden?

Man kann zb auch sehen, das die Reflexon der Scheibe fehlt. Allgemein scheint beim nativen Bild extrem viel Licht zu fehlen, als wäre die Leuchtkraft der nativen originale Beleuchtung etwa halb so hell, wie bei dem mit DLSS 3.5 veränderten Frame. Interesannt fände ich halt die gleiche Szene unter Pathtracing. bin keine Raytracing spezielist. Aber man sieht halt die extreme Abweichung bezüglich Sättigung der Farben zwischen "nativ" und dem SR 3.5 ab. Sprich entweder sind es bugs, oder schon dem nativen gernderten Bild fehlen Informationen, die mittels DLSS reininterpretiert werden.

Sprich es werden Sachen eingefügt, die bei "nativ" gar nicht verfügbar sind. Dabei muss man erwähnen, das ja schon "Raytracing" eigentlich unvollständig ist, und das Pathtracing der komplexere, vollkomommenere algorymus wäre. Nur leider fehlt in diesem Beispiel dieses Vergleichbarkeit.

Es wirkt halt wie so ein Fotofilter, die die Monitore oder auch Handys verkaufen sollen, die aber nichts mit der Originalfotografie mehr zu tun haben könnten. Aus Entwicklerseite würde ich halt so etwas als schrecklich empfinden. Es wäre zwar nichts was nicht schon in jedem Monitor schon gäbe, aber man hätte noch weniger einfluss, wie etwas beim User wirklich aussieht.

.
So verschwinden auch die Reflexionen in der Streuscheibescheibe (orange) irgendwie fast vollständig. Ist das nähe am durch Pathtracing gernderten Bild, oder einfach nur ein Bug, ein fehler, wo falsche Sachen entrauscht werden. Zugleich wird im Grünen bereich übersatuiert bzw wirkt halt die beleucthung viel viel stärker... das sollte eignetlich kein "Deneuser" efekt sein... Es wirkt so, als hätte man bei DLSS einfach den Dimmer von 50% auf 100% gestellt. Sprich in das vom Entwickler beabsichtigte "Enviroment" könnte übertrieben eingegriffen werden. Wie bei den Bildschirmen, wo man übersatuiert, die Farben greller erscheinen lässt, nur damit der Bildschirm höherwertiger erscheint.


Was noch schlimmer ist, es tretet eine richtig wahrnehmbare Latenz auf. Sprich das Licht brauch gefühlt eine halbe Sekunde, um von der Wand reflektiert zu werden. Vermutlich liegt das an einem Bug bei den Fakeframes.... Sprich der zwischen Frame rechnet eine "Beleuchtung" dazu, die im nativen Bild gar nicht da ist.

Dabei möchte ich jetzt nicht die Technologie tot reden. Mir geht es nur darum, zu verstehen, was da jetzt genau falsch läuft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
lynx007 schrieb:
Also ist das eine Grafikbug von DLSS, wo über das eigentliche "original" drüber gezeichnet wird?
lynx007 schrieb:
Oder ist es genau anders herum, das im Nativ Bild aufgrund fehlender SR inforamtion, vieleicht aufgrund fehlender "Pathtracing" Information der AI, "Sachen" fehlen und hinein "interpretiert" werden?
Ich würde sagen es ist eher so, dass das original hier falsch ist, weil zu wenig Informationen vorhanden sind und der Denoiser damit nicht klar kommt. Und DLSS konnte bisher daran nix ändern, weil ja immer noch die gleiche Denoiser genutzt werden.
Mit dem nun eigenen Denoiser ist DLSS 3.5 also näher an dem, wie es aussehen würde, wenn man nativ die Menge der Strahlen stark erhöhen würde.
lynx007 schrieb:
das ist ja leider noch ein Punkt, dass man mindestens 1080p rendern muss, sei es DLSS oder FSR, es nicht wirklich empfehlen ist weiter runter zu gehen, da, FSR kann ich es bestätigen, zu viele Details verloren gehen, der den grafischen Mehrwert oft wieder zunichtemacht. Da macht es halt noch immer mehr Sinn, auf 1080p zu rendern und zuschauen mit welchem AA man die meisten FPS hat und zugleich das Texturflimmen in den griff bekommt.
Also bzgl DLSS kann ich von meiner Erfahrung aus sagen, habe ich noch nie Probleme mit DLSS Quality gehabt, was bei 1440p einer Rederauflösung von 960p entspricht, und seit der neue Monitor eine etwas höhere ppi hat, in vielen Fällen auch keine Probleme mit DLSS Balanced(Renderauflösung dann 835p)
Ergänzung ()

lynx007 schrieb:
Der erste 1440p Gaming Monitor unter 600€ soll ja schon drausen sein. Für mich noch mit zu vielen Kompromissen, aber so langsam geht es zumindest von Monitorseite zur 1440p Seite. :-)
Was ist denn dein Anspruch an einen "1440p Gaming Monitor", dass da jetzt erst einer draußen sein soll, der unter 600€ kostet?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tr8or
@Taxxor
Aber 1440p wird ja DLSS auch empfohlen. Da sieht aber auch FSR auf Quality schon sehr ansprechend aus. Der Sprung zwischen 1080p und 1440p ist bei DLSS wie auch FSR schon gewaltig.
Ergänzung ()

Taxxor schrieb:
Was ist denn dein Anspruch an einen "1440p Gaming Monitor", dass da jetzt erst einer draußen sein soll, der unter 600€ kostet?
Schwierig, wen man nicht "unendlich" reich ist, und auch keine Kompromisse eingehen möchte.

Wurde ja gerade ein "guter" Budgetmonitor 1440p von HWUB getestet. Dabei habe ich gemerkt, das 1440p noch länger dauern dürfte, da die Monitore, die für mich interessant wären, noch über 1k kosten, was mir wiederum etwas zu viel ist. Ich möchte halt kein Ghosting haben. Schnell sollte er aber auch sein. Die Eierlegene Wollmilch Sau. Und die gibts nciht. Schon gar nicht "umsonst".


Wobei ich da schon mehr Geld als für die GPU ausgeben würde. Und da GPUs seit Jahren teurer sind, profitiert wohl auch der Monitor vom zukünftigen Endpreis. Weil wenn ich für meinen Nachfolger GPU, um flüssig 1440p zu spielen, 400, 600€ ausgeben muss, kann halt auch tatsächlich ein Monitor, den man länger als eine GPU hat, mehr kosten...

Ich möchte halt 240 Hz haben, aber das Pannel sollte halt auch die Pixel ohne overshoot abilden können... Und da bist du dann bist du noch bei über 800€, wen nicht 1k.... und dann ist man schon fast wieder bei OLED... am ende hat man so eine "Rechnung" auf seinem Zettel, das man sich frägt "muss das jetzt schon sein?" Und dann schiebt man es wieder "etwas" nach hinten. Noch läuft ja jedes Game flüssig. Wen ich auch schon bei den ersten in "low" Settings angekommen bin. Also viele Generationen kann ich nicht warten.

Eine "günstige" Monitor Alternative wäre sowas wie der Tempest, aber den gibt es in Europa leider noch nicht.
Hier meine "nice 2 have"-Liste.

1693459179083.png
 
Zuletzt bearbeitet:
lynx007 schrieb:
Aber 1440p wird ja DLSS auch empfohlen. Da sieht aber auch FSR auf Quality schon sehr ansprechend aus. Der Sprung zwischen 1080p und 1440p ist bei DLSS wie auch FSR schon gewaltig.
Du sagtest aber doch, dass man mindestens 1080p rendern muss, was ja bereits bei 1440p mit DLSS/FSR Quality nicht mehr der Fall ist, da man dann 960p rendert
 
Zuletzt bearbeitet:
Ja, 120p hin oder her. Das sind 10%. Ich hatte die genaue Render-Auflösung des Skalling nicht genau im Kopf.

Ich bezog mich da auf die Aussagen von Hardware Unboxed, und halt meine eigene begrenzte Erfahrungen, die sich halt auf FSR und einer Ausgabe-Auflösung von 1080p, bzw. 1440p vsr, auf eine 1080p Monitor begrenzt.
Und da FSR auf 1080p kann ich nciht empfehlen, weil halt so viele Details verloren gehen, das ich damit besser fahre, wen ich alles bis auf die Texturen auf Low stelle. FSR ist einfach näher an HD-Ready, als an Full-HD. Es geht halt darum, habe ich tatsächlich ein Mehrwert. Also FPS und Quality.

Mir ist aber auch aufgefallen, dass FSR Quality auf 1440p gut aussieht, selbst auf einem 1080p Monitor. Dafür ist aber bei den meisten Spielen meine GPU zu slow. Aber man hat gerade bei kannten und entfernten Objekten einen gewissen Mehrwert gesehen. Wären nicht die störenden Artefakte. Also auch wen die FPS spielbar sind, sieht man halt gerade im niedrigen low FPS sehr viel störende sachen, wo man dann doch lieber auf native zurück switched.

Aber bei DLSS und FSR handelt es sich durchaus um eine interessante Technologe mit potenzial. Aber wohl gemerkt, vielleicht kann ich das ohne 1440p Monitor gar nicht richtig beurteilen. Ich stütze da mich halt auch auf Aussagen der Presse. Mir ist nur aufgefallen, FSR auf 1080p kann man sich schenken, weil das selbst mir, und ich bin schon nen "Lego"-Gamer, zu weit geht. Da bekommt man nur noch ein unscharfes Matschbild.
 
Zuletzt bearbeitet:
Artikel-Update: Zur Gamescom explizit nur für den Cyberpunk-2077-DLC Phantom Liberty angekündigt, hat Nvidia mitgeteilt, dass DLSS 3.5 per Patch auf Version 2.0 im Hauptspiel und darüber dann auch im DLC Einzug halten wird. Damit kann die Technologie schon ein paar Tage früher genutzt werden.

Denn während Phantom Liberty am 26. September veröffentlicht werden wird, erscheint das Update auf Version 2.0 bereits am 21. September. Ray Reconstruction findet dabei nur im Pathtracing-Modus „RT Overdrive“ Anwendung. Ebenfalls am 21. September erscheint das angekündigte Update für den Renderer Chaos Vantage.



Die Redaktion plant sich DLSS 3.5 mit dem neuen Ray Reconstruction in Cyberpunk 2077 in der kommenden Woche im Detail anzusehen, urlaubsbedingt ist ein früherer Termin nicht drin.
 
  • Gefällt mir
Reaktionen: Cerebral_Amoebe, SweetOhm, fahr_rad und 3 andere
Freue mich auf das Update zu Portal RTX, wenn durch den neuen Denoiser das „nachziehen“ der Raytracing-Effekte behoben ist. Das war optisch für mich immer sehr störend.
 
  • Gefällt mir
Reaktionen: MoinWoll
, urlaubsbedingt ist ein früherer Termin nicht drin.

Zack! Basta! So mag ich das. Hart aber ehrlich. 😝
 
  • Gefällt mir
Reaktionen: Poati
Zurück
Oben