CP2077 besitzt mehr als nur "einen Regler", zum Vergleich gibt es einige "AMD Spiele" da wird RT gar nicht erst für Reflexionen oder Beleuchtung genutzt, weil den AMD Karten dafür schlichtweg die Leistung fehlt. Was ist denn da wohl besser? Die Möglichkeit zu haben einige Effekte selbst auszuschalten oder RT gar nicht erst zu nutzen?TigerherzLXXXVI schrieb:Zum Beispiel bietet CP2077 einen Regler für die RT-Qualität, welcher die drei Stufen Mittel, Ultra und Psycho besitzt.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia GeForce RTX: DLSS 3.5 soll Raytracing hübscher machen
- Ersteller Wolfgang
- Erstellt am
- Zur News: Nvidia GeForce RTX: DLSS 3.5 soll Raytracing hübscher machen
- Registriert
- Dez. 2021
- Beiträge
- 1.369
Ich habe mich nur auf diesen einen Regler bezogen, weil ich hier ein besonderes Problem gesehen habe. Ich habe auf keinen Fall gemeint, dass es in CP2077 nur einen einzigen Regler gibt.xexex schrieb:CP2077 besitzt mehr als nur "einen Regler"
Und nicht gleich übertreiben, wenn es um Raytracing und AMD geht. Far Cry 6 als Beispiel nutzt zwar wenig RT-Effekte, dennoch gibt es eine optische Aufwertung. In Metro EE, welches deutlich anspruchsvoller ist, performen RDNA-2-Karten auch ziemlich gut, sofern man die RT-Qualität nicht auf Ultra stellt. Die grafische Qualität kann sich dennoch sehen lassen.
Zuletzt bearbeitet:
dr.betruger
Lt. Junior Grade
- Registriert
- Apr. 2014
- Beiträge
- 333
Musst mal Pathtracing erleben ... sieht bei Cyberpunk umwerfend aus und dank FrameGeneration auf 40er Karten spielbar. Freue mich schon riesig auf Phantom Liberty. Die aktuelle Version läuft WQHD alles max DLSS augeglichen und FrameGeneration 60fps auf meiner 4070.
lynx007
Commodore
- Registriert
- Feb. 2011
- Beiträge
- 4.811
Sie beziehen sich vermutlich auf Pathtracing. DLSS darf ja gerne an bleiben. Nur halt ohne Fakeframes, oder halt gleich mit 360 min fps mit Fakeframes...Taxxor schrieb:Ähm, du bist mit ner 4090 für 1,6K in 1440p aktuell mit ca 30FPS dabei komplett ohne DLSS
Ergänzung ()
klar, nativ kann ich die Objekte in den Spiegelungen auf jeden Fall besser erkennen
Fakeframes erzeugen halt Latenz, auf das ich leider sehr älergisch, schon paranoid reagiere.
Das ist auch Kopfsache denn im Prinzip haben 60FPS+FG+Reflex nicht wirklich mehr Input Laglynx007 schrieb:Fakeframes erzeugen halt Latenz, auf das ich leider sehr älergisch, schon paranoid reagiere.
als 60FPS nativ und es gibt Leute die Zocken mit 60FPS+V-Sync und mehr als doppelt viel Lag.
Das Problem ist, daß 60FPS mit FG aussehen wie 100FPS+ also sehr flüssig und das kennt man
normalerweise auch als sehr direktes Gameplay aber der Input Lag basiert eben nur auf 60FPS.
Daran muss man sich gewöhnen und es gilt: je mehr FPS man bereits nativ hat desto besser.
Und reflex senkt die Latenz dann wieder auf ein niveau das auf dem level von nativem rendering oder sogar besser ist..lynx007 schrieb:Fakeframes erzeugen halt Latenz, auf das ich leider sehr älergisch, schon paranoid
lynx007
Commodore
- Registriert
- Feb. 2011
- Beiträge
- 4.811
Jein. 60 FPS sind unterste Stufe, der "Spielbarkeit". Zumindest wen man Regelmäßig schnelle Games spielt. Selbst da ist das für viele zu wenig, mich eingeschlossen. Dabei spielt nicht nur die erhöhte Reaktionszeit zwischen Bild und der Eingabe eine Rolle, sondern auch die Frame Drops, die 00,01% FPS die halt erfahrungsgemäß viel gravierender Ausfallen.0ssi schrieb:Das ist auch Kopfsache denn im Prinzip haben 60FPS+FG+Reflex nicht wirklich mehr Input Lag
als 60FPS nativ und es gibt Leute die Zocken mit 60FPS+V-Sync und mehr als doppelt viel Lag.
Das Problem ist, daß 60FPS mit FG aussehen wie 100FPS+ also sehr flüssig und das kennt man
normalerweise auch als sehr direktes Gameplay aber der Input Lag basiert eben nur auf 60FPS.
Daran muss man sich gewöhnen und es gilt: je mehr FPS man bereits nativ hat desto besser.
Das ändert aber nichts daran, dass die Latenz praktisch mehr als "verdoppelt", weil aus einem Frame ein zusätzlich drangeklebt wird, dem Hauptframe und den Zwischenframe... , schon das funktioniert nicht ohne Erhöhung der Latenz, das erhöht natürlich den Inputlag. Reflex hilft dabei, aber die Summe ist nicht 1 und auch nicht 2, sondern halt 2.x ... die sich die Gesamtlatenz erhöht, inkl Bildgenerierung erhöht. Und muss man bei Reflex vSync nicht ausschalten? Zumindest wäre das bei manchen keine Spielen keine option. zb D4 läuft ohne vsync leider gar nicht. Sprich ich habe lieber vsync an und hau alles auf low, nur die texturen auf max, und hab zumindest 90-100 fps auf meiner schon angestaubten karte, ohne Tearing... Auf 60 fps empfinde ich D4 als unspielbar. Aber das hängt auch vom Spiel ab.
Obendrauf kommen bei FG Bildfehler, Artefakte, die gerade im unteren FPS Bereich auffallen, irritieren, weil nicht genügend native Bilder dazwischen geschoben werden, die sie "verschwinden" lassen.
Aber auch wen es auf den Papier noch 50 FPS wären (50 native, + 50 Fakeframes) läuft es in der Praxis, insbesondere im niedrigen FPS Bereich, schlechter, als bei vsync of 50hz! Insbesondere wen man die Fakeframes dazu nimmt.
Aus diesen Grund wird FG, erst im oberen Framebreich interessant, wo die nativen FPS schon so hoch sind, das auch der inputlag eine untergeordnete rolle Spielt, auch die Artefakte in der Masse der Bilder untergehen. Deshalb auch meine 100FPS nativ, oder 240 inkl Fakeframes. Da habe ich schon vorausgedacht, und ich kenne ja meine Ansprüche. Und die sind mittlerweile leider weit jenseits von 60 fps... und daher leider auch viel teurerer zu verwirklichen. :-( Gerade wer glaubt, mit 3.0 oder 3.5 macht er Spiele im einsteiger Segment nutzbar, der unterliegt halt leider einem (Marketing)Irtum, weil es Fakeframes sind, die gerade im unteren nativen FPS bereich, starke Nachteile haben. Auch wenn es seit Release, manches besser geworden sein soll, siehe Video.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Ergänzung ()
Atnam schrieb:Und reflex senkt die Latenz dann wieder auf ein niveau das auf dem level von nativem rendering oder sogar besser ist..
Natives-Rendern ist Natives-Rendern, daran ändert meines wissens Reflex überhaupt nichts. Wenn doch, dann gerne eine Quelle.
Reflex soll aber durchaus Einfluss auf die Gesamtlatenz des Systems haben, wo das Rendern ein Teil davon ist. Deshalb wird aber nicht das Bild in der GPU schneller fertig. Eher priorisiert Reflex die involvierten Prozesse und Vorgänge zwischen Eingabe und Ausgabe so, dass insgesamt der Prozesse zwischen Eingabe und Bildausgabe schneller fertig ist. Daher die Gesamtlatenz niedriger ausfällt.
Das hat aber nichts oder nur wenig mit DLSS 3.0(3.5) zu tun. Wenn zu etwas zusätzlich einschalten, dann braucht die Zeit. Das lässt sich durch richtiger priorisierung minmieren, durch parralelisierung viueleicht sogar praktisch auf oder nahe Null setzen, aber zusätzliche, Prozesse die sich nicht paralysieren lassen, so wie Fakeframes, die ja einem nativen Frame hinzugefügt werden, laufen immer zusätzlich, lassen sich also nicht auf Null setzen. Das kostet zusätzlich Zeit. Daran kann Reflex nichts ändern.
Auch wen Refelex ansich eine tolle Sache ist, im Kern kann Reflex nichts oder sehr winig an der Renderzeit, die gesamt Frametime aus nativen und fake Frame ändern, weil es eine physikalische Größe oder logische Abhängikeit darstellt.. Denn 100 FPS sind 100 FPS. Und wen native sind, sind das eine Millisekunde, und an dieser Latzen kann auch Reflex überhaupt nichts ändern. Und 100 FPS mit Fake frames sind halt nciht 100 Bilder, sondern in wirklichkeit nur 50 Bilder x2. Und kann mir nicht vorstellen das daraus jetzt Refelex 1ms, oder gar 0,x ms zaubern kann, weil auch wen es zwei fps sind, wird der eine Frame an den anderen geklebt. Sprich man hat ein Framewindows von 2ms oder mehr und nicht 1ms....
Vielleicht meinen Sie das?!! Vieleicht entgegensteuern, und dank Reflex steigt der Input lag nicht auf 2ms, ist also nicht gleich oder höher 50 FPS sondern liegt näher bei 100 nativen FPS? Dann ziehe ich meinen Hut vor nvidia, aber das würde ich zum ersten mal hören. Ich weiß aber auch nicht alles. Aber soweit ich mich erninnere war der Inputlag von Fakeframes immer höher als nur von den nativen bildern... vieleicht habe ich das aber auch Falsch in erinnerung.... wobei die selbst die Flipcharts sich immer auf die Gesamtlatenz und nicht auf die Renderzeit beziehen. Daher eher irreführend sind.
Tests zumindest zeigen das sich Fakeframes nicht positiv auf die Latenz auswirken. Reflex kann man und sollte man ohnehin anhaben. Dafür brauche ich aber kein FG.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Zuletzt bearbeitet:
t3chn0
Fleet Admiral
- Registriert
- Okt. 2003
- Beiträge
- 10.280
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
lynx007
Commodore
- Registriert
- Feb. 2011
- Beiträge
- 4.811
t3chn0 schrieb:YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Verstehe ich nicht... Kann mir jemand erklären, warum das native Bild, mit RT on der art von DLSS 3.5 abweicht? Sollte es nicht dem realen Bild am nächsten sein? Das bedeutet doch umgekehrt das DLSS 3.5 verfälscht ist...
Ich dachte bei DLSS gehen Informationen verloren. Wenig, aber trotzdem weil halt niedriger aufgelöst gerendert wird und damit auch weniger Rays zurverfügung stellen. Das wiederum wird mittel AI bei DLSS 3.5 kompensiert, und mit dem man dem realen Bild näher kommt. Aber das native Bild scheint hier gar nicht das realbild zu sein....
Hier sieht es aber so aus, das gerade bei nativen RT ohne DLSS Informationen fehlen.... Warum dann nur 23 FPS, wen auch nichts berechnet wird? Das ergibt doch keinen Sinn....
Hast du vieleicht dazu eine Antwort, @Wolfgang ?
Ich kann hier nur raten. Aber der Kern der ganzen Präsentation ist ja der Denoiser, der auch temporal arbeitet.lynx007 schrieb:Kann mir jemand erklären, warum das native Bild, mit RT on der art von DLSS 3.5 abweicht?
Weniger Frames heißt also auch entweder weniger temporale Informationen oder die temporalen Informationen sind über einen längeren Zeitraum gestreckt (je nachdem ob man das an der Anzahl der Frames oder der vergangen "realtime" fest macht).
Wenn du im Video RT nativ mit RT + DLSS SR vergleichst, siehst du, dass es im 2. Fall immer noch ein Weilchen dauert, bevor die Wand, Boden etc. sich an die Erleuchtung in der richtigen Farbe voll anpasst. Das braucht im Denoiser scheinbar mehrere Frames. Und bei 3 mal so vielen Frames kann man sich da gut einen Effekt vorstellen. Das entweder die weniger Frames dazu führen, dass die kurze Farbänderung weniger schwer wiegt, oder dass es quasi ein "Mittel" über einen längeren Zeitraum (mit mehr Farbschwankungen) ist.
Abgesehen davon sind die 4 Vergleichsteile ja nicht in Sync, was die Farbänderungen der Beleuchtung angeht. So könnte das auch gut täuschen. Da müsste man die Spielerposition ignorieren und Frames raussuchen, die gleich weit in der Farbänderung der Lichtquelle drin sind (es sei denn die Darstellung dieser leidet auch unter den gleichen Effekten und ist auch schon verzögert gegenüber was die Engine sagt, welche Farbe die Beleuchtung zu einem Zeitpunkt haben sollte).
lynx007
Commodore
- Registriert
- Feb. 2011
- Beiträge
- 4.811
Also an der Synchro liegt es nicht. Wirkt im nativen Bild hast du die meisten Informationenen, deshalb ist er ja so langsam....
Und nein am falschen Frame liegt es nicht, zu keinem Zeitpunkt hat man diese Sättigung. Es ist eher wie ein bug oder gar gezielte Manipulation. Als würde das native Bild etwas anderes rendern...
Aber es ist doch genau umgekehrt, dlss render in niedrigere Auflösung, skaliert hoch und nähert sich dann der höheren Auflösung an...
Wie kann das native, also "vollständiger" Bild, das Original schlechter aussehen als die kübstliche Kopie....
Serös ist das zumindest nicht... erinnert mich an TVs wo auch gern Bilder über die Sättigung künstlich "aufgehübscht" werden, damit sie subjektiv höherwetiger wirken.
Und nein am falschen Frame liegt es nicht, zu keinem Zeitpunkt hat man diese Sättigung. Es ist eher wie ein bug oder gar gezielte Manipulation. Als würde das native Bild etwas anderes rendern...
Aber es ist doch genau umgekehrt, dlss render in niedrigere Auflösung, skaliert hoch und nähert sich dann der höheren Auflösung an...
Wie kann das native, also "vollständiger" Bild, das Original schlechter aussehen als die kübstliche Kopie....
Serös ist das zumindest nicht... erinnert mich an TVs wo auch gern Bilder über die Sättigung künstlich "aufgehübscht" werden, damit sie subjektiv höherwetiger wirken.
Zuletzt bearbeitet:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Code:
https://youtu.be/sGKCrcNsVzo?t=327
Zeigt doch, dass die "Lichtquelle" / Leuchten nicht in allen vier Beispielen gleichzeitig die Farbe ändern.
Ja, nativ und DLSS 2 sind synchron in dieser Hinsicht, die anderen aber nicht. Und dann kann man natürlich nicht mehr alle 4 Beispiele aus einem Frame des Demo-Videos direkt vergleichen (zum Beispiel wie gut die Wand und Boden von der Farbe der Beleuchtung gefärbt wird), es sei denn man argumentiert, dass die Farbe der Leuchten auch schon verzögert dargestellt war und die Physik die dem zugrunde liegt doch synchron läuft.
Ergänzung ()
Nativ hat mehr Infos in einem einzigen Frame in Form von mehr Pixeln. Temporale Algorithmen betrachten aber mehrere Frames. Aus einer höheren nativen Auflösung folgt also nicht zwangsläufig dass über eine Zeitspanne mehr Informationen bereitstehen.lynx007 schrieb:Wie kann das native, also "vollständiger" Bild, das Original schlechter aussehen als die kübstliche Kopie....
Wenn das DLSS SR was im "DLSS 2" Fall gezeigt wird, die nativ berechneten Pixel drittelt, dann käme die Menge vorhanden Pixel-Informationen in der selben Zeitspanne immer noch auf das Gleiche raus, dank der 3-fach höheren Framerate. Wenn es die Anzahl Pixel pro Frame nur halbiert wären es dort sogar mehr Pixel-Informationen über den gleichen Zeitraum. Das kann man also nicht automatisch auf temporale Algorithmen anwenden. Da müsste man nachrechnen (wäre immer noch nicht genau. Ich halte es nicht für wahrscheinlich dass alle Pixel über mehrere Frames gleich wichtig sind).
FYI: DLSS Quality auf 4K scheint die Anzahl der Pixel (2560x1440) auf ~44% zu reduzieren.
Zuletzt bearbeitet:
lynx007 schrieb:Ich dachte bei DLSS gehen Informationen verloren. Wenig, aber trotzdem weil halt niedriger aufgelöst gerendert wird ...
Ich meine der Grundgedanke von DLSS ist durch KI (Deep Learning) das Rendern in einer höheren Auflösunglynx007 schrieb:dlss render in niedrigere Auflösung, skaliert hoch und nähert sich dann der höheren Auflösung an...
(Super Sampling) zu simulieren also eigentlich das gleiche Ziel wie man es nativ mit DSR (Downsampling) hat.
In 4K wird mit DLSS Quality zwar nur in 1440p gerendert aber das Upsampling simuliert vorher eine höhere Auflösung als 4K und berechnet darauf das eigentliche Ergebnis und erzeugt eine sehr gute Kantenglättung.
Also die Aufgabe von DLSS ist eine gute Kantenglättung für ein ruhiges und scharfes Bild in der Zielauflösung
weil diese ganzen temporal Anti Aliasing Modi immer zu Unschärfe führen und dann der Sinn von 4K weg ist.
Das beste Beispiel dafür ist Red Dead Redemption 2 mit seiner vielen Vegetation. 4K nativ ohne TAA ist eine Katastrophe, 4K nativ mit TAA unscharf und 4K mit DLSS Quality sehr gut plus sogar noch etwas mehr FPS.
Breaktivity
Cadet 2nd Year
- Registriert
- Aug. 2023
- Beiträge
- 18
Wo ich selber nicht durchblicke - gibt es einen technischen Unterschied zwischen der DLSS 3.5 "Ray Reconstruction" und NVIDIAs schon länger existierendem AI Denoisern / NRD? Oder ist das nur die bestehende Technik umverpackt als Schalter im Spiel?
Bisher ware Denoise ein separater Schritt, der kräftig interpoliert hat und die ganzen Infos, wo ein Strahl war und wo nicht versucht hat so gut wie möglich zu verstecken / zu glätten, damit du als Nutzer nicht das geflimmer siehst. Das war modularer, weil du beides getrennt voneinander an und abschalten kannst. Aber es verfälscht und reduziert die Infos die DLSS SR erhält.Breaktivity schrieb:gibt es einen technischen Unterschied zwischen der DLSS 3.5 "Ray Reconstruction" und NVIDIAs schon länger existierendem AI Denoisern / NRD?
Wenn man das mit DLSS SR integriert, gibts du DLSS unverfälschtere Informationen.
Jetzt braucht man 2 Varianten von SR statt einer. Eine mit Ray Tracing Strahlen als Input, eine ohne. Deshalb kommt das vermutlich erst jetzt.
Heißt neu trainieren und nicht einfach beide Modelle hintereinanderhängen wie es bisher war. Sonst würde man ja weiterhin die selben Ergebnisse erhalten.
Wenn du die Ergebnisse von einem neuronalen Netzt verbessern willst, musst du neu trainieren. Dabei kann man dann evtl. weniger Ebenen / Neuronen verbauen als beide Funktionen vorher in Summe hatten und so auch noch Rechenzeit sparen. Je mehr Funktionalität du in ein Netz packst, desto länger wirst du tranieren müssen mit umso mehr Trainingsdaten.
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.631
Da ist er also, der AI gestützte Denoiser, der uns vollmundig zum Start der RTX- Reihe versprochen wurde.
Da haben sie sich aber ganz schön Zeit gelassen.
Aber- Nun für alle RTX Karten geliefert und das mit beeindruckenden Ergebnissen.
Mal eben so die effektive Pathtracing- Leistung um den Faktor 10 und mehr gesteigert.
Interessant, dass Nvidia keine größere Welle deshalb macht. Wahrscheinlich, weil 90% selbst hier im Computerforum nicht greifen können, was das für den Fortschritt bedeutet.
Realtime- Pathtracing entwickelt sich rasend schnell weiter....
Das kann so weit gehen, dass man bis jetzt Gradienten mit großer Schrittweite akzeptieren musste, die einen weitläufigen Teil höherfrequenter Details "nullen" bzw. nur noch einen leichten Hauch oder Nebel dort hinterlassen, wo es doch deutlich höhere Kontraste geben soll.
Sozusagen eine adaptive Auflösungsreduktion.
DLSS3.5 ist der von Anfang an versprochene Tensor- Core- Denoiser.
DLSS3.5 nimmt sich tatsächlich die einzelnen Framebuffer vor. Mit dem Unterschied, dass diese einen Bezug zueinander erhalten. Dort auch temporal und spatial. Unglaublich rechenaufwändig.
Wo früher die global illumination mit einer feststehenden Denoiser- Batterie behandelt wurde, schaut DLSS3.5 in die anderen Buffer rein und sucht sich raus, welche Pixel für das Endergebnis per Gewichtung am sinnvollsten heranzuziehen sind. Teils mit dramatisch überlegenen Ergebnissen.
Well done, well played nvidia.
Da haben sie sich aber ganz schön Zeit gelassen.
Aber- Nun für alle RTX Karten geliefert und das mit beeindruckenden Ergebnissen.
Mal eben so die effektive Pathtracing- Leistung um den Faktor 10 und mehr gesteigert.
Interessant, dass Nvidia keine größere Welle deshalb macht. Wahrscheinlich, weil 90% selbst hier im Computerforum nicht greifen können, was das für den Fortschritt bedeutet.
Realtime- Pathtracing entwickelt sich rasend schnell weiter....
Du hast derzeit einfach noch wahnsinnig viele Ungenauigkeiten durch Glättung und temporales bzw. spatiales Blending.Taxxor schrieb:@.Sentinel. Wie funktioniert sowas hier eigentlich?
Ich hätte also einen etwas weniger realistischen Lichtkegel erwartet, aber gar keiner? Ich kann mich auch aktiv nicht daran erinnern, mit RT Overdrive keinen Lichtkegel gehabt zu haben.
Anhang anzeigen 1389307
Das kann so weit gehen, dass man bis jetzt Gradienten mit großer Schrittweite akzeptieren musste, die einen weitläufigen Teil höherfrequenter Details "nullen" bzw. nur noch einen leichten Hauch oder Nebel dort hinterlassen, wo es doch deutlich höhere Kontraste geben soll.
Sozusagen eine adaptive Auflösungsreduktion.
Ich habe mich auf neural radiance caching bezogen, habe das bis jetzt nicht weiterverfolgt und seitdem auch keinen Kontakt mehr mit den Kollegen bei CDPR.Taxxor schrieb:Damals hatte er eine Lösung angesprochen von der er hoffte, dass sie bis zum DLC Release verfügbar sein wird.
War das hier die gemeinte Lösung?
DLSS3.5 ist der von Anfang an versprochene Tensor- Core- Denoiser.
DLSS3.5 nimmt sich tatsächlich die einzelnen Framebuffer vor. Mit dem Unterschied, dass diese einen Bezug zueinander erhalten. Dort auch temporal und spatial. Unglaublich rechenaufwändig.
Wo früher die global illumination mit einer feststehenden Denoiser- Batterie behandelt wurde, schaut DLSS3.5 in die anderen Buffer rein und sucht sich raus, welche Pixel für das Endergebnis per Gewichtung am sinnvollsten heranzuziehen sind. Teils mit dramatisch überlegenen Ergebnissen.
Well done, well played nvidia.
Zuletzt bearbeitet:
- Registriert
- Mai 2011
- Beiträge
- 21.002
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Auf jeden Fall erwähnenswert, was alleine der Super Resolution Part von 3.5 schon an Bildqualität rausholt.
Man achte auf die flimmernden Dächer direkt am Anfang. Und das ist Ultra Performance, also von 720p auf 4K
Hab jetzt schon öfter glesen, das DLSS 3.5 Balanced nun so gut oder teilweise besser aussehen soll, als DLSS 3.1 Quality.
Ich hab ja nach dem Wechsel auf einen Monitor mit höherer ppi mal die Rechnung gemacht, wie viel ppi ich denn jeweils mit den DLSS Qualitätsstufen auf meinem vorherigen und nun auf meinem neuen Monitor habe.
Dabei kam raus, dass ich auf dem alten Monitor mit DLSS Quality genau so hohe ppi hatte, wie wenn ich auf dem neuen Monitor DLSS Balanced nutze. Und da ich vorher immer mit DLSS Quality zufrieden war, nutze ich auch seit dem Monitorwechsel immer öfter mal Balanced.
Mit DLSS 3.5 könnte man vmtl sogar direkt auf Performance runter gehen und hätte noch die Qualität von Balanced oder sogar etwas höher
Zuletzt bearbeitet:
Gab's den Link hier schon?
nvngx_dlss_3.5.0.zip
https://www.techpowerup.com/download/nvidia-dlss-dll/
Werde es gleich mal mit TLoU testen
nvngx_dlss_3.5.0.zip
https://www.techpowerup.com/download/nvidia-dlss-dll/
Werde es gleich mal mit TLoU testen
Ähnliche Themen
- Antworten
- 29
- Aufrufe
- 2.055
- Antworten
- 168
- Aufrufe
- 17.880
- Antworten
- 3.241
- Aufrufe
- 294.088
- Antworten
- 344
- Aufrufe
- 49.684
- Antworten
- 656
- Aufrufe
- 100.052