Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAda Lovelace: Nvidia DLSS 3 soll bis zu 4× mehr FPS als nativ liefern
Hach, bei dem Flight Simulator Video krieg ich schon wieder das Sabbern.
Bei der FPS Zahl und der Optik ist ein Top VR Erlebnis wohl kein Problem mehr.
Multi-Monitorbetrieb für Homecockpit natürlich auch nicht.
DrFreaK666 schrieb:
DLSS 3 statt DLSS 2 wählen und einen Shitstorm riskieren?
Wie im anderen Thread schon geschrieben, das ist einfach nur Mist. Das gleiche wie seit Jahren bei den Fernsehern. Das berechnete Bild ist Fake, stammt nicht von der Engine, man hat keinen Vorteil bei der Latenz. Diese 100FPS sind nicht mal im Ansatz mit echten 100FPS vergleichbar.
Wenn du nicht 8k oder mehr ausgibst, ist alles fake (und selbst dann... es ist kein Foto/Video der Realität, sondern etwas berechnetes, auch ohne DLSS/FSR!). Es werden immer Details fehlen. DLSS und FSR helfen dir hier, da sie verloren gegangene Details rekonstruieren. Zudem: Je höher die Framerate dadurch gesteigert wird, desto weniger Latenz hat man. Dein letzter Nebensatz ist also quatsch.
Da denke ich mir bei bekanntwerden von dlss 3 „toll meine 3080ti reicht noch lange“
Und was dann, nur auf der 4000er Karte. Natürlich, ich soll als Kunde ja auch schließlich neu kaufen und ja bloß nicht die alte Generation weiter nutzen…
Die Frage die ich mir stelle wenn ein Spiel 3.0 Unterstützt auch weiterhin 2.X implementiert wird .
Hab schon das blöde Gefühl das es Programmiertechnisch 2 verschiedene Paar Schuhe sind und dann sagt der Entwickler... Ach was 3.0 reicht der Rest soll zu sehen.
"When a DLSS 3 games comes out, and you own a GeForce RTX 30 Series or 20 Series graphics card or laptop, you can use DLSS 2 Super Resolution in that title."
Hoffe die Quelle ist legitim, hab grad nich besseres zur Hand.
Ist immerhin ein verifizierter Nvidia Mitarbeiter. Danke fürs Recherchieren. @Wolfgang vielleicht kannst du das mit meiner Info aus #2 in deinen Artikel mitaufnehmen.
Auch wenn du DLSS einfach so geschenkt bekommst? Auch ohne Nvidia? Die Wahrscheinlichkeit, dass du als kleiner Entwickler einer der Engines, die DLSS built-in haben, nutzt, ist nämlich sehr hoch.
Da muss FSR erst noch hin, wird aber sicher passieren.
Dlss geschenkt bekommen? Wie meinst du das? Musst du es sonst bezahlen?
FSR1/2 ist kostenlos also geschenkt und für die unteal Engine gibt es ach ein offizieles Plugin.
Von daher würde ich auch FSR2 wählen. Im im späteren Verlauf je nach Aufwand vielleicht dlss implemtieren. Kommt halt immer drauf an wie die Entwicklung des Spiels voranschreitet. Man muss ja sagen RSR und NIS funktionieren ab Treiber und das auch erstaunlich gut, natürlich nicht so gut wie dlss/FSR2 aber eigentlich ausreichend.
Vor vielen Jahren habe ich das Video einer Präsentation über framerate upscaling mittels Bewegungsvektoren auf der xbox 360(?) gesehen. War irgendein star wars Titel, und es wurde von 30 oder gar nur 15 fps auf 60 fps extrapoliert.
Damals war das zwar flüssig, aber voller Artefakte und weit entfernt von alltagstauglich. Beeindruckend, dass Nvidia dieses Prinzip nun praxistauglich gemacht hat!
Nur der Nvidia typische proprietäre lock-in nervt wieder einmal. Klar, die neuen KI Kerne helfen bei der Vermeidung von Artefakten. Aber das Grundprinzip wäre (ebenso wie das temporale supersampling bei DLSS/FSR 2.x) theoretisch ebenso auf älterer Hardware umsetzbar und wird diesem Personenkreis nun wieder einmal ein paar Jahre lang vorenthalten bleiben, bis die Konkurrenz aufgeholt hat.
Das ist kein schlechtes Lineup. Und dieser Aspekt...
Humbertus schrieb:
"When a DLSS 3 games comes out, and you own a GeForce RTX 30 Series or 20 Series graphics card or laptop, you can use DLSS 2 Super Resolution in that title."
DLSS 2.X oder FSR 2.X hatte es schon durchaus nötig. Das ist einfach zu viel Performance, die ansonsten liegenblieb.
Ich hoffe auch, dass beide Titel, also BrightMemory und BrightMemoryInfinite weiter gepflegt werden. Mochte das ursprüngliche Feuerwerk noch einen Tacken mehr als den fertigen Kracher.
Nein es ist nicht Quatsch, vermutlich verstehst du die Technik nicht. Wenn die Engine 20FPS ausgibt, hast du 50ms Latenz. Wenn du aus den 20FPS durch Interpolation 40FPS machst, hat es keinen Einfluss auf das Gamegeschehen und hast du weiterhin 50ms (bestenfalls, sehr wahrscheinlich kommt noch was für die Berechnung dazu).
Dieses Video sollte deine Unklarheiten beseitigen:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Wenn du aus den 20FPS durch Interpolation 40FPS machst, hat es keinen Einfluss auf das Gamegeschehen und hast du weiterhin 50ms (bestenfalls, sehr wahrscheinlich kommt noch was für die Berechnung dazu).
@foo_1337
Lesen und verstehen, im besten Fall kommt keine Zusatzlatenz hinzu. Die originale Latenz wird nicht besser -> Das Game läuft weiterhin mit den original FPS -> Kein Vorteil der höheren Fake-FPS bei der Steuerung.
Und warum verlinkst du ein Video zu DLSS 2? Versuchst du zu trollen?
Wie im anderen Thread schon geschrieben, das ist einfach nur Mist. Das gleiche wie seit Jahren bei den Fernsehern. Das berechnete Bild ist Fake, stammt nicht von Engine, man hat keinen Vorteil bei der Latenz. Diese 100FPS sind nicht mal im Ansatz mit echten 100FPS vergleichbar.
Ganz so schlimm wie bei Fernsehern ist es auch nicht, da muss ja auf den nächsten Frame gewartet werden, da hat man also bei 50 FPS 40 ms + Berechnungszeit Latenz.
Bei DLSS 3 hat man 20 ms + Berechnungszeit Latenz.
Bei 100 FPS Nativ oder mit DLLS hat man 10 ms Latenz.
Was DLSS 3 für Artefakte verursacht und wie verdeckte Stellen die ins Bild kommen behandelt werden interessiert mich aber auch. Ob sich das am Ende wirklich smooth anfühlt ist auch die Frage, vor allem wenn der Zwischenframe entgegen der eigentlichen Eingabe extrapoliert wird, wenn man schnell die Blickrichtung ändert.
Schau dir doch bitte erstmal das Video an oder skippe es zumindest durch. Vorher brauchen wir auch nicht weiter zu diskutieren, denn deine Guessings und "Fake-FPS" Behauptungen sind keine valide Diskussionsgrundlage.
While playing the game at 1440p, with DLSS turned off, the input latency was 50.1, whereas it reduced to 45.1 with DLSS (Quality) and 43 with DLSS (Performance).
Cyberpunk 2077
At 1440p with DLSS turned off, the input latency was 42.4, whereas it became 35.6 at DLSS (Quality) and 31.1 at DLSS (Performance).
A 16% input latency reduction was observed with DLSS (Quality), and a 27% reduction was seen with DLSS (Performance).
Thus we can say that the DLSS in general reduced the input latency while showing considerable improvement in FPS at the same time.