News Ada Lovelace: Nvidia DLSS 3 soll bis zu 4× mehr FPS als nativ liefern

Pain_Deluxe schrieb:
Ach was 3.0 reicht der Rest soll zu sehen.
Wieso sollte ein Entwickler DLSS 3 statt DLSS 2 wählen und einen Shitstorm riskieren?
Da wählt man lieber FSR 2.1 damit jeder was davon hat
 
Hach, bei dem Flight Simulator Video krieg ich schon wieder das Sabbern.
Bei der FPS Zahl und der Optik ist ein Top VR Erlebnis wohl kein Problem mehr.
Multi-Monitorbetrieb für Homecockpit natürlich auch nicht.

DrFreaK666 schrieb:
DLSS 3 statt DLSS 2 wählen und einen Shitstorm riskieren?

Das wird einfach ne Bibliothekserweiterung. Wette ich nen Zehner drauf.
3000er Karten nutzen DLSS 2 und 4000er DLSS 3. Easy.
 
  • Gefällt mir
Reaktionen: RogueSix und xexex
Wie im anderen Thread schon geschrieben, das ist einfach nur Mist. Das gleiche wie seit Jahren bei den Fernsehern. Das berechnete Bild ist Fake, stammt nicht von der Engine, man hat keinen Vorteil bei der Latenz. Diese 100FPS sind nicht mal im Ansatz mit echten 100FPS vergleichbar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: derin
Booby schrieb:
Das berechnete Bild ist Fake, stammt nicht von Engine, man hat keinen Vorteil bei der Latenz.
Wenn du nicht 8k oder mehr ausgibst, ist alles fake (und selbst dann... es ist kein Foto/Video der Realität, sondern etwas berechnetes, auch ohne DLSS/FSR!). Es werden immer Details fehlen. DLSS und FSR helfen dir hier, da sie verloren gegangene Details rekonstruieren. Zudem: Je höher die Framerate dadurch gesteigert wird, desto weniger Latenz hat man. Dein letzter Nebensatz ist also quatsch.
 
  • Gefällt mir
Reaktionen: Unnu
Da denke ich mir bei bekanntwerden von dlss 3 „toll meine 3080ti reicht noch lange“
Und was dann, nur auf der 4000er Karte. Natürlich, ich soll als Kunde ja auch schließlich neu kaufen und ja bloß nicht die alte Generation weiter nutzen…
 
  • Gefällt mir
Reaktionen: Kuestennebel79 und Unnu
Pain_Deluxe schrieb:
Die Frage die ich mir stelle wenn ein Spiel 3.0 Unterstützt auch weiterhin 2.X implementiert wird .

Hab schon das blöde Gefühl das es Programmiertechnisch 2 verschiedene Paar Schuhe sind und dann sagt der Entwickler... Ach was 3.0 reicht der Rest soll zu sehen.
https://www.resetera.com/threads/nv...-will-get-support.634256/page-3#post-93607910

"When a DLSS 3 games comes out, and you own a GeForce RTX 30 Series or 20 Series graphics card or laptop, you can use DLSS 2 Super Resolution in that title."

Hoffe die Quelle ist legitim, hab grad nich besseres zur Hand.
 
  • Gefällt mir
Reaktionen: Monarch2, Domingo2010, Flomek und 5 andere
foo_1337 schrieb:
Auch wenn du DLSS einfach so geschenkt bekommst? Auch ohne Nvidia? Die Wahrscheinlichkeit, dass du als kleiner Entwickler einer der Engines, die DLSS built-in haben, nutzt, ist nämlich sehr hoch.
Da muss FSR erst noch hin, wird aber sicher passieren.
Dlss geschenkt bekommen? Wie meinst du das? Musst du es sonst bezahlen?

FSR1/2 ist kostenlos also geschenkt und für die unteal Engine gibt es ach ein offizieles Plugin.

Von daher würde ich auch FSR2 wählen. Im im späteren Verlauf je nach Aufwand vielleicht dlss implemtieren. Kommt halt immer drauf an wie die Entwicklung des Spiels voranschreitet. Man muss ja sagen RSR und NIS funktionieren ab Treiber und das auch erstaunlich gut, natürlich nicht so gut wie dlss/FSR2 aber eigentlich ausreichend.
 
Northstar2710 schrieb:
Dlss geschenkt bekommen? Wie meinst du das? Musst du es sonst bezahlen?
Damit meine ich, dass der Entwickler es ohne Zusatzaufwand bekommt. Für den Entwickler bedeutet kein Aufwand = kostenlos.
Northstar2710 schrieb:
Im im späteren Verlauf je nach Aufwand vielleicht dlss implemtieren.
Er hat ja eben keinen Aufwand. Und DLSS ist halt aktuell in mehr Engines by default enthalten.
 
Vor vielen Jahren habe ich das Video einer Präsentation über framerate upscaling mittels Bewegungsvektoren auf der xbox 360(?) gesehen. War irgendein star wars Titel, und es wurde von 30 oder gar nur 15 fps auf 60 fps extrapoliert.
Damals war das zwar flüssig, aber voller Artefakte und weit entfernt von alltagstauglich. Beeindruckend, dass Nvidia dieses Prinzip nun praxistauglich gemacht hat!

Nur der Nvidia typische proprietäre lock-in nervt wieder einmal. Klar, die neuen KI Kerne helfen bei der Vermeidung von Artefakten. Aber das Grundprinzip wäre (ebenso wie das temporale supersampling bei DLSS/FSR 2.x) theoretisch ebenso auf älterer Hardware umsetzbar und wird diesem Personenkreis nun wieder einmal ein paar Jahre lang vorenthalten bleiben, bis die Konkurrenz aufgeholt hat.
 
  • Gefällt mir
Reaktionen: GERmaximus
Das ist kein schlechtes Lineup. Und dieser Aspekt...
Humbertus schrieb:
"When a DLSS 3 games comes out, and you own a GeForce RTX 30 Series or 20 Series graphics card or laptop, you can use DLSS 2 Super Resolution in that title."
...ist natürlich auch sehr wichtig.

Nvidia musste DLSS weiterentwickeln. Der Abstand zwischen aktuellem FSR und aktuellem DLSS ist einfach zu stark geschrumpft.

Rickmer schrieb:
Außerdem läuft das Spiel auch so schon auf älterer prima, DLSS hat's nicht wirklich nötig.
DLSS 2.X oder FSR 2.X hatte es schon durchaus nötig. Das ist einfach zu viel Performance, die ansonsten liegenblieb.

Ich hoffe auch, dass beide Titel, also BrightMemory und BrightMemoryInfinite weiter gepflegt werden. Mochte das ursprüngliche Feuerwerk noch einen Tacken mehr als den fertigen Kracher.
 
  • Gefällt mir
Reaktionen: 7H0M45
foo_1337 schrieb:
Auch wenn du DLSS einfach so geschenkt bekommst?
DLSS bekommt niemand geschenkt, die Kosten der Softwareentwicklung bezahlst du über den erhöhten Preis der Hardware.
 
  • Gefällt mir
Reaktionen: Nick.Bo
foo_1337 schrieb:
Je höher die Framerate dadurch gesteigert wird, desto weniger Latenz hat man. Dein letzter Nebensatz ist also quatsch.
Nein es ist nicht Quatsch, vermutlich verstehst du die Technik nicht. Wenn die Engine 20FPS ausgibt, hast du 50ms Latenz. Wenn du aus den 20FPS durch Interpolation 40FPS machst, hat es keinen Einfluss auf das Gamegeschehen und hast du weiterhin 50ms (bestenfalls, sehr wahrscheinlich kommt noch was für die Berechnung dazu).
 
  • Gefällt mir
Reaktionen: Lamaan, FloX99, derin und 4 andere
DLSS 3.0 nur auf der neuesten Gen.
War zu erwarten.
Irgendeinen Sales Pitch brauchen sie für die Neuen.
Und Enthusiasten kriegen sie damit auch.
 
  • Gefällt mir
Reaktionen: Kastinuk, DrTimeWaste, GERmaximus und eine weitere Person
up.whatever schrieb:
DLSS bekommt niemand geschenkt, die Kosten der Softwareentwicklung bezahlst du über den erhöhten Preis der Hardware.
Es ging um die Kosten für den Entwickler. Und die existieren bei den supported Engines eben nicht.
Ergänzung ()

Booby schrieb:
Nein es ist nicht Quatsch, vermutlich verstehst du die Technik nicht.
Dieses Video sollte deine Unklarheiten beseitigen:
Ergänzung ()

Booby schrieb:
Wenn du aus den 20FPS durch Interpolation 40FPS machst, hat es keinen Einfluss auf das Gamegeschehen und hast du weiterhin 50ms (bestenfalls, sehr wahrscheinlich kommt noch was für die Berechnung dazu).
Und genau das stimmt eben nicht.
 
  • Gefällt mir
Reaktionen: owned139 und DrTimeWaste
@foo_1337
Lesen und verstehen, im besten Fall kommt keine Zusatzlatenz hinzu. Die originale Latenz wird nicht besser -> Das Game läuft weiterhin mit den original FPS -> Kein Vorteil der höheren Fake-FPS bei der Steuerung.

Und warum verlinkst du ein Video zu DLSS 2? Versuchst du zu trollen?
 
  • Gefällt mir
Reaktionen: Lamaan, FloX99, Dandy2k5 und 4 andere
  • Gefällt mir
Reaktionen: FLCL, rumpeLson und DrTimeWaste
Booby schrieb:
Wie im anderen Thread schon geschrieben, das ist einfach nur Mist. Das gleiche wie seit Jahren bei den Fernsehern. Das berechnete Bild ist Fake, stammt nicht von Engine, man hat keinen Vorteil bei der Latenz. Diese 100FPS sind nicht mal im Ansatz mit echten 100FPS vergleichbar.
Ganz so schlimm wie bei Fernsehern ist es auch nicht, da muss ja auf den nächsten Frame gewartet werden, da hat man also bei 50 FPS 40 ms + Berechnungszeit Latenz.
Bei DLSS 3 hat man 20 ms + Berechnungszeit Latenz.
Bei 100 FPS Nativ oder mit DLLS hat man 10 ms Latenz.

Was DLSS 3 für Artefakte verursacht und wie verdeckte Stellen die ins Bild kommen behandelt werden interessiert mich aber auch. Ob sich das am Ende wirklich smooth anfühlt ist auch die Frage, vor allem wenn der Zwischenframe entgegen der eigentlichen Eingabe extrapoliert wird, wenn man schnell die Blickrichtung ändert.
 
Booby schrieb:
Lesen und verstehen, im besten Fall kommt keine Zusatzlatenz hinzu.
Schau dir doch bitte erstmal das Video an oder skippe es zumindest durch. Vorher brauchen wir auch nicht weiter zu diskutieren, denn deine Guessings und "Fake-FPS" Behauptungen sind keine valide Diskussionsgrundlage.

Und falls du kein Bock hast das Video zu schauen, hier noch eine Kurzform:
https://raiseyourskillz.com/should-i-turn-nvidia-dlss-on-or-off/

Watch Dogs Legion

While playing the game at 1440p, with DLSS turned off, the input latency was 50.1, whereas it reduced to 45.1 with DLSS (Quality) and 43 with DLSS (Performance).

Cyberpunk 2077

At 1440p with DLSS turned off, the input latency was 42.4, whereas it became 35.6 at DLSS (Quality) and 31.1 at DLSS (Performance).

A 16% input latency reduction was observed with DLSS (Quality), and a 27% reduction was seen with DLSS (Performance).

Thus we can say that the DLSS in general reduced the input latency while showing considerable improvement in FPS at the same time.
 
  • Gefällt mir
Reaktionen: MeisterOek, owned139 und Unnu
@foo_1337
Vielleicht können wir ja weiterreden, sobald du die Technik verstehst.
Kleiner Tipp: DLSS2 und DLSS3 unterscheiden sich ernorm.

BGnom schrieb:
Bei DLSS 3 hat man 20 ms + Berechnungszeit Latenz.
Bei 100 FPS Nativ oder mit DLLS hat man 10 ms Latenz.
Bildlatenz != Latenz im Spiel
 
  • Gefällt mir
Reaktionen: Lamaan, FloX99, Dandy2k5 und 4 andere
Zurück
Oben