News Ada Lovelace: Nvidia DLSS 3 soll bis zu 4× mehr FPS als nativ liefern

foo_1337 schrieb:
Schau dir doch bitte erstmal das Video an oder skippe es zumindest durch. Vorher brauchen wir auch nicht weiter zu diskutieren, denn deine Guessings und "Fake-FPS" behauptungen sind keine valide Diskussionsgrundlage.
DLSS 2 benutzt keine Framegeneration (die ist neu in DLSS 3), diese erzeugt Fakeframes, die die Latenz nicht reduzieren. Das Video behandelt aber DLSS 2 weswegen dort die Latenz durch die erhöhte Framerate sinkt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: derin, _Cassini_, Booby und eine weitere Person
foo_1337 schrieb:
Schau dir doch bitte erstmal das Video an oder skippe es zumindest durch
In dem Video geht es um DLSS 2, dort werden im Gegensatz zu DLSS 3 überhaupt keine Frames hinzugerechnet. Thema verfehlt.
 
  • Gefällt mir
Reaktionen: derin, Ray Donovan, edenjung und eine weitere Person
Booby schrieb:
@foo_1337
Vielleicht können wir ja weiterreden, sobald du die Technik verstehst.
Dann hilf uns doch bitte.

Ich habe es so verstanden, dass aus zb:
60fps nativ erst mal zb 90 fps per DLSS 2.0 werden.
Mit DLSS3.0 werden dann daraus nochmal zb 120fps, aber mit dem Inputlag von weiterhin 90fps (dlss 2.0)
 
  • Gefällt mir
Reaktionen: owned139, BGnom und foo_1337
GERmaximus schrieb:
Dann hilf uns doch bitte.

Ich habe es so verstanden, dass aus zb:
60fps nativ erst mal zb 90 fps per DLSS 2.0 werden.
Mit DLSS3.0 werden dann daraus nochmal zb 120fps, aber mit dem Inputlag von weiterhin 90fps (dlss 2.0)
So ungefähr sollte das funktionieren, wobei im letzten Schritt wahrscheinlich eher von einer Verdopplung auszugehen ist, also 180Fps mit der Latenz von 90 FPS
 
  • Gefällt mir
Reaktionen: up.whatever und Booby
Sowas gab‘s doch mal per Treiber, aber da wurde meine ich zwei mal das identische Bild gerendert. Halb Sync oder sowas!?
144FPS mit 72fps Inputlag. War komisch und fühlte sich im Shooter total falsch an (habs aus gemacht)
Aber gut, in Games mit Pad Eingabe, oder wo es nicht auf gute Latenzen ankommt, sicherlich eine feine Sache
 
up.whatever schrieb:
In dem Video geht es um DLSS 2, dort werden im Gegensatz zu DLSS 3 überhaupt keine Frames hinzugerechnet. Thema verfehlt.
BGnom schrieb:
DLSS 2 benutz keine Framegeneration (die ist neu in DLSS 3), diese erzeugt Fakeframes, die die Latenz nicht reduzieren.
Nein, Thema nicht verfehlt. Die selbe Diskussion hatten wir hier im Forum schon zu genüge und da ist bei den DLSS Gegnern eine halbe Welt zusammengebrochen als sie akzeptieren mussten, dass die Latenz eben nicht hoch geht sondern sogar sinkt. Und passend zu DLSS 3 sagt nvidia:
When compared to native, DLSS 3 can reduce latency by up to 2X. (https://www.nvidia.com/en-us/geforce/news/dlss3-ai-powered-neural-graphics-innovations/)
Wieviel es am Ende wird, wird sich zeigen, aber es wird auf jeden Fall weniger als nativ sein.
Ergänzung ()

Booby schrieb:
Und warum verlinkst du ein Video zu DLSS 2? Versuchst du zu trollen?
Nein, weil der Benefit des Reducements von DLSS 2 bereits in 3 rein spielt.
 
GERmaximus schrieb:
Mit DLSS3.0 werden dann daraus nochmal zb 120fps, aber mit dem Inputlag von weiterhin 90fps (dlss 2.0)
Genau, der DLSS2-Teil von DLSS3 verbessert die Latenz, der Zusatzteil (die Interpolation) verbessert nichts (vermutlich verschlechtert es die Latenz sogar).
Daher kann man DLSS3 FPS nicht mit DLSS2 FPS und schon gar nicht mit nativ FPS vergleichen.
 
  • Gefällt mir
Reaktionen: Lamaan, FloX99, derin und 3 andere
foo_1337 schrieb:
When compared to native, DLSS 3 can reduce latency by up to 2X.
Genau, "when compared to native". Gegenüber DLSS 2 bleibt die Latenz gleich.
 
  • Gefällt mir
Reaktionen: Lamaan, lord.orth, derin und 7 andere
foo_1337 schrieb:
When compared to native, DLSS 3 can reduce latency by up to 2X. (https://www.nvidia.com/en-us/geforce/news/dlss3-ai-powered-neural-graphics-innovations/)
Wieviel es am Ende wird, wird sich zeigen, aber es wird auf jeden Fall weniger als nativ sein.
Ja weniger als Nativ aber nicht weniger als DLSS 2

DLSS 2: Bis zu doppelte FPS bei bis zu halber Latenz im Vergleich zu Nativ

DLSS 3: Bis zu vierfache FPS bei bis zu halber Latenz im Vergleich zu Nativ, Bzw. Doppelte FPS und gleich Latenz im Vergleich zu DLSS 2
 
foo_1337 schrieb:
Und passend zu DLSS 3 sagt nvidia:
When compared to native, DLSS 3 can reduce latency by up to 2X. (https://www.nvidia.com/en-us/geforce/news/dlss3-ai-powered-neural-graphics-innovations/)
Wieviel es am Ende wird, wird sich zeigen, aber es wird auf jeden Fall weniger als nativ sein.
Ich glaube es kommt hier auf Nvidias Formulierung an.

Die Reduzierung des Inputlags kommt nicht durch dlss3.0 zustande ,sondern bereits durch dlss2.0 worauf 3.0 aufbaut (ich verstehe es so, dass es nur 3.0 MIT 2.0 geben kann).

Also Nativ
Dann
DLSS 2.0 (2x besseren inputlag weil DLSS Performance Mode)
Und dann darauf nochmal
DLSS3.0 angewandt, was auf die 2.0 Verbesserungen nur noch aufbaut/durchreicht um dann mit der Frame Verdoppelung zu kommen
 
  • Gefällt mir
Reaktionen: BGnom und foo_1337
Mach dich nicht lächerlich. Hier geht es um die Neuerungen von DLSS 3, die Vorteile von DLSS 2 gegenüber native sind kalter Kaffee.
 
Booby schrieb:
Genau, der DLSS2-Teil von DLSS3 verbessert die Latenz, der Zusatzteil (die Interpolation) verbessert nichts (vermutlich verschlechtert es die Latenz sogar)

Habe irgendwas von nur einen Frame aufgeschnappt an Verschlechterung durch 3.0

Somit kann 3.0 Nur mit 2.0 funktionieren, sonst wäre es ja ein grausiges Spielgefühl.
 
up.whatever schrieb:
Mach dich nicht lächerlich. Hier geht es um die Neuerungen von DLSS 3, die Vorteile von DLSS 2 sind kalter Kaffee.
Er schrieb:
Wie im anderen Thread schon geschrieben, das ist einfach nur Mist. Das gleiche wie seit Jahren bei den Fernsehern. Das berechnete Bild ist Fake, stammt nicht von Engine, man hat keinen Vorteil bei der Latenz. Diese 100FPS sind nicht mal im Ansatz mit echten 100FPS vergleichbar.
Woher soll ich anhand dieses Postings wissen, dass er nicht einer der üblichen "DLSS ist scheisse" Trolle hier im Forum ist? Wenn man das ohne Kontext liest, geht man von DLSSv3 vs Native aus und nicht von DLSSv3 vs DLSSv2.

Aber wenn das so ist, haben wir offenbar nur aneinander vorbei geredet. Ist halt immer besser, wenn man im Posting alle nennenswerten Details angibt.
 
  • Gefällt mir
Reaktionen: FloX99 und BGnom
Außerdem haben DLSS2 100FPS minimal höhere Latenz als 100FPS nativ. Durch DLSS2 kommen aber höhere FPS raus, was den Offset überkompensiert.
GERmaximus schrieb:
Somit kann 3.0 Nur mit 2.0 funktionieren, sonst wäre es ja ein grausiges Spielgefühl.
Richtig DLSS3 = DLSS2 + Interpolation.
Daher bekommen die alten RTX weiterhin DLSS2.
 
  • Gefällt mir
Reaktionen: derin und foo_1337
Jetzt verstehe ich auch endlich wie die die Framerate im CPU Limit steigern wollen. Nämlich gar nicht, die CPU rendert nicht einen FPS mehr, es werden nur mehr FPS angezeigt.
Eigentlich müsste man dabei zusagen, dass interpolierte Frames sind, ohne Latenz Zugewinn.

Fühlt sich gerade so ein wenig wie die Module von Bulldozer an und dessen Interpretationsspielraum.

Aber warten wir mit der Mistgabel erst mal, wie es in Natura tatsächlich wirkt
 
  • Gefällt mir
Reaktionen: Lamaan, derin, ComputerJunge und 2 andere
@foo_1337
Gut dann sind wir uns hoffentlich einig, dass die DLSS3 Neuerungen beim Gameplay keinen Mehrwert bieten?
 
  • Gefällt mir
Reaktionen: Lamaan, FloX99, BGnom und 2 andere
Zurück
Oben