News Ada Lovelace: Nvidia DLSS 3 soll bis zu 4× mehr FPS als nativ liefern

Booby schrieb:
@foo_1337
, dass die DLSS3 Neuerungen beim Gameplay keinen Mehrwert bieten?
Zumindest bei allen Games wo die Eingabe Geschwindigkeit / Gefühl relevant ist.

Anno und co sind sicherlich super dlss3.0 Kandidaten.
 
  • Gefällt mir
Reaktionen: BGnom
Haldi schrieb:
Nun mit nVidias Ansatz haben wir nur noch die Latenz der Bearbeitungszeit die dazu kommt.
Allerdings haben wir ein FakeBild.
Es hilft nur zur flüssigen Darstellung der Bildwiedergabe, sämtliche Inputs die in dieser Zeit gemacht werden, werden nicht registriert.

Die Frage die bleibt, wie gut wird das ganze funktionieren. Temporäre verfahren funktionieren zwar gut mit höheren FPS.
Aber was passier in Bewegung am Bildschirmrand? Die informationen sind ja nicht vorhanden, oder bei verdeckten objekten? Wird das Bild wieder Nvidia typisch weichgezeichnet? Und bekommen wir im schlimmsten fall einen "soap opara" effekt ind spielen? :kotz:

E: Und sind das am Ende überhaupt richtige FPS? Input kann ja nicht verarbeitet werden.
 
  • Gefällt mir
Reaktionen: derin
foo_1337 schrieb:
FSR 2.0 != FSR 1.0
Ok, um ehrlich zu sein habe ich mich nicht so tief beschäftigt weil fast alle Spiele, die FSR nativ unterstützen auch das bessere DLSS unterstützen, aber ist FSR nicht auch mathematisch basiert also müsste da nicht auch eine generelle 2.0 Anbindung möglich sein?
(Ja, ich weiß dass neuronale Netze auch mathematisch basiert sind aber mein Punkt ist klar)
 
Jetzt mal noch eine andere Frage, wenn ich in einen fps lock komme, welche fps werden dann reduziert?

Die geränderten, oder die angezeigten?

Beispiel:
60fps nativ
90fps 2.0
100fps lock mit DLSS 3.0
Ich hätte also 10 „künstliche“ fps
Wird das strickt so gekappt, oder reduzieren sich die DLSS 2.0 Frames ebenfalls, weil 3.0 einen gewissen Faktor benötigt?
 
  • Gefällt mir
Reaktionen: FloX99, up.whatever, Ardadamarda und eine weitere Person
GERmaximus schrieb:
Ich hätte also 10 „künstliche“ fps
Wird das strickt so gekappt, oder reduzieren sich die DLSS 2.0 Frames ebenfalls, weil 3.0 einen gewissen Faktor benötigt?
Würde denken dass dann die DLSS 2 Frames auf 50 gekappt werden, weil das sonst die Gleichmäßigkeit der Frametimes zerschießen könnte. Aber wie es wirklich ist wird man sehen wenn es Tests gibt.
 
  • Gefällt mir
Reaktionen: foo_1337
Im worst case hast du diese 10 fake Frames und wunderst dich über ein komisches Gefühl bei der Eingabe.

Hoffentlich wird das hinreichend getestet.

Komisch eigentlich, nachdem Nvidia so auf Inputlag bei der letzten Gen(?) gepocht hatte, auch mit dem komischen Sensor um das zu messen.
 
  • Gefällt mir
Reaktionen: derin und BGnom
Schön und gut. Wobei, schön ist DLSS nicht und als nicht offene Lösung auch nicht gut. Verstehe den Hype nicht, bisher sah einfach alles schlechter aus damit.
 
GERmaximus schrieb:
Beispiel:
60fps nativ
90fps 2.0
100fps lock mit DLSS 3.0
Ich hätte also 10 „künstliche“ fps
Wird das strickt so gekappt, oder reduzieren sich die DLSS 2.0 Frames ebenfalls, weil 3.0 einen gewissen Faktor benötigt?
@Wolfgang bitte unbedingt sowas testen
 
  • Gefällt mir
Reaktionen: timmey77, Ardadamarda, BGnom und 2 andere
Rickmer schrieb:
Als Entwickler würde ich FSR wählen - außer, nvidia winkt mit einem großen Pott an Geld.
Für den Entwickler ist es erst einmal entscheidend wie einfach er etwas implementieren kann. Wenn beides nur einen Klick entfernt wäre, dann würden heutzutage alle Spiele beides mitbringen, aber scheinbar ist dem nicht so.
 
whyme schrieb:
Aber was passier in Bewegung am Bildschirmrand? Die informationen sind ja nicht vorhanden, oder bei verdeckten objekten? Wird das Bild wieder Nvidia typisch weichgezeichnet?
Wahrscheinlich bedeutet es, dass das nächste Bild abgewartet wird. Vielleicht hat man aber auch was Schlaueres überlegt. Aber ich gehe stark davon aus, dass entweder der InputLag steigt oder man hat Artefakte (die keine AI der Welt übertünchen kann).

In jedem Fall ist es einfach lächerlich, dass Nvidia DLSS2 und DLSS3 direkt miteinander vergleicht.
 
whyme schrieb:
Und sind das am Ende überhaupt richtige FPS? Input kann ja nicht verarbeitet werden.
Das und die anderen Bemerkungen zum Lag- Die Taktung des Polls bzw. der Verarbeitung eines Inputs kann sich Engine Intern von der Bildschirmausgabe unterscheiden.
Da DLSS 3 auch die künstlich generierten Frames aus echten Szenendaten speist, deren Pixel nach der Steuereingabe den Endpunkt ihres Vektors finden (egal ob nativ oder hochgerechnet), kann sich natürlich auch der Inputlag rein durch interpolierte Bilder senken.
In VR ist das mittels Motion smoothing/Motion interpolation/asynchronous spacewarp schon lange erfolgrech im Einsatz.
 
  • Gefällt mir
Reaktionen: rumpeLson, owned139 und Haldi
@.Sentinel.
Es gibt keinen Feedback-Loop zu der Game-Engine. Deswegen steigt die CPU-Last auch nicht.
 

Anhänge

  • Bildschirmfoto 2022-09-20 um 22.47.16.jpg
    Bildschirmfoto 2022-09-20 um 22.47.16.jpg
    246 KB · Aufrufe: 215
Gigalodon schrieb:
aber ist FSR nicht auch mathematisch basiert also müsste da nicht auch eine generelle 2.0 Anbindung möglich sein?
Nein, das ist nicht so einfach möglich. FSR 1.0 war eine reine Post Processing Lösung, FSR 2.0 braucht Informationen wie Bewegungsvektoren für die Interpolation. Die kriegt man ohne explizite Engine-Integration nicht.

h3@d1355_h0r53 schrieb:
Verstehe den Hype nicht, bisher sah einfach alles schlechter aus damit.
Das ist halt einfach objektiv falsch. Klar gibt es hier und da mal Grafikfehler, aber genau so gibt es Szenen und Spiele, wo DLSS 2 und FSR 2 auf Quality ein detailreicheres und ruhigeres Bild als nativ hinkriegen.
 
  • Gefällt mir
Reaktionen: derin, _Cassini_, Gigalodon und 2 andere
Booby schrieb:
@.Sentinel.
Es gibt keinen Feedback-Loop zu der Game-Engine.
Den gibt es laut Diagramm in Richtung DLSS2 auch nicht...

Booby schrieb:
Deswegen steigt die CPU-Last auch nicht.
Genau - Das hat aber nichts mit der Reaktion des Outputs und einer rein auf vorhandenen Daten basierenden Verschiebung des Viewports unter Berücksichtigung des aktuellen "headings" zu tun.
Gerade weil die Pipeline der Engine durch synthetisieren entlastet wird, kommt ein besseres pacing zustande.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: owned139
Es gab ja schon Gerüchte das Nvidia den Fokus eher auf ein "Feature" legen würde als auf die tatsächlich Hardware. Es ist also DLSS 3.
Auf der einen Seite wird es vermutlich schon funktionieren so wie eben im Grunde alles von Nvidia schon funktioniert. Wobei ich mich frage ob es sich nicht noch deutlicher in der Bildqualität niederschlagen wird.
Auf der anderen Seite ist es halt mal wieder ein proprietäre Technik die Nvidia sobald sie was anderes gefunden haben langsam vergessen werden.
DLSS 2 war nicht mehr gut genug, weil AMD mit FSR 2 im Grunde genommen gleichgezogen hat und das ganz ohne Hardwarebindung. Kein echtes Alleinstellungsmerkmal mehr.
Vor DLSS war es G-Sync was Heute auch nur noch ihre Marke für Adaptive-Sync ist. Und dann war da ja GameWorks welches die Performance absichtlich sabotiert hat nur weil es AMD stärker sabotierte...

Am Ende schadet es Nvidia nicht wirklich. FSR läuft auch bei ihnen also haben sie "mehr" zu bieten als AMD.
Und den Enthusiasten ist es egal, "mehr" ist für sie "mehr". Und durch die wird diese wird das Image der MArke geprägt.
Die Maße kauft dann das Mid-Range Model obwohl dieses vielleicht der Konkurrenz vollkommen unterlegen ist einfach nur weil Nvidia draufsteht. Wäre ja nicht das erste mal.

Ich vermute das wenn man DLSS 3 aus lässt sich die echte Leistung der Grafikkarte in etwa auf dem Niveau der 7000 Serie von AMD bewegen wird. So wie eben "immer".
Alle kochen nur mit Wasser. Sei es nun Intel, AMD oder Nvidia. So lange die da alle ihre Hausaufgaben machen ist es unwahrscheinlich das der eine den anderen plötzlich vollkommen im Regen stehen lässt.
 
  • Gefällt mir
Reaktionen: Lamaan, Synxalot und Sun-Berg
Serphiel schrieb:
DLSS 2 war nicht mehr gut genug, weil AMD mit FSR 2 im Grunde genommen gleichgezogen hat und das ganz ohne Hardwarebindung.
DLSS 2 ist FSR2 überlegen. Gerade die Grafikfetischisten, die Lupensuchend auf dem Bildschirm Pixel zählen, haben schon mit der Akzeptanz von DLSS 2.x gerungen. Ein noch Artefaktbehafteteres FSR2 ist eben dann für viele keine Alternative, wenn das andere schon als grenzwertig empfunden wurde.

Verstehe ich persönlich zwar nicht, da ich auch mit FSR 2 bestens leben kann, aber manche hören ja auch das Gras wachsen ... :)
Hat halt jeder so seine eigenen Ansprüche.
 
  • Gefällt mir
Reaktionen: FloX99, Ray Donovan, Gerithos und 6 andere
Die Technik wird besser und die Spiele schlechter. Oft funktioniert DLSS ja nichtmal wirklich, wie zb. in Battlefield 2042. Wenn ich mal so drüber nachdenke hab ich dieses Jahr vielleicht 1-2 Spiele gespielt in denen man DLSS wirklich sinnvoll nutzen konnte.

Und dann kommt man mit DLSS 3.0 xD
 
Ich liebe jetzt schon die semi-seriösen News-Titel anderer Hardwareseiten / Magazine:
RTX 4080 ist vier mal so schnell!!!! :rolleyes:
DLSS 3.0 ist halt gut, aber viel schneller rechnen muss die RTX 4080 ja ggf. nicht, man trickst sich mit guter AI drum rum. Wie gut das genau funktioniert lasse ich mir aber auch lieber von unabhängigen Testern verraten :D
 
und in 6monaten geht dlss3 auch auf 3060, aber bis dahin ist alles vergeben und vergessen...irgendwie...

ueberbewertete effekthascherei, 3d artists drehen sich seit dllss1 bereits im grab um, bzw. ignirieren dlss- aber der gamer braucht ja nur fps
 
Zurück
Oben