News Nvidia DLSS 3: Frame Generation ist mit AMD FSR und Intel XeSS nutzbar

Seit gestern ist FSR2 ja auch im MSFS verfügbar. Ich muss sagen dort hält sich der Spaß in Grenzen und verursacht hier und da grausames Ghosting was das Teil teils unbrauchbar macht. Meist ist der FluSi bei mir eh CPU-bound. Hier könnte ich mir zwar vorstellen, dass auch solche Zwischenbilder helfen, aber im Endeffekt ist es alles auch nur Augenwischerei - und vor allem macht es die Leistung der Grafikkarten noch schwerer vergleichbar. Denn die FPS die da hinten rauspurzeln sind für mich nur "virtuell". Chancen sehe ich da eher in der Videoübertragung, denn da könnte man doch mit beiden Technologien (Upscale + Zwischenbilder) Bandbreite sparen.
 
  • Gefällt mir
Reaktionen: pipip
.Sentinel. schrieb:
Also was gerade nVidia in Sachen AI, Raytracing usw. an Forschung frei zugänglich gestellt hat, ist mehr als beachtlich.
Sie sind eigentlich in allen diesen Segmenten Technologieführer. Nichtmal Apple oder Google oder Intel sind hier nur nahe dran.

Alles, was unsere Gamingerlebnisse daher schöner und schneller macht, sollten wir begrüßen, finde ich.
Egal durch wen.
 
  • Gefällt mir
Reaktionen: one2know, gartenriese und .Sentinel.
J@kob2008 schrieb:
Was nützt mir glatteres FPS Verlauf, wenn Reaktion meines Rechners auf meine Eingaben über Maus und Tastatur nur tatsächlich gerenderte Bilder ansteuern/ansprechen kann?
Dafür fallen mir tatsächlich Anwendungsgebiete ein.
Es gibt ja schon so einige Spiele, wo es trotz eigentlich ausreichender FPS irgendwie trotzdem etwas unruhig wirkt.
Wenn man diese FPS mit Frame Generation nun gefühlt verdoppelt, wirkt das Bild dann glatter, während der Input Lag, wenn man z.B. von 60FPS nativ kommt, auch nicht in unspielbare Regionen hoch schießt.

Und gerade bei SP Spielen wo man keine schnelle Reaktion braucht, ist es mir eigentlich ziemlich egal, ob ich nun 50ms oder 80ms Input Lag habe, wenn ich mit den 80ms dafür ein geschmeidigeres Bild habe.

Ein anderer Anwendungsfall: Man tauscht niedrigere Latenz gegen deutlich geringeren Verbrauch. 120FPS Nativ gegen 60FPS Limit + FG, womit man wieder "gefühlt" 120FPS hat, aber den Verbrauch von 60 und die Latenz von ~40FPS. Wieder, bei langsamen SP Spielen kein Problem.
Dann kann man noch 60FPS Limit + DLSS2 Quality + FG machen und hat bei empfundenen 120FPS nicht nur die Latenz sondern sogar den Verbrauch von 40FPS.

Ich hatte Cyberpunk damals auch mit 50-60FPS und einem Input Lag von ca 70ms gespielt und nicht das gefühl gehabt, dass mich das beeinträchtigt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82, gartenriese, .Sentinel. und eine weitere Person
J@kob2008 schrieb:
In meinen Augen ist es Cheating/Augenwischerei. Was nützt mir glatteres FPS Verlauf, wenn Reaktion meines Rechners auf meine Eingaben über Maus und Tastatur nur tatsächlich gerenderte Bilder ansteuern/ansprechen kann?
Weil das Auge aufs Framepacing bzw. die Bildabfolge reagiert. Es wird durch die FG schlicht der optische Apparat mit hoher Effizienz und energiesparend versorgt.
Zudem wird immer wieder unter den Tisch gekehrt, dass Nativ im Gegensatz zu DLSS3 inkl FG im Normalfall einen höheren Input- Lag ausweist.
Bis jetzt scheinen also alle Spiele unspielbar gewesen zu sein....

Auch wird hier ausgeblendet, dass man die Tickrate des Pollings der Engine bei aktivierter FG erhöhen kann und unter Berücksichtigung der Motion Vektoren eine adäquate Bildverschiebung des FG generierten Bildes erreichen kann, die der Eingabe des Users entspricht.
Das wird auch kommen (in der VR wird das schon genutzt). Wir sind hier V1...
Das scheinen einige zu vergessen.
Ergänzung ()

Laphonso schrieb:
Sie sind eigentlich in allen diesen Segmenten Technologieführer. Nichtmal Apple oder Google oder Intel sind hier nur nahe dran.
nVidia hat mit Quake 2 Pathtraced alles an Technologie und Programmierung offengestellt, was sie bis dahin in Sachen realtime- RT hatten. Inkl. effektiver denoising- Algorithmen. Und das wirklich frühzeitig.
Man kann nVidia sicher vieles vorwerfen, aber was die an Software und Forschung offen zur Verfügung stellen ist ein x- Faches von dem, was von der Konkurrenz kommt.
Das sollte halt auch mal anerkannt werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: one2know, Lübke82, cruse und 7 andere
J@kob2008 schrieb:
Ich verstehe nicht den Sinn hinter der ganzen Geschichte mit Nvidias DLS und wie immer es bei AMD heißen wird. Eine totale Fehlentwicklung. In meinen Augen ist es Cheating/Augenwischerei. Was nützt mir glatteres FPS Verlauf, wenn Reaktion meines Rechners auf meine Eingaben über Maus und Tastatur nur tatsächlich gerenderte Bilder ansteuern/ansprechen kann?
DLSS, FSR und XeSS an sich haben keinen negativen Einfluss auf die Reaktion bei Eingaben. Da siehst sind 100% der Frames auch wirklich gerendert - es wird einfach nur in einer geringeren Auflösung gerendert für mehr FPS und dann hochskaliert. Was Frames "hinzudichtet" ist einzig das Zusatzfeature "Frame Generation" von DLSS3.

Und was heißt cheaten? Irgendwo hat die Physik auch Grenzen, wie leistungsfähig man Grafikchips noch machen kann. Fertigungstechnik geht so langsam nicht mehr kleiner bzw. nur mit extremem Aufwand. Anders geht es eben nicht, wenn man irgendwann beispielsweise 4K mit 60+ fps inkl. Raytracing nativ rendern will. Ohne solche Techniken bräuchten wir vermutlich Grafikkarten mit riesigen (und teuren) Grafikchips, die eine TDP von 800W und mehr haben.
 
Hat Nvidia nicht bei der Vorstellung gesagt, dass man die neuen Dinge der 4000er Serie benötigt und deswegen es nicht auf den 3000er Karten kommt? Jetzt kann ein guter Youtuber einfach Frame Generation mit allem kombinieren und es funktioniert?

Großes Lob mal wieder an Igor, hat immer wieder interessante Sachen als erstes, weltweit!
 
Ayo34 schrieb:
Hat Nvidia nicht bei der Vorstellung gesagt, dass man die neuen Dinge der 4000er Serie benötigt und deswegen es nicht auf den 3000er Karten kommt? Jetzt kann ein guter Youtuber einfach Frame Generation mit allem kombinieren und es funktioniert?
Igor benötigte dafür auch die RTX 4090 und ja es geht theoretisch auch auf 3000er Karten, nur langsamer
 
Laphonso schrieb:
Wäre ja cool, wenn bereits in 4 Jahren (statt in 8 oder 10 Jahren bis Rohpower das erlaubt) dank Rekonstruktion+UpScaling+GF bei den Low End GPUs ein full Pathtracing (derzeit haben wir Hybridmodelle! Kein full Ray Tracing) in 4K oder 5K im 80-90 fps Bereich ermöglichen.

Etwa 0,5 FPS in 4k bei 64 Samples per Pixel (SPP). Ich glaube da sind wir noch sehr weit von 80-90 FPS entfernt. :D

Etwas später im Video macht er es noch mit 128 SPP, was bereits 23 Sekunden dauert. Laut Wikipedia benötigt es allerdings etwa 5000 SPP für ein rauscharmes Bild. Mit KI kann man das Rauschen zwar stark reduzieren, aber so um die 1000 SPP werden wohl notwendig sein.

Das wird sicherlich noch 20 Jahre dauern.
Bis dahin sind vermutlich schon viele auf 8k-16k umgestiegen.
 
  • Gefällt mir
Reaktionen: one2know, Haldi, Recharging und eine weitere Person
S.Kara schrieb:
Das wird sicherlich noch 20 Jahre dauern.
Bis dahin sind vermutlich schon viele auf 8k-16k umgestiegen.
Theoretisch würde das auch schon eher gehen, nur müsste man dafür das Konzept, wie GPUs funktionieren, komplett umstellen. Also komplett weg von der derzeitigen Rasterizer-Pipelin mit Raytracing-Zusatz hin zu reinen Raytracing/Pathtracing GPUs.
Dann hätte man aber das Problem, dass die Karten auch nur für Spiel taugen, die komplett mit Raytracing rendern und alle "klassischen" Spiele wären damit nicht mehr spielbar.
 
S.Kara schrieb:
Das wird sicherlich noch 20 Jahre dauern.
Bis dahin sind vermutlich schon viele auf 8k-16k umgestiegen.
oh dear :D

Ja, die Auflösunge werden steigen, aber am Ende sorgen dann doch die "Effekte" für den Realismus, nicht die Pixeldichte.

Aber dann sieht man ja, dass wir noch viel vor uns haben. Und viele teure GPUs 😅
 
  • Gefällt mir
Reaktionen: S.Kara
Ich verstehe hier wieder die ganze Aluhutfraktion nicht. Ada ist nun mal schneller als die Architekturen davor und deshalb ist ein Feature möglich, welches auf älteren Karten zwar auch funktionieren würde, aber eben nicht zu dem gewünschten Ergebnis führt.

Kannst ja auch einen Direct3D Emulator in Software schreiben und mit viel Aufwand (und wenn man die Doku hätte) einen Wrapper für den ganzen Nvidia Kram, aber erwarte nicht viel mehr als eine Dia-Show.

Es gibt einen Grund warum heute CPUs/GPUs komplexer sind, das ist nicht nur dem Stromverbrauch geschuldet.
 
  • Gefällt mir
Reaktionen: one2know
Naja, das hat ein PCGH-Redakteur schon vor Wochen im 3DC-Forum gepostet. Hat es wohl nicht weiter verfolgt, weil er von einem Bug ausging.
Igor hat es herausgefunden, aber nicht nur er
 
RogueSix schrieb:
nVidia hat schon in der Q&A zur Vorstellung der RTX 4000er Serie davon gesprochen, dass es mit mehr R&D eventuell auch in älteren Generationen implementierbar wäre. Die große Frage ist aber, ob das überhaupt Sinn macht, denn die hardwareseitige Unterstützung der RTX 4000 Serie haben die alten Generationen halt einfach nicht und was bringt einem DLSS 3 bzw. Frame Generation auf einer RTX 3080, wenn das dann vor sich hin zuckelt?

Hier das relevante Zitat aus der nVidia Q&A (wäre schön, wenn die üblichen Hater-Trolle das mal lesen würden statt hier nur weiter Gülle auszukippen ;) )...
Es ist aber nicht von Frame Generation als Feature für die älteren Generationen die Rede sondern von der überarbeiteten und integrierte Reflex Version und DLSR. Auch hat sich der Text auf Reddit irgendwie etwas in einpaar Worten geändert zum hier zitierten Text scheinbar.
 
Laphonso schrieb:
Wäre ja cool, wenn bereits in 4 Jahren (statt in 8 oder 10 Jahren bis Rohpower das erlaubt) dank Rekonstruktion+UpScaling+GF bei den Low End GPUs ein full Pathtracing (derzeit haben wir Hybridmodelle! Kein full Ray Tracing) in 4K oder 5K im 80-90 fps Bereich ermöglichen.
Du erkennst das Problem nicht: Input-Lag. Die dargestellten FPS sind nicht das Problem
 
Es stand doch schon fest, das man FG auch ohne DLSS2 nutzen kann, warum also nicht mit FSR?
 
DrFreaK666 schrieb:
Du erkennst das Problem nicht: Input-Lag. Die dargestellten FPS sind nicht das Problem
Irrelevant im Singleplayer, und es gibt Reflex.
Bei 30 fps nützt FG nichts, da ist dann DLSS dran oder FSR.

Bei 60 ist das "Inputlag" wie bei 60 fps
EDIT: Mein Irrtum, es ist etwas schlechtere Response analog 60 fps, logischerweise
man hat dann aber im bestcase 100-120 Frames.
Ist doch perfekt 👍

Beispiel aus dem Reddit:
If you have 100 fps on traditional render, you have X ms latency.
If you have 200 fps on FG render, you have X+ 2ms + 5ms latency.


2ms is just a placeholder for how long it takes for the interpolation magic and 5ms is because you have 200 fps so every other frame is fake, and does not contain your click, mouse move etc...

Digtital Foundry hat das gut dargestellt in Spiderman.
Der Tester merke gar nicht, dass es an war und erwartete das Input Lag. Das nicht kam ;)
Ergänzung ()

theGucky schrieb:
Es stand doch schon fest, das man FG auch ohne DLSS2 nutzen kann, warum also nicht mit FSR?
Ja, zumal in Cyberpunk das alles jeweils selektiv ist im menü. Also überraschend ist das nicht wirklich.
 
Zuletzt bearbeitet:
Laphonso schrieb:
Anhang anzeigen 1282940
Kein Wunder, dass das vorerst RTX40xx exklusiv ist.
Was so ziemlich dem Resultat aus Igor's test entspricht!
1668295590087.png

1668295601113.png


124FPS sind 8ms 167fps sind 6ms.
mit der 3090Ti käme man hingegen NICHT über 124FPS raus.
Hingegen wenn das Spiel nur mit 60FPS läuft, was 16ms sind, würde man dann trotzdem noch auf rund 100-120FPS kommen.
Aber vermutlich spielen da noch ganz andere effekte mit von denen wir nichts wissen.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Laphonso
@0ssi In allen. In Plague Tale: Requiem hab ich es selber schon ausprobiert.
 
Und was lässt sich da so herzaubern, wenn man die Zutaten kombiniert? Überflüssig viele FPS auf Kosten der Bildqualität? :)
 
Zurück
Oben