News Nvidia DLSS 3: Frame Generation ist mit AMD FSR und Intel XeSS nutzbar

@Serandi Als ich nur Frame Generation, ohne DLSS etc. genutzt habe, hab ich außer mehr FPS keinen Unterschied in der Bildqualität oder was die Latenz betrifft wahrnehmen können.
 
J@kob2008 schrieb:
Eine totale Fehlentwicklung. In meinen Augen ist es Cheating/Augenwischerei. Was nützt mir glatteres FPS Verlauf, wenn Reaktion meines Rechners auf meine Eingaben über Maus und Tastatur nur tatsächlich gerenderte Bilder ansteuern/ansprechen kann?
Würde das komplette Gegenteil behautopten.

Im MSFS habe ich sehr oft CPU limitierte FPS. Teils bis zu 35 runter. nun knipse ich Frame Generation an und boom -) von 40 auf 100 FPS oder so. Und der Hammer ist: Ich merke wie smooth alles ist. Schnell die Sicht wechseln oder mit der Drohne über Newyork. Super smooth, gefühlt wie echte FPS.
und das im CPU Limit! Die 4090 hat mal aus meinem 12900k ein 15900k gemacht :D

Von Latenz merke ich nix. Und die Benches sagen das mal so 20-30ms verloren gehen an Latency..Pff. selbst in Shootern (COD mal ausgenommen) nicht schlimm.

Problem is nur ich muss unter 117 FPS bleiben (sonst gibs tearing) und der Frame Limiter funzt derzeit nicht mit dlss3. Naja DLAA halt angemacht, zur not auf 5-6K hochskalieren geht auch :)
 
  • Gefällt mir
Reaktionen: one2know, Lübke82, lubi7 und eine weitere Person
Laphonso schrieb:
Bei 30 fps nützt FG nichts
Darauf wollte ich hinaus. Du sprachst ja von Low End GPUs. Was bringen mir von 30FPS hochskalierte FPS?
 
  • Gefällt mir
Reaktionen: Lübke82
Laphonso schrieb:
Bei 30 fps nützt FG nichts, da ist dann DLSS dran oder FSR.
Mach mal bei Bright Memory:Infinite den Framecap auf 30 und stell die FG an.
Dann werden mit FG dann 60 FPS ausgegeben. Funktioniert erstaunlicher Weise einwandfrei und ohne spürbare Fehler.
 
  • Gefällt mir
Reaktionen: Laphonso
catch 22 schrieb:
Riechkolben in die nass kalte Novemberluft streck und erratisch Luft einzieh
ich glaub... ja... das müffelt nach einem dringend erforderlicher Sicherheitspatch von Nvidia, der leider eine gewisse Kooperation eines Nvidia Features mit Drittanbieter Lösungen minimal einschränkt...
Nope. Igor war laut Bericht selbst so sehr überrascht das er bei NV angefragt hat. Und die meinten es sei kein Bug sondern ein Feature...
Ja dann sehen wir mal ob das in Zukunft stimmt...
 
Garack schrieb:
Würde das komplette Gegenteil behautopten.

Im MSFS habe ich sehr oft CPU limitierte FPS. Teils bis zu 35 runter. nun knipse ich Frame Generation an und boom -) von 40 auf 100 FPS oder so. Und der Hammer ist: Ich merke wie smooth alles ist. Schnell die Sicht wechseln oder mit der Drohne über Newyork. Super smooth, gefühlt wie echte FPS.
und das im CPU Limit! Die 4090 hat mal aus meinem 12900k ein 15900k gemacht :D

Das werden dir die Dunkelroten aber nicht glauben,
es muss immer alles von der Konkurrenz kaputt geredet werden -bis man es selber hat.

Ich freue mich für dich gerade in Verwendung des MSFS, geht nem Kumpel ähnlich.

AMD "Fans" sind mittlerweile keine Kunden mehr sondern religiöse Anhänger,
es gibt keine INTEL oder NVIDIA News mehr die nicht gekappert wird.
 
  • Gefällt mir
Reaktionen: Lübke82 und CrustiCroc
mibbio schrieb:
Von daher hat die Erkenntnis einen recht geringen Mehrwert, denn warum sollte jemand mit einer RTX 4000 FSR oder XeSS (mit Frame Generation) nutzen, wenn er auch direkt DLSS nehmen kann?
Weil es vielleicht in Zukunft Titel gibt wo z.B. nur FSR umgesetz wurde?
 
@Hutzeliger
na was ein Glück dass dein Beitrag so vor Objektivität strahlt und so gar keine Nvidia Fanboy Vibes ausstrahlt...

p.s.
eine 4090 die im FS runter auf 35FPS geht? Da muss irgendwas ganz gewaltig falsch laufen. Ich kann kaum glauben, dass man dafür 2000+ Euro raushaut, wenn eine "billige" 3080(ti) / 6900xt in UHD Brainless Ultra Settings ohne Upscaling Technologie bereits um die 35FPS raushaut und man mit vernünftigen "optisch höchstens im Standbild unterm Elektronenmikroskop erkennbar schlechteren Settings" bei den "älteren schwächeren" Karten im Wurscht-Käs Szenario auf 40 bis eher 45 FPS (immer noch ohne Upscaling) in UHD kommt.
 
J@kob2008 schrieb:
In meinen Augen ist es Cheating/Augenwischerei.
ja ist es. Bei der Spieleentwicklung wird aber schon immer getrickst wo es nur geht. Für mich ist das nur der nächste logische Schritt. Anders kann Nvidia oder AMD mit der rasante Entwicklung bei der Displaytechnologie nicht mithalten, wenn gleichzeitig die Fortschritte bei der Chipfertigung langsamer werden.
 
  • Gefällt mir
Reaktionen: Coeckchen
Alleine diese Aussage von Catanzaro reicht doch. Genau darauf wollte wir quasi hinaus. Es ist sicher möglich, es wird möglicherweise was bringen, aber nicht soviel, wie bei den 4000er Karten. DLSS3 abgespeckt. Damit wäre ich zufrieden.
 
Das Feature ist perfekt für "kleinere" GPUs. Die haben genug Power, die Kompetitiv-Games mit 144FPS und mehr darzustellen. Wenn man dann mal bock auf ein Cyberpunk mit viel FPS und hoher Auflösung möchte, geht dies auch.

Ich denke bis AMD mit einer ähnlichen Lösung ankommt, wird es auch nicht mehr lange dauern.
 
catch 22 schrieb:
scnr... zumindest bis die Realität meinen lustig gemeinten aber ziemlich flachen Witz aus dem Leben tritt... ab dann dürft ihr es gerne als kassandrische Satire interpretieren und mich dann bitte ob meiner Weisheit feiern...
;-)
Vllt wird NV ja endlich Marktoffen und fördert das Zusammensein.. Spannend finde ich, wenn es auf FSR2.1 und XeSS (welches beide ja dem Quelloffenen sehr Nahe kommen) geht, müsste es dann nicht auch mit Ampere GPU gehen?
 
S.Kara schrieb:
Etwas später im Video macht er es noch mit 128 SPP, was bereits 23 Sekunden dauert. Laut Wikipedia benötigt es allerdings etwa 5000 SPP für ein rauscharmes Bild. Mit KI kann man das Rauschen zwar stark reduzieren, aber so um die 1000 SPP werden wohl notwendig sein.

Das wird sicherlich noch 20 Jahre dauern.
Bis dahin sind vermutlich schon viele auf 8k-16k umgestiegen.

Wenn man aus den letzten Jahren Computergrafik eines gelernt hat, dann ist es, dass Probleme nicht nur mit Rohleistung, sondern vor allem mit effizienteren Verfahren gelöst werden.

Vor 10 Jahren hätte auch keiner für möglich gehalten, dass man heute mit AntiAliasing sogar noch performance gewinnt, anstatt sie mindestens zu halbieren. (DLSS/FSR vs SSAA)

Zudem sind 8 bzw. 16K völlig sinnfrei und zumindest 16K wird sich niemals in der aktuellen Form durchsetzen können.

Ich habe hier einen 65 Zoll OLED und kann da zum zocken beliebig nah ran. Das macht aber keinen Sinn, weil das Bild einfach zu groß wird. Heißt das Verhältnis aus Abstand zu Diagonale hat irgendwo ein limit. Machst du das Display größer, musst du ab nem gewissen Punkt also zwangsweise weiter weg. Hast du also den Punkt erreicht, wo die Auflösung ausreicht und limitiert durch deine Sehkraft eine weitere Steigerung der Auflösung keinen Schärfegewinn mit sich bringt, ist eine weitere Steigerung, egal bei welcher Diagonale/Abstand nicht mehr notwendig.

Bei 4K sind wir bereits an einem Punkt der diminishing returns, selbst DLSS Quality mit seinen internen 1440p sieht kaum schlechter aus als native 4K.
Klar, 4K ist noch nen Stück schärfer, aber bereits 8K ist ja einer vervierfachung der Pixelanzahl, was kompletter overkill wäre und ja quasi nochmal einer Verdichtung der Pixel wie von 1080p auf 4K entspricht.

16K wäre dann nochmal 4x die Pixelzahl von 8K.

Selbst 8K hat also schon mindestens doppelt so viel Puffer an Pixel wie wir vermutlich jemals brauchen werden. (wie gesagt, 4x 4K)
Irgendwann ist halt schluss und ich bin mir ziemlich sicher, dass das spätestens mit 8K auch für alle Zeit so sein wird. Zumidnest wenn wir von klassischen, rechteckigen Displays sprechen.

Linus Techtips hat darüber vor kurzem auch nen Test gemacht und festgestellt, dass selbst 8K praktisch sinnlos ist.

Man siehts doch auch gut an den Handy Displays. Wir waren da schonmal bei 4K. Heute haben sich die meisten Geräte bei zwischen 1080p und 1440p eingependelt, obwohl viel mehr möglich wäre.
Der Mensch ist der limitierende Faktor, nicht die Technik.

Eigentlich sollte man froh sein, wenn man bei manchen Problemen wie Bildschärfe/Auflösung einfach mal nen Haken setzen kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82
Rockstar85 schrieb:
Spannend finde ich, wenn es auf FSR2.1 und XeSS (welches beide ja dem Quelloffenen sehr Nahe kommen) geht, müsste es dann nicht auch mit Ampere GPU gehen?
Was hat denn das eine mit dem anderen zu tun?
Weil FSR und XeSS auch auf ampere laufen und man FG zusammen mit FSR und XeSS nutzen kann, müsste FG auch auf ampere laufen ?

FG benötigt weder DLSS2 noch FSR noch XeSS, sondern ist ein eigenständiges Feature, du kannst es auch ohne upscaler nutzen.

Was es mit dem aktuellen Stand des Algorithmus benötigt, ist die Rechenleistung der Optical Flow Accelerators von Ada.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82
DaZpoon schrieb:
Seit gestern ist FSR2 ja auch im MSFS verfügbar. Ich muss sagen dort hält sich der Spaß in Grenzen und verursacht hier und da grausames Ghosting was das Teil teils unbrauchbar macht. Meist ist der FluSi bei mir eh CPU-bound. Hier könnte ich mir zwar vorstellen, dass auch solche Zwischenbilder helfen, aber im Endeffekt ist es alles auch nur Augenwischerei - und vor allem macht es die Leistung der Grafikkarten noch schwerer vergleichbar. Denn die FPS die da hinten rauspurzeln sind für mich nur "virtuell". Chancen sehe ich da eher in der Videoübertragung, denn da könnte man doch mit beiden Technologien (Upscale + Zwischenbilder) Bandbreite sparen.
Ausprobieren und nicht so nen Mumpitz schreiben! FG bringt ein klasse Upgrade im MSFS bei mir und macht es oft erst richtig gut spielbar. Alles endlich flüssig in UHD+.
Ergänzung ()

Ayo34 schrieb:
Hat Nvidia nicht bei der Vorstellung gesagt, dass man die neuen Dinge der 4000er Serie benötigt und deswegen es nicht auf den 3000er Karten kommt? Jetzt kann ein guter Youtuber einfach Frame Generation mit allem kombinieren und es funktioniert?

Großes Lob mal wieder an Igor, hat immer wieder interessante Sachen als erstes, weltweit!
Text lesen und verstehen.🤭
Ergänzung ()

Novasun schrieb:
Weil es vielleicht in Zukunft Titel gibt wo z.B. nur FSR umgesetz wurde?
Und dann gibt es aber auch kein Frame Generation. Logisch, oder?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Tornavida
W0dan schrieb:
Wenn man aus den letzten Jahren Computergrafik eines gelernt hat, dann ist es, dass Probleme nicht nur mit Rohleistung, sondern vor allem mit effizienteren Verfahren gelöst werden.
Das stimmt, die RT-Kerne auf GPUs beschleunigen das Ganze bereits massiv. Von den GTX1000 zu RTX2000er war es eine Verzehnfachung der Leistung. Bleibt halt die Frage ob so ein Sprung noch einmal möglich ist.

W0dan schrieb:
Zudem sind 8 bzw. 16K völlig sinnfrei und zumindest 16K wird sich niemals in der aktuellen Form durchsetzen können.
Ich sitze hier vor einem 27" 4k Monitor und verwende immer noch Kantenglättung weil es einfach zu Pixelig ist.

Mal rein Mathematisch: Das menschliche Auge kann bis zu 28 Bogensekunden auflösen.
Hier die Formel für die "Pixelgrenze" bei entsprechendem Sitzabstand: https://www.wolframalpha.com/input?i=int(tan(28+arcsec)+*+30+cm)

Auf 60 cm Sitzabstand ergibt sich auf 27" 8421 Pixel in der Diagonale, also 7340x4128 bei 16:9. Das ist knapp 8K. Also 12K für 32" sehe ich kommen, da kann man dann auch gut nah ran und sieht alles schön scharf.
 
S.Kara schrieb:
Ich sitze hier vor einem 27" 4k Monitor und verwende immer noch Kantenglättung weil es einfach zu Pixelig ist.

Mal rein Mathematisch: Das menschliche Auge kann bis zu 28 Bogensekunden auflösen.
Hier die Formel für die "Pixelgrenze" bei entsprechendem Sitzabstand: https://www.wolframalpha.com/input?i=int(tan(28+arcsec)+*+30+cm)

Auf 60 cm Sitzabstand ergibt sich auf 27" 8421 Pixel in der Diagonale, also 7340x4128 bei 16:9. Das ist knapp 8K. Also 12K für 32" sehe ich kommen, da kann man dann auch gut nah ran und sieht alles schön scharf.

Das würde aber bedeuten, dass du bei 32 Zoll auch nur 60 cm entfernt sein darfst. Das wäre mir deutlich zu groß bzw. der Abstand einfach zu klein.

Letztendlich bestätigt das aber trotzdem, dass man 16K und alles darüber schonmal kategorisch ausschließen, kann. Selbst in der Theorie und selbst bei 8K kann man bezweifeln, ob der minimale Schärfegewinn überhaupt der Rede Wert ist.

Ich meine, der optische Unterschied wird ja immer geringer. Der Unterschied von 4K zu meinetwegen übertrieben gesagt 100K ist ja trotzdem kleiner als z.B. von 1080p auf 1440p.


Und AntiAliasing ist ein ganz anderes Thema. Aliasing ist ein Artefakt in der Computergrafik, mit der Auflösung des Displays hat das nichts zu tun. Bei Videoaufnahmen hast du ja auch kein Aliasing...
Aliasing ist bei SD zudem genauso vorhanden, wie bei HD und UHD. Die Treppchen werden nur kleiner.

Wenn du das alleine mit höherer Displayauflösung unsichtbar machen willst, dann müsste die Auflösung des Displays mindestens 2x feiner sein, als unsere Wahrnehmungsgrenze so dass bereits die 28 Bogensekunden mit mindestens 4 Pixeln bedient werden.

Aber das Aliasing so zu bekömpfen ist halt sinnfrei. Dafür gibt es ja AntiAliasing...
 
Taxxor schrieb:
Was hat denn das eine mit dem anderen zu tun?
Weil FSR und XeSS auch auf ampere laufen und man FG zusammen mit FSR und XeSS nutzen kann, müsste FG auch auf ampere laufen ?
Nvidia argumentiert ja genau so, dass Ampere nicht drauf läuft.. FSR läuft aber soweit ich weiß mit Ampere.
Deswegen die Frage.
 
Ja FSR läuft mit Ampere, aber was hat das nun damit zu tun, ob FG auf Ampere laufen kann?

Damit FG in seiner jetzigen Form mit der nötigen Performance laufen kann, braucht es die Hardware der 4000er Serie, das ist das Argument.

Das ist bei FSR nicht der Fall. Daher geht FSR mit Ampere, FG aber nicht.
Und dass man FG in Kombination mit FSR nutzen kann, hat damit überhaupt nichts zu tun, weil das dann trotzdem nur auf den 4000ern möglich ist.
Es sind zwei Features, die man entweder getrennt von einander oder in Kombination nutzen kann und eines von beiden geht nur auf Ada.
 
Schön zu sehen, dass hier zumindest die Mehrheit versteht, dass die Nachricht nicht bedeutet, man könne DLSS3 auch auf anderen (erhältlichen) Karten als der 4090 aktivieren.

Ansonsten, wirklich geringer Nachrichtenwert, wer aktiviert FSR wenn's DLSS gibt? Das kann vielleicht mal in Ausnahmefällen Sinn ergeben, mehr aber auch nicht.
 
  • Gefällt mir
Reaktionen: Klever und Coeckchen
Zurück
Oben