News Nvidia Smooth Motion: Frame Generation per Treiber für GeForce RTX 50 & RTX 40

Maxysch schrieb:
Weil die auch Tensor Kerne haben, will AMD nicht verteidigen und wenn es auf RX7xxx er mit vorhandenen KI Kernen FSR 4 raus kommt, dann werde enttäuscht sein. Aber das die dann 6000er nicht mehr unterstützen ist halt verständlich.

Was mich wundert das davor mit FSR von AMD das kein guter Argument war, aber wo Nvidia das macht dann wird diese in den Himmel gelobt, bitte hört auf Fans von Unternehmen sein die nur euer Geld wollen.
Was ? Geht das auch nochmal auf deutsch ? Dein text ist nicht zu verstehen, hast ein getrunken ?
 
  • Gefällt mir
Reaktionen: Wanderwisser, FisterWolf, Mumbira und 3 andere
Payne19 schrieb:
AMD kann das schon seit 2 Jahren? NV zieht jetzt erst nach..
Auf dem Papier. War extrem buggy und sogar dem Lossless Scaling unterlegen. Erst vor ein paar Monaten mit AFMF2 ist das Feature empfehlenswert laut PCGH Test. So hätte der ursprüngliche Release vor 2 Jahren ablaufen soll. Aktuell bevorzuge ich immer noch Lossless Scaling, da es benutzerfreundlicher ist.
 
  • Gefällt mir
Reaktionen: Parni
DevPandi schrieb:
SSAA berechnet ein Bild entsprechend der gewählten Stufe auch auch gernemal in 4, 8 oder 16 facher Auflösung.
dann schreibt wenigsten OGSSAA wenn du schon bis 16fach schreibst.
 
Snakeeater schrieb:
Ich erkenne keinen Unterschied von 240 FPS zu 30 FPS? Ich lehn mich mal aus dem Fenster und sagen 80% der Nutzer hier können das.
Ging es um Unterschiede oder schlichtweg darum, wenn du bis heute mit 30FPS spielen würdest und nicht mit 100FPS+, würde dir weder was fehlen, noch könntest du "Unterschiede" mangels besserer Referenz erkennen. Bevor Reflex veröffentlich wurde sahen die Latenzen so aus und niemand beschwerte sich darüber, außer ein paar E-Sport Zockern.

1738346021200.png



Ich halte mich diesmal kurz, der springende Punkt bleibt gleich, was noch vor kurzer Zeit absolut problemlos war, ist heute natürlich absolut untragbar oder doch nicht? Es geht nicht darum zu vergleichen ob 30FPS oder 240FPS "besser" sind, denn das sind sie definitiv, es geht darum festzustellen ob das womit alle über Jahrzehnte spielten und viele noch immer jeden Tag nutzen, plötzlich zu wenig ist weil jemand es behauptet.

Also erzähle mir nicht MFG ist Mist, weil XYZ das gesagt hat. Was gut ist und was nicht, entspricht dem eigenen Anspruch, dem was man gewohnt ist und dem was man bereit ist zu bezahlen. In der Holzklasse zu fliegen ist definitiv "Mist" und obwohl Business oder gar First Class auf vielen Flügen verfügbar ist, entscheiden sich die meisten trotzdem dafür und sind glücklich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wubziz, Quidproquo77, MasterXTC und eine weitere Person
grabeskuehle schrieb:
Nice dass ich das dank LosslessScaling auf meiner 3060 schon längst nutzen kann :D

Lossless Scaling hat aber seine eigenen Probleme. Wenn man die FPS nicht limitiert bzw. genauer gesagt konstant (!) hält, dann arbeitet es sehr unsauber und zeigt ruckler.

Ist halt sinnfrei, wenn man z.B. 80 FPS in einem Spiel hat, dann LSFG aktiviert und die Basis Framerate erstmal auf 60 FPS dropt (gerade in 4K sind die performancekosten recht hoch), weil der Algorithmus Leistung kostet und dann muss man nochmal mit Puffer limitieren z.B. auf 50 FPS, dass die FPS im Limit auch stabil gehalten werden. Erst dann kann die Framerate sauber multipliziert werden.

Wenn man das vernünftig machen will, büßt man in summe so viel Performance und damit Latenz ein, dass ich dann lieber gleich ohne spiele. Für Spiele mit 60 FPS lock ist es brauchbar, aber sonst eher ein Krampf.

Falls die nvidia Lösung auch mit unlocked bzw. variablen FPS zurecht kommt und keinen FPS limiter braucht, wäre sie alleine deshalb schon weit überlegen.
 
  • Gefällt mir
Reaktionen: Czk666
Alles in allem kann man NVIDA nicht vorwerfen alte Generationen im Regen stehen zu lassen. Ich habe gestern und heute DLSS4 (SR & FG) schon so manchem Spiel per DLSS Swapper hinzugefügt und die Ergebnisse sind durch die Bank beeindruckend!
 
Mimir schrieb:
Ist halt sinnfrei, wenn man z.B. 80 FPS in einem Spiel hat, dann LSFG aktiviert und die Basis Framerate erstmal auf 60 FPS dropt (gerade in 4K sind die performancekosten recht hoch), weil der Algorithmus Leistung kostet und dann muss man nochmal mit Puffer limitieren z.B. auf 50 FPS, dass die FPS im Limit auch stabil gehalten werden.
Naja das ist aber doch selbst bei integriertem DLSS FG nichts anderes.
Wenn man da mit 80 FPS FG aktiviert, kommt man auch nicht selten auf "nur" 120FPS, heißt die Basis Framerate wird ebenfalls auf 60 reduziert und diese schwankt dann auch, wenn man das Limit nicht ein Stückchen tiefer setzt.
 
@Taxxor Ja, aber der Unterschied ist a) dass DLSS FG besonders mit dem neuen DLSS4 Model schneller ist, also weniger performance kostet und b) die Frameausgabe flüssig bleibt, auch wenn die FPS nicht festgetackert werden.

Wie gesagt, LSFG braucht zwingend fest gelockte FPS sonst gibts ruckler. Und um die FPS in einem FPS limit konstant zu halten muss man natürlich einen Puffer mit einrechnen bzw. auf die niedrigsten FPS limitieren, die man erreichen würde. So steht man also vor der Wahl massig FPS zu verschenken indem man die FPS niedrig limitiert aber dafür LSFG korrekt arbeitet oder aber man limitiert nicht, hat mehr performance aber muss mit ständigen rucklern zu leben.
 
Kommando schrieb:
Lohnt sich ab 60-Basis-FPS. Macht das Erlebnis in nicht-competitiven Spielen deutlich besser und flüssiger.
Mein bisher bester Anwendungsfall war tatsächlich Skyrim. Dort war ich heftigst im CPU Limit, schwankend zwischen 38-45 FPS, gerade auch so an der Grenze ab der Freesync/G-Sync greift. Das war wirklich nicht schön.

Mit FG wurde daraus aber wirklich ein solides Spielerlebnis, war richtig begeistert.
 
  • Gefällt mir
Reaktionen: legenddiaz und Kommando
Wird mit FG die Latenz nicht sogar schlechter als ohne? Ich dachte die GPU muss quasi das nächste Bild berechnen und vorhalten um danach ein KI generiertes einzuschieben?
 
Vielleicht kann das ja jemand dann einfach auch für RTX 3000 und 2000 freischalten. :)
 
SavageSkull schrieb:
Das Broadcast muß ich mir mal anschauen. Nutze das für mein Tischmikrofon, weil ich kein Headset aufsetze, damit meine Mitspieler sich nicht doppelt hören oder sonstige Störgeräusche.

Störgeräusche kriegst du damit nahezu perfekt herausgefiltert, andere Stimmen allerdings wenig. Das Modell scheint auf Stimmen generell trainiert zu sein und lässt auch nur diese durch, somit allerdings evtl auch die Stimmen anderer. Ich habe mal testweise einen Fön neben das Mikro gehalten und selbst das hat Broadcast perfekt herausgefiltert.
 
Ayo34 schrieb:
Kaum jemand wird z.B. von 4080 auf 5080 umsteigen. 10% mehr Leistung für 10% mehr Strom braucht keiner.
Die 10% mehr Leistung sind das eine (wobei es ja laut Test wohl eher 15% sind, mit OC sogar gleich 30%), aber die 10% mehr Strom interessieren wirklich kein Schwein - 30W sind 0,009€ (!) für jede Stunde die man zum Zocken kommt und mit Job sind das bekanntlich keine 24 Stunden am Tag - bei den meisten vermutlich noch nicht einmal im Monat, ein Witz sich über sowas Gedanken zu machen :rolleyes:

Die Abwärme wäre bei kleinen Zimmern ja noch das eine, aber du erwähnst ja explizit den Strom :p
 
Nahkampfschaf schrieb:
Ich habe mal testweise einen Fön neben das Mikro gehalten und selbst das hat Broadcast perfekt herausgefiltert.
Naja einen Fön hat man ja eher selten nebenbei an beim Zocken, besser wärs wenn die anderen Stimmen aus der Anlage genauso gut herausgefiltert werden könnten beim gemeinsamen Zocken. Für einen Monolog/Streamer ist das schon gut brauchbar, für Onlinegaming mit Freunden ,alle ohne Kopfhörer, noch ausbaufähig.
 
xexex schrieb:
Ging es um Unterschiede oder schlichtweg darum, wenn du bis heute mit 30FPS spielen würdest und nicht mit 100FPS+, würde dir weder was fehlen, noch könntest du "Unterschiede" mangels besserer Referenz erkennen. Bevor Reflex veröffentlich wurde sahen die Latenzen so aus und niemand beschwerte sich darüber, außer ein paar E-Sport Zockern.

Anhang anzeigen 1577414


Ich halte mich diesmal kurz, der springende Punkt bleibt gleich, was noch vor kurzer Zeit absolut problemlos war, ist heute natürlich absolut untragbar oder doch nicht? Es geht nicht darum zu vergleichen ob 30FPS oder 240FPS "besser" sind, denn das sind sie definitiv, es geht darum festzustellen ob das womit alle über Jahrzehnte spielten und viele noch immer jeden Tag nutzen, plötzlich zu wenig ist weil jemand es behauptet.

30 fps, hach ja.

ultima9.png


(Ultima IX, 1999).
 
  • Gefällt mir
Reaktionen: DrTimeWaste, Mr.Zweig, westmare und 9 andere
Und du hast scheinbar FG noch nie benutzt? Latenz ist seit Generationen ein gelöstest Problem und schon lange nicht mehr fühlbar.
Stimmt, deshalb in sämtlichen ProLeague‘s ein standardmäßig aktiviertes Feature, da es ja „unfühlbar“ ist :p

Wer das außerhalb dem Singleplayer-Modus in einem Shooter nutzt und meint es wäre „unfühlbar“ ist doch nicht ernst zu nehmen :p
aLanaMiau schrieb:
Auch Unterschiede die man mit einer Lupe in Screenshots suchen muss fallen im normalen Gameplay nicht auf. Der einzige Unterschied: Es ist unglaublich flüssig.
Was ein Schwachsinn, bei Linus von LTT gab es klare Artefakte in Cyberpunk ganz ohne Lupe und Verlangsamung des Bildes - die Zukunft vorherzusehen ist eben nicht einfach.
aLanaMiau schrieb:
Cyberpunk mit 200 FPS statt mit 100 FPS >fühlt< sich einfach so viel besser an.
Ist eben ein Kompromiss, ansonsten wäre es nicht möglich.
aLanaMiau schrieb:
Aber vielleicht klemmt dein Aluhut auch einfach ein bisschen? ;)
Du willst ihm bei sichtbaren Artefakten, die selbst auf Messen von Testern klar erkannt werden, einen Aluhut vorwerfen, das ist weit hergeholt, aber spannend :p
aLanaMiau schrieb:
Für mich ist jeder flickernde Schatten 10x nerviger als seltene und unauffällige FG-Artefakte, die meistens eh nur beim Scrollen durch Textboxen auftreten.
Warum flickern bei dir die Schatten ohne FG? Die Artefakte sind beim ganz normalen seitlichen Schwenken aufgetreten - wie das eben mit Zwischenbildberechung so ist. Ist ja nicht so, als hätte Nvidia hier das Rad neu erfunden :p
aLanaMiau schrieb:
Besonders bei Handhelds
ist der Anspruch geringer.
Ergänzung ()

Svennc schrieb:
30 fps, hach ja.

Anhang anzeigen 1577534

(Ultima IX, 1999).
Ach ja 1999 die gute alte Zeit der schnellen Multiplayer-Shooter mit 20FPS - oder waren das doch andere Spiele?
 
aLanaMiau schrieb:
Und du hast scheinbar FG noch nie benutzt? Latenz ist seit Generationen ein gelöstest Problem und schon lange nicht mehr fühlbar
Ist dem so? Was ich die letzten Tage gelesen habe ist es wohl fühlbar und am wenigsten fühlbar wenn man schon hohe fps hat die man dann verdreifacht

Und das sagen praktisch alle test, perse nicht schlecht man brauch aber schon selber hohe fps im besten fall um das gefühl zu minimieren das es jetzt nicht Native 300 fps sind, nur ein beispiel

Ich kann die Befürchtung schon nachvollziehen das hersteller immer schlampiger werden wenn ja nvida das schon glättet, je mehr fake fps reingesteckt um so flüssiger mag das bild optisch aussehen aber um so mehr merkt man es dann am gamepad bzw Tastatur, aktuell mit 3 zusätlichich mag es ok sein was aber wenn 10 bilder eingeschoben werden in naher zukunft wird man da die latens weiter ausbügeln können?
 
Cat Toaster schrieb:
Also ich kann DLSS4 bei exakt 0 von 75 Spielen aktivieren.

...
Cyberpunk hat das schon integriert mit dem letzten Update.
Von daher kannst du auch nichts mehr zusätzlich aktivieren.
 
DevPandi schrieb:
Je nach Spiel, je nach deinen eigenen körperlichen und kognitiven Fähigkeiten, können 5 - 10 ms Latenz durchaus entscheidend sein, ob sich etwas gut oder schlecht anfühlt.
Früher hat man mit viel mehr Inputlag gespielt, daher nein. Ist eigentlich ganz einfach. Die Messwerte zeigen teilweise auch nur 3ms mehr durch FG. Sorry, absoluter No-Brainer.
DevPandi schrieb:
Jeder geht nur von sich selbst aus und überträgt die eigene Präferenzen auf alle anderen und sind dann schokiert und teilweose mokiert, wenn andere nicht so empfinden.
Ich gehe zumindest davon aus, dass eine sehr große Nutzerbasis Spiele zwischen 30 und 60 FPS auf ultra spielen. Nun gibt es zum einen weniger Inputlag und zum anderen noch FG. Die Nutzerbasis von FG sinkt jedoch, weil man paar ms Latenz verschenkt. Das ergibt keinen Sinn.
DevPandi schrieb:
Für andere können die 5 - 10 ms die Welt bedeuten, muss es aber nicht für dich.
Wir viele Threads gibt es denn wo sich über den Inputlag von SP Spielen beschwert wird? Kaum welche.
DevPandi schrieb:
Es gibt hier kein Richtig oder Falsch, sondern nur ein: Kommt darauf an.
Messwerte legen das schon ziemlich nahe, dass es falsch und richtig gibt.
Wenn die Berechnung zusätzlicher Frames kaum Latenz kostet, muss die Erfahrung damit zwangsweise positiv sein.
DevPandi schrieb:
Weil viele, die FG als auch MFG bereits nutzen konnten, dieses mit verschiedenen Spielen getestet haben und gemerkt haben, dass sich die Spiele erst ab gewissen minimalen fps wirklich "flüssig" anfühlen und davor eben nicht.
Dann braucht man aber auch kein FG.
FG hat mir Reflex den Sinn etwas was nicht flüssig ist flüssig erscheinen zu lassen. Und wenn ich schon 100 FPS habe verursacht FG verhältnismäßig mehr Inputlag und gleichzeitig erhöht sich die Bildflüssigkeit nur minimal. Der Wirkbereich ist in diesem Leistungsfenster enorm eingeschränkt.
DevPandi schrieb:
Und mit "flüssig" ist hier jetzt nicht Framerate und die Frametimes gemeint, die am Monitor ankommen, sondern dann die Frames, in denen Eingaben durch den Nutzer verarbeitet werden.
Und die werden schon schneller verarbeitet als das früher der Fall war, trotz FG.
DevPandi schrieb:
.Es gibt aber auch Spiele, die sich mit 30 "nativen" fps absolut schwammig anfühlen und die kein gutes Spielgefühl aufkommen lassen. Hier kann dann FG und MFG auch nicht viel helfen.
Was wäre das denn für eins zum Beispiel? Bei 35 FPS und Reflex liegt die eigentliche Latenz eher bei 40- 50 FPS trotz FG.

Ein Grund warum Cyberpunk so schön fluffig läuft.
DevPandi schrieb:
Ehrlich gesagt, sind diese Latenzmessungen zum Teil pures Gift für die Diskussion, weil sich jeder die Zahlen und Umstände so dreht, wie sie gerade gebraucht werden.
Die Messwerte sind eindeutig, da braucht man sich nichts drehen. Die zusätzliche, effektive Latenz ist durch Reflex minimal und "zu hoch" wie man hier hört kann sie gar nicht sein.
DevPandi schrieb:
Ein Spiel, dass auf 10 fps kommt, wird zwar mit FG oder MFG "geschmeidiger" bei den Bewegungen, fühlt sich aber von der Steuerung nicht besser an.
Dann muss man vorher DLSS reinknallen.
Andere Hilfsmittel gibt's nicht, außer Details reduzieren.
DevPandi schrieb:
Selbst wenn dann mit Reflex die Eingabelatenz vielleicht sogar "besser" sein mag.
10 FPS würden vielleicht mit Reflex 2 sogar reichen. :D Schauen wir mal was kommt.
DevPandi schrieb:
Es gibt hier kein absolutes richtig oder falsch, so wie ihr das hier ständig versucht. Es ist immer ein: Es kommt darauf an.
Wenn's schlecht implementiert ist wie in Indiana Jones wo sich die Latenz durch die Decke geht würde ich zustimmen. Wo sie nur seicht ansteigt, halte ich das für einen klaren Tradeoff. Bei FGx4 sehe ich das bei manchen Messungen mit der Latenz kritischer.
 
Zuletzt bearbeitet:
Zurück
Oben