News Nvidia Smooth Motion: Frame Generation per Treiber exklusiv für GeForce RTX 5000

Lossless Scaling macht sowas aehnliches, fuer 7€.
Kann man 2x, 3x, 4x Frame Generation in jedem Spiel nutzen.

z.b. kann man FS25 auf 60fps limitieren und per AI Frames auf 240fps pushen.
natuerlich sieht man gewisse Artefakte in der Cockpit Sicht beim (schnellen) Fahren, aber wenn man 3rd Person spielt faellt es kaum auf. Allerdings ist FS25 halt auch ein richtig langsames Spiel, wo die Latenz und indirekte Eingabe eh egal is ....

In Squad hab ich das jetzt tatsaechlich auch angefangen zu nutzen, allerdings mit nativen 100fps (ingame gelockt), und 2x Frame Generation mit Lossless Scaling. Dort hab ich tatsaechlich keine Artefakte entdeckt bisher.
 
Tulol schrieb:
Natürlich ist es klar. nVidia will in anbetracht der schwachen hardware fortschritte ggü. 4xxx neue Anreize schaffen um die neue GPU Gen zu verkaufen.
Nvidia hat eine ganze Reihe von Features auch für die Turing Gen veröffentlichty welche fast 7 Jahre alt ist.
Tulol schrieb:
Wenn AMD das mit deutlich weniger Leistung schafft wird es wohl nicht daran liegen.
Deshalb hat AMD auch verlauten lassen, dass FSR4 exclusiv auf RDNA4 4 läuft?
Nvidias Smooth Motion nutzt anders als bei AMD ein AI Modell. Das AMD bei FSR4 nutzt.
Ergänzung ()

cvzone schrieb:
Da es AMD (und das gar nicht mal so schlecht) ganz ohne KI kann, sehe ich hier wieder nur vorgeschobene Gründe.
Warum will AMD dann FSR 4 evtl. nur auf den schnellsten RDNA3 Karten bringen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stevefrogs
Quidproquo77 schrieb:
Warum will AMD dann FSR 4 evtl. nur auf den schnellsten RDNA3 Karten bringen?
Ich sehe da jetzt gerade keinen Zusammenhang zu meiner Aussage über AMD AFMF.

Edit: und anders als AMD haben die älteren NVidia Karten KI Kerne.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wanderwisser, Holgmann75, Tulol und 2 andere
Firefly2023 schrieb:
Wo ist das Problem? DLSS ist die Zukunft. DLSS sieht in vielen Fällen besser aus als die native Auflösung. Nur weil du dem nichts abgewinnen kannst, muss man da nicht „vernichtend“ drüber schreiben.
Wäre gut, wenn du dich erstmal darüber informieren würdest, was DLSS und was FG bzw. MFG ist, bevor du aufmal mit DLSS ankommst, was nichts damit zutun hat.
 
  • Gefällt mir
Reaktionen: JarlBallin
Ich besitze einen AMD 5950X, 64GB RAM und eine RTX 4070. Damit zocke ich World of Warcraft auf 3840x1600 Pixel (38"). Das spiel braucht nicht viel Ressourcen und läuft anständig. Neulich mal in "Horizon Forbidden West" reingeschaut und die vorgeschlagenen Einstellungen von der nVidia App genutzt. Sah super aus und lief top.

Aus reinem Interesse würde ich gerne wissen welche Spiele mit einer 4080 Super/4090 nicht gut laufen, damit man sich eine 5080 oder 5090 kauft?

Upgrade für Anwendungen kann ich ja verstehen, da Zeit=Geld und sich das durchaus rechnen könnte.
 
  • Gefällt mir
Reaktionen: Firefly2023
Ich bin ja aus dem Game schon lange raus, aber ich frage mich bei den ganzen hyper super duper Funktionen, ob sie ohne das ganze Gedöns überhaupt noch ein Bild zeigen kann….
 
  • Gefällt mir
Reaktionen: FR3DI
Darklordx schrieb:
NVIDIA warnt einen jetzt, wenn die Karte nicht mehr kann?
Was die Effekte in NVIDIA Broadcast angeht, ja - das ist ganz praktisch, weil man vorher (außer GPU-Z/TaskManager etc) praktisch keine Ahnung hatte, was wieviel Leistung frisst.
 
  • Gefällt mir
Reaktionen: Firefly2023
jo0 schrieb:
Wäre gut, wenn du dich erstmal darüber informieren würdest, was DLSS und was FG bzw. MFG ist, bevor du aufmal mit DLSS ankommst, was nichts damit zutun hat.
Ich weiß was das ist, keine Sorge.

Mir ging es um die Aussage: „….ganzen Seiten und Contentcreator stürzen sich auf diese FakeFrames und fast alle loben das als wäre es das gelbe vom Ei statt vernichtende Beiträge zu posten…“.

Also der grundlegenden Ablehnung.
 
Rockhound schrieb:
Aus reinem Interesse würde ich gerne wissen welche Spiele mit einer 4080 Super/4090 nicht gut laufen, damit man sich eine 5080 oder 5090 kauft?
wieso stellst du diese Frage in diesem Thread? Das gehört hier doch einfach nicht rein.
 
Rockhound schrieb:
Aus reinem Interesse würde ich gerne wissen welche Spiele mit einer 4080 Super/4090 nicht gut laufen, damit man sich eine 5080 oder 5090 kauft?

Upgrade für Anwendungen kann ich ja verstehen, da Zeit=Geld und sich das durchaus rechnen könnte.

Ich denke nach den Tests werden viele ihre 4000er Karten behalten. Kaum jemand wird z.B. von 4080 auf 5080 umsteigen. 10% mehr Leistung für 10% mehr Strom braucht keiner.

Es gibt aber auch viele mit deutlich älteren Karten. Die meisten nutzen GPUs ja länger als 2 Jahre. Und von 3000er auf 5000er Generation ist ein gewaltiger Sprung. Von 2000er und 1000er Generation erst Recht. Und da die 5080 nicht mehr als eine 4080 kostet, kann man sich natürlich auch direkt die 5080 kaufen anstelle von 4080.
 
  • Gefällt mir
Reaktionen: stevefrogs und Firefly2023
Quidproquo77 schrieb:
Nvidia hat eine ganze Reihe von Features auch für die Turing Gen veröffentlichty welche Nummer nun fast 7 Jahre alt ist.
Ja so ein bisschen. Sonst wäre selbst unter Nvidia Fanboys der Shitstorm riesig. Kaum bessere Leistung als die vorherige Gen, aber alle mit neuen Features zur neuen Gen locken, die sonst keinen großen Mehrwert hat.

Quidproquo77 schrieb:
Deshalb hat AMD auch verlauten lassen, dass FSR4 exclusiv auf RDNA4 4 läuft?
Nvidias Smooth Motion nutzt anders als bei AMD ein AI Modell. Das AMD bei FSR4 nutzt.
FSR4 läuft erstmal nur mit RDNA4 und sie Prüfen zukünftig, ob und welche RDNA3 Karten es auch unterstützen werden. Zumindest wird RDNA3 nicht direkt ausgeschlossen.

Wat? Nvidia hätte auch was ähnliches zu FSR 2-3 oder XeSS bringen können, welches auch ohne Ki läuft. Ist besser als nichts. Aber auf die alten Kunden wird geschissen, sollen sie die neuste Gen holen!!

Quidproquo77 schrieb:
Warum will AMD dann FSR 4 evtl. nur auf den schnellsten RDNA3 Karten bringen?
Weil es schlicht gesagt mehr Leistung erfordert
 
  • Gefällt mir
Reaktionen: Ghostfacekalle
würde das bedeuten, dass sich die spielehersteller noch weniger mühe geben müssen ihre spiele zu optimieren, weil nvidia mit irgendwelchen treibern uns fake-leistung vorgaukeln will?
 
Richtig geiles Feature:
Lohnt sich richtig!


/s
Ich brauche 70 FPS aufwärts, um von diesem Wahnsinnsfeature keine negative Auswirkungen zu erhalten? Ich check nicht wie Leute immer noch blind dieser Firma Geld in den Rachen schmeißen.
 
Firefly2023 schrieb:
Wo ist das Problem? DLSS ist die Zukunft.
Er spricht doch von Frame Gen. ;)

Seh das aber auch nicht so dramatisch.
FG ist ne nette Ergänzung für eine flüssigere Bildrate. Ersetzt aber nicht die Rohleistung.
Ich nutze ja auch selber FG in Starfield. Das funktioniert prima.
Auch AFMF2 nutzen ja einige. Ist doch gut das es die Option jetzt auch bei Nvidia gibt.
 
  • Gefällt mir
Reaktionen: SmashD und Firefly2023
Rockhound schrieb:
Aus reinem Interesse würde ich gerne wissen welche Spiele mit einer 4080 Super/4090 nicht gut laufen, damit man sich eine 5080 oder 5090 kauft?
Die gibt es nicht.
Ergänzung ()

Casillas schrieb:
wieso stellst du diese Frage in diesem Thread? Das gehört hier doch einfach nicht rein.
Hä, was soll das? Er kann doch fragen.
Ergänzung ()

Ghostfacekalle schrieb:
Er spricht doch von Frame Gen. ;)
Ja, das weiß ich. Ändert aber nichts daran, dass es die Zukunft ist, wie alle KI-Features.
 
wern001 schrieb:
Die ganzen Seiten und Contentcreator stürzen sich auf diese FakeFrames und fast alle loben das als wäre es das gelbe vom Ei statt vernichtende Beiträge zu posten
Du glaubst also "alle" finden "Fake Frames" schrecklich, analysieren jeden Pixel mit der Lupe und deshalb entwickeln AMD und NVIDIA in eine völlig falsche Richtung? Schon mal vielleicht in den Sinn gekommen, dass es sich ähnlich verhält wie bei "heulenden Spulen", "Latenzen aus der Hölle", "unscharfer Darstellung", "Motion Blur" und anderen Techniken, bei denen es einige wenige stört und dem Rest entweder nicht auffällt oder sie es sogar richtig gut finden?

Es ist vielmehr lächerlich wie man sich hier im Forum auf solche Themen stürzt und über 10ms Latenz ganze Threads füllen kann, während auf der anderen Seite mittlerweile Millionen Spieler Cloud Gaming nutzen, auf Konsolen spielen und jegliche Medien aus der Cloud gestreamed bekommen.

Ich komme aus einer Zeit da waren auch 15FPS noch in Ordnung und 800x600 Auflösung war das höchste der Gefühle. Es funktionierte, "niemand" beschwerte sich und weil es nichts anderes gab hat man auch nicht anderes vermisst. Mein erster Fernseher an dem ich mein PC angeschlossen hatte, hatte noch eine Verarbeitungslatenz von knapp 150ms. Hat mich nie gestört und problemlos auf höchsten Level diverse MMOs damit gespielt.

Vielleicht einfach mal nachdenken bevor man so einen Unsinn postet! Nur weil dir etwas missfällt oder du schlichtweg gerne auf solchen Shitstorm Wellen mitschwimmst, ist es noch lange nicht für alle gültig. Die meisten PC Spieler spielen in einer 1080p Auflösung, auf einer GPUs aus der x60 Klasse und würden uns vermutlich zu totalen Spinnern erklären, wenn sie hier mitlesen würden.

Unter 1ms, 2160p @ 300FPs geht hier bei manchen scheinbar nichts mehr, es ist völlig unspielbar...
1738316143507.png

1738316280264.png


Unglaublich oder? Wie machen die das denn nur? Die Konsolenspieler müssen doch alle blind, taub und unfähig sein... Vielleicht, aber auch nur vielleicht, kümmert es sie schlichtweg nicht.... wie vermutlich 90% der PC Spieler ebenfalls nicht....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, serve1chilled, SmashD und 2 andere
@Snakeeater da kommt dann wieder DLSS ins Spiel. Dann kann man die Renderauflösung zur Unkenntlichkeit runter schrauben um die 70 FPS zu erreichen :D So schließt sich der Kreis. Was für ein Bullshit...
 
  • Gefällt mir
Reaktionen: Snakeeater
DerRico schrieb:
Ich nutze auf der 7900xtx FG per Treiber ganz gerne. Gerade bei Strategiespielen oder Rollenspielen hat man eine flüssigere Bildausgabe. Die Karte wird auf 60FPS limitiert, ist dann sehr sparsam, angezeigt werden aber 120. Lag spielt bei Spielen wie Anno keine Rolle.
Ich nutze es auf meiner 7900XT fast ausschließlich. Gerade auch bei z.b. Helldivers 2. Sicher kein Spiel, wo man die Nachteile dieser Technologie gern in Kauf nimmt.

Aber das ist ja genau der Punkt. optisch erkenne ich keine Nachteile. Ich habe wirklich versucht welche zu finden. Mit Anti Lag 2 gibt es für mich zwar im direkten Vergleich (und wirklich nur da) eine zusätzliche Latenz, gerade so an der Grenze der Wahrnehmbarkeit, aber die spielt direkt beim Zocken einfach keine Rolle mehr, bzw. geht einfach unter.

Dieses Feature ist top. Zusätzlich zocke ich damit Manor Loards und POE II.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
wern001 schrieb:
Noch mehr FakeFrame gedöns! Was kommt als nächstes Multiplikator für FPS?

Die ganzen Seiten und Contentcreator stürzen sich auf diese FakeFrames und fast alle loben das als wäre es das gelbe vom Ei statt vernichtende Beiträge zu posten. Irgendwie nach dem Motto: Mach einen guten Beitrag oder Du bekommst keine GPU zum Testen.
Und du hast scheinbar FG noch nie benutzt? Latenz ist seit Generationen ein gelöstest Problem und schon lange nicht mehr fühlbar. Auch Unterschiede die man mit einer Lupe in Screenshots suchen muss fallen im normalen Gameplay nicht auf. Der einzige Unterschied: Es ist unglaublich flüssig.
Framegen ist eine der besten Technologien aus den letzten Jahren und revolutionär. Cyberpunk mit 200 FPS statt mit 100 FPS >fühlt< sich einfach so viel besser an.

Aber vielleicht klemmt dein Aluhut auch einfach ein bisschen? ;)

forumular schrieb:
würde das bedeuten, dass sich die spielehersteller noch weniger mühe geben müssen ihre spiele zu optimieren, weil nvidia mit irgendwelchen treibern uns fake-leistung vorgaukeln will?
Nein, da "FakeFrames" nicht die erforderliche Mindestleistung verringern. Das bedeutet du kannst auf Highend nachträglich noch mehr Mods installieren, noch höhere Einstellungen wählen, dabei CPU-Leistung einsparen und sogar den Stromverbrauch senken. Wenn dir im Gegenzug minimal bessere Bildqualität wichtiger ist ohne Rücksicht auf Verluste, kannst du die Option einfach abschalten - so wie bei AMD auch.

Für mich ist jeder flickernde Schatten 10x nerviger als seltene und unauffällige FG-Artefakte, die meistens eh nur beim Scrollen durch Textboxen auftreten. Besonders bei Handhelds überzeugt AFMF sehr. Der Unterschied in GTA Online auf einem ROG Ally ist unglaublich.
 
  • Gefällt mir
Reaktionen: Quidproquo77, serve1chilled, xexex und eine weitere Person
Zurück
Oben