DLSS3 aka Frame Generation nur für GPU oder GPU+CPU ?

0ssi

Admiral
Registriert
Sep. 2018
Beiträge
7.950
Ich habe mich zwar schon etwas mit dem Thema Nvidia Zwischenbildberechnung (Frame Generation) befasst
und dachte bis jetzt, dass nur GPU seitig die FPS gepusht werden und man somit eher in ein CPU Limit kommt
aber scheinbar werden die künstlichen Frames erst am Ende berechnet also aus dem was CPU und GPU leisten.

Also wenn man bei 60FPS mit 100% CPU Auslastung (CPU Limit) und z.B. nur 50% GPU Auslastung zusätzlich
DLSS3 aktiviert dann kann man trotzdem 120FPS erreichen ??? Wozu dann überhaupt noch High End CPU's ?
Dann wäre ja ein Ryzen 5 5600 und eine RTX4080 12GB völlig ausreichend für 4K 60FPS + DLSS3 = 120FPS !?
 
idr hat deine CPU beim spielen keine 100% Auslastung.

Das nachladen von spiel Inhalten in den RAM und in den Speicher der GPU dafür benötigt es eine schnelle CPU, welche eben die GPU schnell genug mit Daten versorgen kann.

Physik und KI Berechnung (um zwei CPU lastige Threads zu nennen) benötigen nicht so viel - bzw. könnten zugegebenermaßen besser sein, würde man sich als Entwickler hier mehr Auslastung der Fülle an kernen zutrauen ^^


um deine eig. Frage zu beantworten.
Die Frames werden in der GPU berechnet - es sind aber eben keine gerenderten Frames, sondern eben nur Bilder aufgrund einer vermutung was als nächstes passiert.
 
0ssi schrieb:
Wozu dann überhaupt noch High End CPU's
Naja, weil zum einen die Spiele DLSS 3.0 unterstützen müssen und das sind nicht gerade viele bisher und zum anderen kommt DLSS 3.0 ja auch mit Nachteilen daher wie z.B. Bildfehler (Mal mehr mal weniger auffällig) oder die höhere Eingabelatenz.

Außerdem verwendet man eine CPU ja nicht nur für Spiele, wobei das natürlich vom persönlichen Nutzungsverhalten abhängt.

Aber ja, grundsätzlich hast du Recht. Sofern man bereit ist die Nachteile in Kauf zu nehmen, bekommt man im CPU Limit mehr FPS. Allerdings sind Spiele typischerweise sowieso eher im GPU Limit und wenn nicht, lässt sich das ohne Probleme herstellen.
 
  • Gefällt mir
Reaktionen: mKstan und wrglsgrft
Aus 2 Gründen: Die Zwischenframes aus DLSS3 sind nicht aus Engine-Daten, sondern aus Bilddaten berechnet. Das bedeutet, dass in die Berechnung des Zwischenframes weder Informationen der Engine, noch Input vom Benutzer einfließen. Du hast also ein möglicherweise fließendes Bild, aber in hektischen Szenen können sich merkwürdige Artefakte ergeben.
Und Punkt 2: Es gibt da draußen genug Leute, die gerne 120, 144 oder gar 240 fps haben wollen. Teils aus absurden Gründen. Und es gibt Leute, die wollen einfach nur das schnellste, aus rein subjektiven Gründen. Fürs Gaming ist schon seit über 10 Jahren selten etwas oberhalb i5 oder vergleichbar als notwendig empfohlen worden, aber der Haben-Will-Faktor ist nicht zu unterschätzen.

Daneben gibt es noch den Bonusgrund: Es gibt auch Leute, die benutzen ihre PCs für was anderes als Computerspiele.
 
  • Gefällt mir
Reaktionen: xxMuahdibxx
Der FrameGenerator nutzt das zuletzt "normal" berechnete Frame + Motion Vectors und erstellt daraus das "vermutlich nächste" und zeigt dieses als Zwischenbild vor dem nächsten "normal" berechnetem Frame.

Das passiert alles in der GPU, wodurch man wie richtig vermutet unabhängig der CPU die FPS verdoppeln kann.

Warum man dennoch eine gute CPU verwenden sollte ist der InputLag, dieser hängt wie bisher nur von den normalen FPS ab, egal ob FG aktiv oder nicht.
 
  • Gefällt mir
Reaktionen: Alexander2
S.Kara schrieb:
Warum man dennoch eine gute CPU verwenden sollte ist der InputLag, dieser hängt wie bisher nur von den normalen FPS ab, egal ob FG aktiv oder nicht.
Man darf dabei auch nicht außer acht alssen, das nach den Tests die schon gemacht wurden auch klar ist, wenn man normalerweise 60FPS rendern kann, mit DLSS3 dann aber 90 bekommt oder was weiß ich, dann ist aber der Inputlag dabei schlechter als wenn man nur die 60 echten FPS hätte. eher so wie bei 40 FPS.

Also schön flüssiges Bild, aber es fühlt sich von der Kontrolle mit der Maus/Tastatur wie 40 FPS an

(Das sind jetzt grobe Angabe aus der Erinnerung, man kann ja einfach entsprechende Detailtests ansehen..)
Ergänzung ()

0ssi schrieb:
Auf Basis der GPU Frames oder der GPU+CPU also Gesamt FPS ? Wenn Letzteres dann super. :daumen:
Das ist so als wenn du dein Bild über einen TV ausgibst und beim TV die selbe Funktion einschaltest, der nimmt Bild 1, vergleicht das mit Bild 2 (die echten) derweil ist höchtens Bild 1 auf dem Schirm gelangt - und berechnet noch Zwischen Bilder oder nur ein Zwischenbild, das rein Fiktiv als wahrscheinliches zwischenbild berechnet ist, also Artefakte haben kann/falsch sein kann /interpoliert.
Und wenn die Berechnung fertig ist werden die Zwischenbilder bis hin zum Bild 2 ausgegeben → erhöhter Inputlag, weil die Berechnung die Ausgabe verzögert.
 
  • Gefällt mir
Reaktionen: 0ssi
Alexander2 schrieb:
dann ist aber der Inputlag dabei schlechter als wenn man nur die 60 echten FPS hätte. eher so wie bei 40 FPS.
Das stimmt, ist aber wenn ich mich nicht irre abhängig von der GPU-Last ohne FG. Wenn die bereits am Limit ist drückt der zusätzliche Aufwand natürlich die "raw FPS". Wenn die aber wie im Beispiel oben nur bei 50% liegt sollte es den InputLag weniger stark beeinflussen.
 
0ssi schrieb:
Auf Basis der GPU Frames oder der GPU+CPU also Gesamt FPS ? Wenn Letzteres dann super. :daumen:
die Frage versteh ich nicht?

Deine GPU kann keine Frames ohne die CPU berechnen.

Die Bilder pro Sekunde, welche also ohne DLSS auf deinem monitor landen ist eine Gemeinschaftsleistung von unterschiedlichen Subsystemen in deinem Computer - am meisten tragen GPU und CPU dazu bei.

Und aus diesen FPS wird dann zwischen Bilder erzeugt.
 
  • Gefällt mir
Reaktionen: Alexander2
Zurück
Oben