News AMD: FSR 3.0 soll die Framerate im Jahr 2023 verdoppeln

lxmichi schrieb:
Wie geht die CPU mit den hohen FPS um bzw. verhalten sich die Bilder über DLSS gleich wie normale Frames?

Also Angenommen meine CPU schafft in einem Game 100 Frames.
Dann drehe ich die Grafik voll auf und bin theoretisch bei 80-90 Frames. Wenn ich nun DLSS aktiviere, komme ich dann über die 100FPS oder hänge ich dann auch im klassischen CPU Limit?

Wenn deine CPU 100 FPS schafft und deine GPU 80 FPS, dann sorgt DLSS2 bzw. das klassische Upscaling dafür, dass die GPU entlastet wird (rendert intern mit geringerer Auflösung) so dass du in diesem Fall schnell im CPU Limit landen würdest.

Aktivierst du aber DLSS3 Frame Generation, dann werden die FPS immer verdoppelt.
Hast du also 100 FPS im CPU limit, dann kannst du mit Frame Generation theoretisch 200 FPS erreichen.
In der Praxis wird es oft weniger sein, weil es nen gewissen Overhead bei dem ganzen gibt, aber grob haste mit Frame Generation 50-100% mehr FPS.

Die höheren FPS erreichst du trotz CPU Limit, weil die Frames komplett auf der GPU generiert werden und völlig unabhängig von der CPU und der Spiellogik laufen.

Bei DLSS2 Upscaling ist es immernoch so, dass die CPU die daten für einen Frame an die GPU schickt. Die GPU ist dann zwar schneller fertig mit rendern, weil die Auflösung vorm Upscaling geringer ist, aber solange eben keine neuen Daten von der CPU kommen, wird die GPU auch keinen neuen Frame erstellen können.
Genau da setzt eben frame Generation ein. Man verzögert die Bildausgabe ein wenig, um auf den nächsten Frame zu warten und erzeugt dann Zwischenbilder.

Dank Reflex wird zudem die Latenz reduziert, womit diese Verzögerung kompensiert wird.

Am Ende hast du ein extrem flüssiges Bild, das zwar nicht an die Latenz einer realen hohen Framerate rankommt, sich aber dennoch deutlich besser spielt, als komplett ohne Frame Generation. Solange man damit keine competitive Shooter spielt, wird es sich unterm Strich immer wie eine deutliche Verbesserung anfühlen. Zudem werden die Frametimes stark geglättet, auch im CPU Limit.


mMn. ein absolutes Killerfeature, das viele Probleme auf einem Schlag löst und High FPS Gaming in sehr fordernden Spielen endlich ermöglicht. Denn bisher hat es spätestens in 4K meist an GPU leistung gescheitert (gut, hier hat DLSS2 schon geholfen) oder eben an CPU Leistung.

Kombiniert man beide Techniken, sind Framerates jeneseits der 200 FPS in 4K kein Wunschdenken mehr und auch 4K mit 120 FPS und Raytracing sind trotz CPU Limit problemlos machbar. Framerates, die man sonst mangels CPU Performance wohl erst in 5-10 Jahren erreichen würde. (verdopplung der FPS eben, selbst wenn das Spiel single Threaded ist)



Ich bin sehr gespannt auf FSR3.
Einerseits auf die Qualität (wobei man hier sagen muss, dass Frame Generation kaum Qualitätsprobleme hat, weswegen die chancen gut stehen könnten, dass selbst eine nicht ganz so gute Umsetzung mit FSR3 eben auch "gut genug" sein könnte - muss sich dann zeigen)
Und andererseits die Performance. Nvidia sagt, das läuft nur auf Ada wegen den verbesserten Hardwareeinheiten. AMD hat gar keine Hardwareeinheiten dieser Art.
Da das ganze scheinbar sehr performancehungrig ist, wird der Overhead bei AMD deutlich höher sein. Hier stehen sich also dann Berechnungskosten entgegen des FPS gewinns.

Aber gut, das gleiche hat man schon bei DLSS2 vs FSR2 vermutet. Am Ende lief FSR2 erstaunlich schnell und kostete auf Nvidia Karten sogar weniger Rechenzeit, als auf AMD Karten.
Es bleibt spannend.

Auch wenn man sagen muss, dass hier wiedermal Nvidia der Innovator war und AMD nachgezogen hat. Wie schon bei DLSS2, raytracing, Reflex, Gsync, you name it.
Nichts desto trotz gut, dass AMD hier auch am Ball bleibt. Von der Konkurrenz profitieren am Ende alle.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82, TexHex, Taxxor und eine weitere Person
Caramelito schrieb:
Stell dir vor FSR3 läuft auf RTX 3xxx.
Das würde Nvidia eher wehtun ^^

Man wie würde ich mich darüber freuen. Nur um NVIDIA eins aus zu wischen.
DLSS 3 lief ja schon recht gut auf ner 2070S(Ich glaub, war ohne FG).

Ich denke, wenn FSR 3.0 für die 30er oder auch sogar 20er Generation von Nvidia Karten freigeschaltet wäre, dann würden wir ganz schnell DLSS 3.0 (FG)für diese Generationen von Nvidia nachgereicht sehen.

Ich bin gespannt, ob das so kommen wird und was überhaupt so noch passieren wird.
 
Windell schrieb:
Naja Technologien wie DLSS haben auch Nachteile.
Im aktuellen techniklevel eher nicht mehr. Da überwiegen die Vorteil zu einem solch extremen Grad, dass die Nachteile (ein Tausch von Raster- Artefakten gegen temporale Artefakte) technisch so gut wie nicht mehr vorhanden sind.
Windell schrieb:
Neben der Tatsache das es nicht immer optimal umgesetzt wird,
...was ja nicht der Technologie an sich zuzuschreiben ist...

Windell schrieb:
habe ich das Gefühl, dass die Entwickler sich dann künftig weniger Mühen geben für Optimierungen weil "DLSS und Co regeln das ja schon" .
...was eben auch nicht der Technologie an sich zuzuschreiben ist...

Windell schrieb:
DLSS sollte etwas sein, was zusätzlich on top Leistung bietet und nicht erst dadurch ein Spiel spielbar wird in hohen Frameraten.
DLSS wurde ursprünglich als eine Komplementärtechnolgie zur Beschleunigung von RTRT und zur Verminderung des Rauschens bei niedriger Samplezahl entwickelt.
Wobei die Technologie in der Weitereintwicklung nun, wenn Richtig eingesetzt, auch in normalen Rastersituationen für erhöhtes Tempo und das in Supersamplingqualität sorgt.
 
  • Gefällt mir
Reaktionen: Pater_Erminold, Laphonso, Lübke82 und 3 andere
.Sentinel. schrieb:
...was ja nicht der Technologie an sich zuzuschreiben ist...


...was eben auch nicht der Technologie an sich zuzuschreiben ist...
Aber trotzdem zur Nutzung der Technologie dazugehört,auch wenn man es nicht hören mag.


Im aktuellen techniklevel eher nicht mehr. Da überwiegen die Vorteil zu einem solch extremen Grad, dass die Nachteile (ein Tausch von Raster- Artefakten gegen temporale Artefakte) technisch so gut wie nicht merh vorhanden sind.
Das würde für mich heißen, DLSS ist in jedem Spiel qualitativ gleich oder besser als die native Auflösung.
Und das ist es eben nicht.
 
  • Gefällt mir
Reaktionen: cbmik und ThePlayer
shoKuu schrieb:
Du warst wohl noch nicht in den Bergen, hast noch nie bei guten Wetter und Sicht vom Berg geschaut... Brillenträger? Es soll auch Menschen mit guten Augen geben. Aber es natürlich einfacher sich selber Recht zugeben, anstatt eine Diskussion zu führen. Diskussionskultur eines Steins... Deine Instagram Filter helfen bei Intellektueller Kurzsichtigkeit halt eben nicht ;)
Ein 10x10cm großes Objekt das bei einem Fov von 90 in 500m Entfernung gerendert wird, nimmt auf einem 4k Bildschirm unglaubliche 13 Pixel (0,5mm auf 27") ein. Aber es liegt mit Sicherheit am DoF oder Motionblur und nicht deiner eingeschränkten Sicht auf die Realität, dass das Objekt nicht in aller Klarheit dargestellt wird...
 
Zuletzt bearbeitet:
franzerich schrieb:
FSR und DLSS sind eine Seuche geworden, wenn man Benchmarkvergleiche auf Youtube sucht.
Da gibt es den Spreu und den Weizen, wie in jedem anderen Medium auch. Seriöse Youtuber erklären schon noch, wie sie getestet haben.
 
  • Gefällt mir
Reaktionen: Lübke82 und DrFreaK666
t3chn0 schrieb:
Bei Frame Generation wird das CPU Limit verschoben. Im FS2020 schafft meine CPU ca. 28-30FPS in 4K Ultra am Flughafen Frankfurt. Mit Frame Generation sind es butterweiche 70-80FPS, ein Unterschied wie Tag und Nacht.
Das klingt rein technisch unmöglich, wenn du jeweils von der gleichen Szene sprichst.

Frame Generation kann ja durch die Zwischenbilder die FPS maximal verdoppeln.
Wenn deine CPU bei 28-30 dicht macht, könntest du im gleichen Szenario auch mit FG nur 56-60 FPS erreichen.
(was natürlich immer noch super ist!)
Denn "verschoben" wird das CPU Limit ja dadurch auch nicht, das ist immer noch da wo es vorher war. Es spielt nur nicht in die generierten Frames mit rein.
 
  • Gefällt mir
Reaktionen: N0Thing
Ich kann auch gerne ein Video davon machen. Ich bereite gerade die 7900X3D Tests vor.

Mit dem 7900X habe ich am Flughafen Frankfurt auf der Startbahn reproduzierbare 42 FPS. Stelle ich Frame Generation an, ändere den Winkel nicht und nichts, zeigt er 95 FPS an. Du kannst es ja selbst Mal versuchen.
 
Windell schrieb:
Das würde für mich heißen, DLSS ist in jedem Spiel qualitativ gleich oder besser als die native Auflösung.
Und das ist es eben nicht.
Würde die Technik in jedem Spiel nach Vorgaben von nVidia eingesetzt, wäre es aber so.
Also- Ist es jetzt die Schuld von nVidia und deren Technik oder die Schuld der Entwickler, die die Software nicht nach Vorgabe gestalten?
 
  • Gefällt mir
Reaktionen: Taxxor, Laphonso und Iconoclast
Windell schrieb:
Das würde für mich heißen, DLSS ist in jedem Spiel qualitativ gleich oder besser als die native Auflösung.
Und das ist es eben nicht.
Definiere Qualität.

Für mich sind zB 100fps DEUTLICH besser als 60fps. Das ist eine reine Qualitätssteigerung für mein Spielgefühl.
Die Smoothness schlägt in dem Fall die minimal bessere native Auflösung (Wenn gleich ich schon erwähnt habe, dass DLSS in den meisten Games sogar besser als nativ aussieht).
 
  • Gefällt mir
Reaktionen: Pro_Bro, Lübke82 und 0ssi
@Caramelito Qualität heißt für mich, ich merke optisch nicht ob ich mit oder ohne DLSS spiele. Oder es sieht sogar noch besser aus. Sprich die Kanten sind scharf,keine Matschtexturen,kein Schlieren etc.
 
Aber die Framerate gehört auch zur Optik also zumindest bei Bewegung. Wenn man natürlich bereits nativ
so viel FPS wie Hz schafft also z.B. 120FPS@120Hz dann bringt DLSS eigentlich nur 100Watt Stromersparnis.

4K nativ verbraucht unverhältnismäßig viel Energie um auf DLSS zu verzichten. Dann würde ich sogar eine
minimal schlechtere Bildqualität in Kauf nehmen. Bei viel Vegetation sehen ich mit DLSS leichte Nachteile.

Nvidia Frame Generation finde ich genial denn auf einmal schafft auch meine CPU 120 statt 80FPS. :daumen:
 
franzerich schrieb:
FSR und DLSS sind eine Seuche geworden, wenn man Benchmarkvergleiche auf Youtube sucht

Dann schau dir halt seriöse Videos an. Ist ja nicht so als würde es daran mangeln. Und um Balken zu vergleichen muss dein Englisch nicht mal gut sein
 
  • Gefällt mir
Reaktionen: Lübke82 und Kommando
Doch, mangelt es. Für einige Grafikkarten, u.a. im Lower-End Bereich (xx50 GPUs), inklusive APUs, iGPUs gibt es leider nicht viele seriöse Kanäle die das machen. Die meisten seriösen Kanäle bedienen nur die "Oberschicht".

Dazu kommt noch, dass nicht nur FSR und DLSS es chaotischer machen, sondern auch ungleiche RAM-Konfigurationen, ungleiche Watt-Konfigurationen usw. Mit FSR, DLSS wurde noch eins draufgesetzt, und jetzt ist es noch chaotischer und schwieriger brauchbare Vergleiche zu finden (mit Betonung auf "brauchbar". Es gibt tatsächlich viele Vergleichsvideos, die "alles mögliche" vergleichen, aber wenn man näher hinschaut, merkt man dass da sehr viel Quatsch verglichen wird).
 
Zuletzt bearbeitet von einem Moderator:
Bin gespannt ob FSR3.0 auch eine Art FG beherrschen wird. :D
 
t3chn0 schrieb:
Ich kann auch gerne ein Video davon machen. Ich bereite gerade die 7900X3D Tests vor.

Mit dem 7900X habe ich am Flughafen Frankfurt auf der Startbahn reproduzierbare 42 FPS. Stelle ich Frame Generation an, ändere den Winkel nicht und nichts, zeigt er 95 FPS an. Du kannst es ja selbst Mal versuchen.

Screenshots mit entsprechendem Overlay wo man alles ablesen kann sollten doch auch reichen.

Aber letztendlich sollte dir doch auch klar sein, dass mehr als eine Verdoppelung sich erstmal nicht erklären lassen würde, da FG nunmal nichts anderes macht, als ein zwischenbild zwischen zwei Frames zu erzeugen.
Aufgrund des Overheads würde man eher weniger als doppelt so viele FPS erwarten.

Wenn die FPS höher sind, muss das einen anderen Grund haben. Bist du denn bei den 42 FPS wirklich vollständig im CPU Limit?

Die einfachste Erklärung wäre, du bist im GPU Limit bei 42 FPS und aktivierst DLSS2 Upscaling, gewinnst hier schon ein paar FPS dazu und landest dann mit FG bei den 95 FPS.


Aber solche Kuriositäten sind letztendlich nichts neues.

Im Test zu Hogwarts Legacy hat sich der Redakteur auch gewundert, warum DLSS2 im Quality Mode in 4K (intern berechnete 1440p) exakt genauso schnell läuft wie native 1440p, wo doch das Upscaling mit DLSS eigentlich etwas aufwändiger sein sollte und daher ein wenig langsamer laufen müsste. Da machtes es auch den Anschein, als wäre das aufwändige Upscaling plötzlich "kostenlos" und schneller als es sein sollte.
Bei FSR2 auf der AMD karte war dann sogar FSR2 im Quality Modus (1440p intern) tatsächlich schneller als native 1440p

Die Wahrheit wird sein, dass DLSS und FSR2 das spielinterne TAA komplett ersetzen, und das TAA in der Unreal Engine in der höchsten Qualitätsstufe mittlerweile vergleichsweise viel Leistung kostet, zufälligerweise genauso viel Leistung wie die Berechnung von DLSS bzw. sogar etwas mehr Leistung als FSR2.

Vielleicht gibt es mit FG auch solche Effekte, die uns vielleicht noch nicht ganz bewusst sind.
 
Mimir schrieb:
Aktivierst du aber DLSS3 Frame Generation, dann werden die FPS immer verdoppelt.
Was Dir aber Null hilft, wenn a) die Ausgangs-FPS zu gering sind und b) die Latenz trotz Reflex erhöht wird, logischerweise. Wenn Du 30fps hast, dann ist DLSS3 und in Zukunft auch FSR3 komplett nutzlos. In dem Fall ist es besser nur DLSS2/FSR 2.x zu verwenden. Wenn Du schon 100fps hast, dann hat DLSS3/FSR3 einen Nutzen.
 
franzerich schrieb:
Doch, mangelt es. Für einige Grafikkarten, u.a. im Lower-End Bereich (xx50 GPUs), inklusive APUs, iGPUs gibt es leider nicht viele seriöse Kanäle die das machen. Die meisten seriösen Kanäle bedienen nur die "Oberschicht".

Dazu kommt noch, dass nicht nur FSR und DLSS es chaotischer machen, sondern auch ungleiche RAM-Konfigurationen, ungleiche Watt-Konfigurationen usw. Mit FSR, DLSS wurde noch eins draufgesetzt, und jetzt ist es noch chaotischer und schwieriger brauchbare Vergleiche zu finden (mit Betonung auf "brauchbar". Es gibt tatsächlich viele Vergleichsvideos, die "alles mögliche" vergleichen, aber wenn man näher hinschaut, merkt man dass da sehr viel Quatsch verglichen wird).
Man kann es aber auch zu genau nehmen. 😉
Worum geht es denn? Nur um Leistungsvergleiche. Da muss man keine Wissenschaft draus machen. Da braucht es keine x verschiedene Kanäle. Eins, zwei reichen doch.
 
Eli0t schrieb:
Wenn Du 30fps hast, dann ist DLSS3 und in Zukunft auch FSR3 komplett nutzlos. In dem Fall ist es besser nur DLSS2/FSR 2.x zu verwenden.
Bei 30 ist es in der Tat auch nicht sehr flüssig wenn man mit FG auf 60 geht, Nvidia empfiehlt mindestens 40 als Basis und damit läuft es bei mir auch in bisher jedem Spiel sehr gut, klar ist die Latenz besser wenn man mit DLSS2 die FPS auf 80 bringt aber mir ist das noch nicht negativ aufgefallen.
Ich hatte davor aber auch 3 AMD Karten und hatte daher bei gleichen FPS sowieso immer eine gleiche oder sogar höhere Latenz als ich jetzt mit FG+Reflex habe
 
  • Gefällt mir
Reaktionen: Pro_Bro und Mimir
Kommando schrieb:
Man kann es aber auch zu genau nehmen. 😉
Worum geht es denn? Nur um Leistungsvergleiche. Da muss man keine Wissenschaft draus machen. Da braucht es keine x verschiedene Kanäle. Eins, zwei reichen doch.
Anscheinend ist es eine Wissenschaft, die viele nicht beherrschen, weil viele keine faire Vergleichstests machen und unterschiedlichste Konfigurationen und Settings mischen. Es werden elendsviele Suchergebnisse mit "XXX vs YYY GPU" bei den Suchergebnissen aufgelistet, aber die meisten davon sind nicht brauchbar.

Da werden oft Konfigurationen verglichen, die mehrere Sachen unterschiedlich haben anstatt nur die 1 Sache, die es zu vergleichen gilt. Z.b Konfigurationen wo unterschiedliche Wattbegrenzungen, unterschiedlich getaktete GPUs, unterschiedliche RAM, unterschiedliche Gameeinstellungen (FSR, nicht FSR), unterschiedliche CPUs, unterschiedliche SSDs, HDDs, etc. zusätzlich noch in Kombination anders sind. Es ist grauenhaft. Und wie schon gesagt, am Schluss gibt es nicht mehr allzuviele die das korrekt machen, denn selbst bekannte Kanäle patzen hier, oder es gibt schlichtweg keinen Test für den Grafikkartenvergleich den man sucht.

Aber egal, lassen wir das. Das Thema schweift hier zu sehr in eine andere Richtung ab (die Unfähigkeit von Youtubern ist ja nicht die Schuld von AMD- oder Nvidia-Features).
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben