Test FSR 3 mit FMF im Test: AMDs Frame Generation ver­wirrt, zickt und zeigt Potenzial

Verangry schrieb:
Forspoken ist an die Desktop-Auflösung gebunden, stell den desk auf deine Auflösung, wähle Vollbild ingame und Stelle dann die Auflösung ein die das Spiel nutzen soll (anders habe ich es auch nicht hinbekommen).


Oh man, das ist schon hart... Downsampling ist dann also für den Alltag zumindest für mich in dem Spiel ohnehin keine Option, aber zumindest auf den ersten Blick kann man da schon noch ein besseres Bild rausholen, allerdings muss man dafür auch mit einer 6700XT auf RT verzichten, was die nativ in 1080p noch problemlos schafft.

Liegt sicher auch an der nativen Auflösung, niedrigere eignen sich für Upsampling ohnehin nicht so gut, aber zumindest für 1080p würde ich sagen NativeAA>nativ>Qualität. Und am besten mit FMF, wenn man es mit VSync in eine gute fps-Range bekommt, also knapp unterhalb der Frequenz des Monitors.
 
Ich kann dieser Entwicklung überhaupt nichts abgewinnen.

Im Ansatz ist FSR/DLSS gar nicht so verkehrt. Man rendert das Spiel in einer kleineren Auflösung und skaliert es hoch. Im Kern es das ja dafür da:
a.) in 4k ein flüssiges Spielerlebnis zu präsentieren (weil die Rohleistung leider nicht mehr ausreicht) und
b.) man Spielern mit schwächerer Hardware Spielen neuerer Titel halbwegs flüssig spielbar macht (das hat mit einem 5700G und Diablo 4 echt gut funktioniert!) und
c.) je nach Modi die Qualität verbessern soll

Mit FMF/FG kann ich allerdings nichts mehr anfangen. Dieses künstliche Frames erzeugen, die es gar nicht gibt, ist für mich ein völlig falscher Ansatz und dem KI-Hype geschuldet. Es erhöht vielleicht die FPS aber die Qualität leidet in meinen Augen. Das schwenken in den Videos löst in mir Schüttelfrost aus - wenn das flüssig sein soll, gute Nacht.

Ich finde, dass man dieses künstliche erzeugen von Frames merkt. Da passt irgendwas nicht zusammen.
In Strategiespielen mag das vielleicht funktionieren aber sobald es um schnelle Szenen geht - macht es für mich keinen Sinn. Das kann eine KI vielleicht in 10 Jahren so in Echtzeit berechnen, ohne das man es merkt.

Vielleicht sollte man sich mal wieder bemühen, die Rohleistung zu erhöhen, statt auf der Stelle zu treten und die KI halbgar etwas berechnen zu lassen. Vielleicht bin ich aber auch einfach zu alt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NOTaNerd, McTheRipper, wirelessy und 3 andere
fox40phil schrieb:
Die 4070 (ti?) wurde ja direkt mit DLSS Werten beworben... das finde ich absolut schrecklich!
Dass wir nun soweit gekommen sind oder so tief gesunken sind?
Du musst dich unbedingt zu DLSS belesen. Am Anfang ging es primär gar nicht um mehr FPS
sondern um eine gute Kantenglättung. DLSSAA (Deep Learning Super Sampling Anti Aliasing)
hieß es damals und man wollte TAA, FXAA, TXAA, MSAA und das ganze "Billig Zeug" ersetzen.

Jetzt wo 100Hz+ im Mainstream angekommen ist geht es natürlich auch um mehr FPS für Alle
und das geht mit Frame Generation super solange man mit DLSS bereits mindestens 60FPS hat.
Dazu kommt Ray Tracing was massiv GPU Leistung kostet und nativ noch lange nicht flüssig ist.
 
  • Gefällt mir
Reaktionen: fox40phil
Für mich ist DLSS 3 Frame Generation und jetzt AMDs Antwort darauf eine insgesamt falsche Entwicklung, wenn es um "besondere" Grafikkarten-Features geht. Im Grunde handelt es sich bei dieser Technologie mehr um Marketing als alles andere. Was für die GPU-Hersteller bei FG am meisten von Bedeutung ist sind längere Balken bei den FPS-Angaben in Spielen.

Ich persönlich stelle den wahren Nutzen von FG für das Gaming stark in Frage. Man erhält zusätzlich eingefügte Zwischenbilder, dessen Erzeugung gleichzeitig mit einer Menge technischer Probleme behaftet ist. Sprichwörtlich löst man ein Problem und schafft sich zwei neue. Frame Generation ist, ganz im Gegensatz zu guten Upscaling, eher fragwürdig. Zumindest sehe ich darin keine große Sinnhaftigkeit, sondern vielmehr eine unnötige technische Spielerei.

Beim Thema GPU wünsche ich mir für die Zukunft wieder weniger Fake-Technologien und mehr echte Kenngrößen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil und Windell
Warum diese ganze Diskussion um die Latenz? Bei NV hab ich FG schon öfter benutzt und war einfach nur begeistert. Die Latenz hat sich bei keinem Titel verschlechtert, ich nehme dies zumindest nicht wahr. Der Spielspaß ist jedenfalls gestiegen wenn ich plötzlich doppelt soviel FPS habe. Manche Leute, meistens AMD Nutzer, sehen hier ein Problem obwohl es keins gibt. MrHeisenberg hat das schon mehr als einmal hier erklärt.

Dann hab ich wieder die wie so oft kritische Frage gelesen wieso NV diese Technik nicht allen zur Verfügung stellt. Im Falle von FG ist es ganz einfach. Bei der 4000er Serie gibt es eine Hardware Komponente, den "Optical Flow Accelerator". Dieser ist eine dedizierte Recheneinheit speziell für FG. Daher wundert es mich wenig das AMD da rein softwareseitig an NVs Qualität (noch) nicht ran kommt.
 
  • Gefällt mir
Reaktionen: Coeckchen
FSR/DLSS kann einen Nutzen haben (upscaling auf 4k) aber FMF ist so unnötig wie ein Kropf und dient einzig der FPS-Inflation und Benchmarkschönfärberei.
 
Stimme @TigerherzLXXXVI da zu.

Mir gefällt diese Entwicklung und der immer stärker werdende Fokus auf die ganzen Technologien überhaupt nicht.

Eher sollte der Fokus auf Effizienz liegen. Beispiel die Leistung einer 4090 bei der Hälfte oder bei 1/3 vom aktuellen Vebrauch.
 
TigerherzLXXXVI schrieb:
Ich persönlich stelle den wahren Nutzen von FG für das Gaming stark in Frage.
Der Nutzen sind mehr FPS und eine flüssigere Darstellung also ein bessere Spielerlebnis.
Bei TV's gibt es bereits seit 2009 eine Zwischenbildberechnung aber mit mehr Input Lag
und Bildfehlern. Die GPU basierte Technik ist um Welten besser, wenn auch nicht perfekt.

Trotzdem stellt sich die Frage des Nutzens eigentlich gar nicht weil der Aufwand die FPS
nativ zu rendern viel zu kostenintensiv ist. Wie kommt man von 4K 60 FPS auf 120 FPS ?
Dafür braucht man bei CPU und GPU 1-2 neuere Generationen also völlig unrealistisch !

Windell schrieb:
Eher sollte der Fokus auf Effizienz liegen. Beispiel die Leistung einer 4090 bei der Hälfte oder bei 1/3 vom aktuellen Vebrauch.
Den Verbrauch der 4090 kannst du von 400 auf 200 Watt drücken wenn du auf ein paar FPS verzichtest.
Als Extrembeispiel hält natürlich CP2077 mit Path Tracing her weil das braucht utopisch viel GPU Power.

4K nativ:
Cyberpunk2077_2023_10_11_02_35_38_248.jpg

4K nativ + UV:
Cyberpunk2077_2023_10_11_02_36_22_584.jpg

4K + DLSS Quality + UV
Cyberpunk2077_2023_10_11_02_37_07_443.jpg

4K + DLSS Quality + FG + UV:
Cyberpunk2077_2023_10_11_02_37_40_653.jpg

4K + DLSS Performance + FG + UV:
Cyberpunk2077_2023_10_11_02_38_37_508.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Guphoff, sethdiabolos, fox40phil und 2 andere
@0ssi Das sollte aber nicht Aufgabe der Käufer sein sowas durch UV und ggf. Einbußen in Leistungen in Kauf zu nehmen.
Außerdem stellt man hier im Forum auch eine Randgruppe dar.
Einer der seinen fertigen Gaming PC mit ner 4090 kauft wird sich dann nicht hinsetzen und sich mit UV etc beschäftigen, geschweige er weiß überhaupt das es so eine Möglichkeit gibt.

Außerdem wenn Grafikkarten von Haus aus deutlich effizienter sind, kann man sich auch diese Monsterkühlungen sparen.
Dann reicht auch ne schöne kompakte 2 Slot Karte.
 
Vermutlich wollen die meisten RTX4090 Käufer auch gar keinen Strom sparen weil wer für eine Grafikkarte
1500€+ ausgibt dem sind 100-200Watt egal weil das entsprich bei 5h Zocken pro Tag nur 50-100€ pro Jahr.

Das Thema Energie sparen scheint wohl bei PC Gaming generell keine Rolle zu spielen weil sinnvolle Dinge
wie Frame Limiter, CPU TDP Limit oder Lichtsensor am Monitor interessieren irgendwie auch Niemanden.
 
Shinigami1 schrieb:
Bei der 4000er Serie gibt es eine Hardware Komponente, den "Optical Flow Accelerator". Dieser ist eine dedizierte Recheneinheit speziell für FG.
Diese Hardwarekomponente gibt es in allen RTX Karten seit Turing.
Laut Nvidia arbeitet der Optical Flow Accelerator doppelt so schnell in Ada wie auf Ampere.
Bryan Catanzaro von Nvidia meinte aber FG sei "Theoretisch" möglich auf allen RTX Karten.
Ob Nvidia FG nur Ada vorenthält wegen Kapital oder es wirklich nur auf Ada möglich ist, werden wir vermutlich nie erfahren.
 
  • Gefällt mir
Reaktionen: raPid-81
Windell schrieb:
Mir gefällt diese Entwicklung und der immer stärker werdende Fokus auf die ganzen Technologien überhaupt nicht.

Eher sollte der Fokus auf Effizienz liegen. Beispiel die Leistung einer 4090 bei der Hälfte oder bei 1/3 vom aktuellen Vebrauch.
Genau das bekommst du doch, wenn du DLSS + FG inkl sinnvoller FPS Limits nutzt^^
Aus 300W bei 60FPS nativ werden 150W bei 80FPS mit DLSS Balanced + FG und ich sehe und spüre keinen Unterschied
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Leereiyuu, fox40phil, Coeckchen und 2 andere
Ray Donovan schrieb:
Vielleicht sollte man sich mal wieder bemühen, die Rohleistung zu erhöhen, statt auf der Stelle zu treten und die KI halbgar etwas berechnen zu lassen. Vielleicht bin ich aber auch einfach zu alt.
In dem Bereich der Rohleistung stagniert es doch schon seit Jahren. Das Problem ist und bleibt der Stromverbauch wenn du das haben willst.

Bestes Beispiel ist doch hier die RTX4090, die 600 Watt aufnehmen kann, dabei eine unglaubliche Leistung zeigt, man dafür allerdings auch eine PSU braucht, das sich bei mir die Balken biegen. Wer finanziell keine Sorgen hat, der wird sich auch eine Grafikkarte in den PC zimmern die 1000 Watt benötigen wird.

In diese Richtung bewegen wir uns nämlich schon stark hin. Es ist halt leider so, willst du mehr Rohleistung haben, benötigt die Hardware dafür auch mehr Strom. Deswegen neue ATX Standards, neue Stromstecker, neue Boards mit zusätzlichem Steckplatzgedöns für den Pixelbeschleuniger.

Es wird langsam schwierig, das in normalen PC Gehäusen zu kühlen. Aus dem Grund hat Nvidia auch die Leistungsaufnahme der RTX 4090 auf 400 Watt gezügelt. Wenn es dir Spaß macht dann prügelst du sie halt auf 600 Watt hoch.

Aus diesen Grund müssen sich die Hersteller halt andere Spiränzchen einfallen lassen um den potenziellen Gamer mit solchen Marketingstrategien noch an Land zu ziehen.

Bei mir muss bei einer Graka das Preis Leistungsverhältnis stimmen. Meine RX 6800 am Smart TV schafft 4k Spiele in 60 FPS gut, allerdings schnauft sie dabei bei AAA Titeln auch schon ganz schön unter einer AM4 Plattform. Sie verbraucht dabei zum Glück nur maximal 215 Watt und ganz selten habe ich Sie mal bei 220 Watt gesehen.

Da gehe ich gerne auch mal auf 1440p runter damit das Spiel ohne diese Features in anehmbaren Frames läuft und die Leistungsaufnahme moderat bleibt. Lieber native Auflösung, als irgendein Hoch oder Runterskalieren wo einfach unter meinen Augen die Bildqualität spürbar leidet.

Ich finde DLSS bei Nvidia übrigens gelungener als FSR bei AMD. Bei einigen Spielen habe ich es ausprobiert wie God of War, Uncharted usw.

Wenn FSR in den Games gut implementiert ist, dann ist es durchaus brauchbar aber ehrlich gesagt brauche ich dieses Feature erst, seit dem ich vor gut 3 Jahren einen 1440p 165Hz Gaming Monitor gekauft habe.

Ja ich wollte Spiele halt mal über den obligatorischen 60 Bildern pro Sekunde sehen, stelle aber auch in zunehmenden Alter fest, das mir 60FPS als Gaming Opa absolut ausreichen.

Als junger Kerl will man halt Up to Date sein und macht hier als Gamer noch jeden Mist mit, aber diese Zeiten sind bei mir mit 51 Jahren nun absolut vorbei.
 
  • Gefällt mir
Reaktionen: Banu
Moep89 schrieb:
Da fallen mir nur 3 Worte ein: Warum zur Hölle?
Dieses Desaster ist genau so verheerend wie unnötig. Hat da der Praktikant einfach auf den großen Release-Button gedrückt und den ganzen Konzern kalt erwischt? Anders kann man sich das nicht erklären. Desolater Zustand und keine Info von AMD. Stattdessen plötzliche Änderungen und Ankündigungen, als wüsste die Firma selber nicht, was sie da eigtl. machen.
Warum? Weil die Fachpresse und die Forenuser sich gerne auf die FPS-Zahlen stürzen, und die steigen im Best-Case mit Frame Gen. Kann man also viel besser verkaufen.
 
  • Gefällt mir
Reaktionen: Banu
Klingt doch technisch erstmal recht vielversprechend für den ersten Release, auch wenn AMD es Marketing und Support mäßig eher in den Sand gesetzt hat. Bin gespannt wie es sich entwickelt und wie häufig es in Zukunft implementiert wird.

Bin von DLSS FG immer noch hin und her gerissen, es kommt extrem auf den Anwendungsfall an ob es Sinn macht. Zocke aktuell nochmal CP2077 und hier ist z.B. 4K + DLSS + RT Ultra mit 80-100 FPS + VRR Monitor deutlich angenehmer ohne FG zu spielen. Hab auch das Gefühl wenn ich FG aktiviere das ich weniger native Frames erhalte weil die FPS bei 120 begrenzt sind und die Leistungsaufnahme runter geht. Scheinbar denkt sich hier die Nvidia Karte ich muss ja weniger native Frames errechnen wenn ich mit FG eh an den FPS Limiter komme.

Wenn man Pathtracing aktiviert und dann eher nativ bei 60-80 FPS landet ist es mit FG eine deutlichere Verbesserung, da komme ich dann aber auch nicht an das 120FPS Limit ran.

Alles <60 FPS nativ fühlt sich mit FG in Shootern weiterhin zu langsam an weil der Inputlag dann doch zu hoch ist... hier merkt man einfach dass das Bild künstlich flüssiger gemacht wurde.

Aber den Grundgedanken von FG oder wie man es auch immer in Zukunft nenen mag finde ich sehr interessant. Wenn jetzt nach so kurzer Zeit schon die Probleme mit dem HUD gelöst wurden sehe ich da auch in Zukunft viel Potential.

Bleibt nur noch zu hoffen das eventuell AMD und Nvidia sich irgendwann mal auf einen gemeinsamen Standard einigen könnten... aber glaube dazu wird es leider nie kommen...
 
FSR3 funktioniert soweit ich das jetzt mit der Forspoken Demo beurteilen kann schon recht gut.

Das Problem ist dass es bis jetzt nur in zwei Spielen funktioniert, die mich null interessieren. Forspoken lief auch vorher schon gut genug auf meiner GPU. Aber das Spiel ist wirklich nicht meins. Nun gut.

Warum keine wirklichen Blockbuster, AMD? Warum nicht Starfield? Von Cyberpunk gar nicht zu reden.

Nvidia hat sich mit Cyberpunk wirklich einen Vorzeigetitel herausgesucht um ihre Techniken über Jahre hinweg in das Rampenlicht zu stellen. AMD kommt mit zwei Titeln daher die wirklich mittelmässig sind. Und auch wenn Starfield jetzt nicht Cyberpunk ist, dann hätte es doch zumindest der Vorzeigetitel sein können. Vor Allem weil man dauernd im CPU Limit hängt.
 
eRacoon schrieb:
Klingt doch technisch erstmal recht vielversprechend für den ersten Release, auch wenn AMD es Marketing und Support mäßig eher in den Sand gesetzt hat. Bin gespannt wie es sich entwickelt und wie häufig es in Zukunft implementiert wird.
Genau das ist der Punkt. Es wird viel zu schwarz gemalt. Es erstaunt mich, dass sie überhaupt Zwischenbilder in gleicher Qualität generieren können. Das läuft auf einer 5700xt oder 2070. NVidia schafft es nicht mal, die FG auf der RTX 3000er Generation umzusetzen (was für die Käufer richtig übe ist meiner Meinung nach)
Jetzt heißt es die Bugs fixen und Polishing. Der Launch wurde natürlich versaut, aber was sollen sie machen. FSR3 war versprochen mit den RX 70000.

Auf lange Sicht ist AMD aber in der Sackgasse ohne AI. Nvidia wird mit der nächsten Generation neue KI Features bringen und es wird immer unwahrscheinlicher, dass AMD mit klassischen Computing, welches auch noch auf alten GPUs läuft, mithalten kann. Long story short: Ich denke, AMD braucht dringend AI cores in der neuen GPU Gen und muss dort nachziehen.

ps. In Forspoken hatte ich mit FSR3 eine schön glatte 160 FPS CAP Linie und es lief schon recht gut.
 
  • Gefällt mir
Reaktionen: Banu
Zurück
Oben