News FidelityFX Super Resolution: AMD FSR 2.0 soll schon bald angekündigt werden

LorD-AcE schrieb:
Das ist ja auch nur eine Behauptung die einfach mal in den Raum gestellt wird.
Das ist keine Behauptung, dass ist eine Argumentation. Wenn du sie anders formuliert nochmal haben möchtest, dann vergleiche mit dem Posting von @Myschkin ...
LorD-AcE schrieb:
Leider kein Beweis.
Möchtest du, dass hier jemand eine Demo zu temporaler Verrechnung programmiert, die das praktisch beweist? Ein Whitepaper zu den Möglichkeiten von TAA lesen? Oder was erhoffst du dir?
 
  • Gefällt mir
Reaktionen: Wedge. und Wintermute
FeelsGoodManJPG schrieb:
Bin sehr gespannt, auch wenn ich FSR nie benutzt habe, da es doch eher schlechter aussah, als die Grafik etwas runterzudrehen.

Ich für meinen Teil habe genau das Gegenteil festgestellt. Erst durch FSR konnte ich Horizan Zero Dwan auf meiner 1070 überhaupt flüssig spielen und es ist deutlich besser die Grafikqualität auf Hoch und Ultra setzen zu können mit FSR als darauf zu verzichten und dafür auf Ultra-low herum zukrebsen.
 
  • Gefällt mir
Reaktionen: cruse, Corpus Delicti, riOrizOr und 5 andere
LorD-AcE schrieb:
Wenn ich schon lese "Wie der Entwickler von CapFrameX anführt, behaupte AMD selbst, dass FSR 2.0 zum Teil bessere Ergebnisse liefern könne als die native Auflösung" dann wirds mir unwohl. Ich mein, wie soll das gehen? Wenn man mit weniger Pixeln etwas rendert und dass dann hochskaliert, mit allen möglichen Tricks, hat man doch dennoch weniger Informationen im Ausgangsmaterial. Es kann sich also nur um eine sehr subjektive Wahrnehmung handeln, dass es besser aussehe als nativ. Oder sehe ich das falsch?
Das siehst du wirklich falsch. Durch temporale Verrechnung mehrerer Bilder kann man tatsächlich auf mehr Informationen zurückgreifen, als sie ein einzelnes, höher aufgelöstes Bild enthält. Das wird in der Fotografie seit Jahren gemacht, um BIlder zu erhalten, die höher aufgelöst sind als der Kamerasensor selbst:

Superresolution Photos

Dazu ist auch keine KI notwendig und Nvidias DLSS nutzt ebenfalls keine KI, um die Auflösung hochzurechnen, wie von vielen hier im Forum angenommen.

Das Problem bei Bewegtbildern ist, dass die Pixel nicht mehr einfach verrechnet werden können, da sich deren Position und Eigenschaften je nach Szene ständig ändern. Man greift bei temporalen Ansätzen in der Computergrafik daher auf Bewegungsvektoren zurück, um zumindest die jeweiligen Positionsänderungen der einzelnen Pixel zu berücksichtigen. Genau hier kommt bei DLSS KI zum Einsatz, die darauf trainiert wird, welche Pixel man miteinander verrechnen kann und welche verworfen werden müssen, um Bildfehler und Artefakte zu vermeiden. Deswegen ist DLSS momentan auch allen anderen temporalen Upscalern wie z.B. Unreals TAAU oder TSR überlegen, die auf eine klassische Heuristik zurückgreifen.
 
  • Gefällt mir
Reaktionen: ro///M3o, Slayn, Marc53844 und 26 andere
Findet entsprechende Technik sich dann auch in den aktuellen Konsolen wieder? Da wär nämlich mal ein Upgrade bitter nötig wenn nicht in nativer Auflösung gerendert wird, da vermisse ich grad DLSS und dessen Bildqualität/Performance.
Bei Horizon Forbidden West ist das Rendern unterhalb von UHD teilweise nicht mehr schön anzusehen und in nativer Auflösung gibts dann die "Orgasmus Bildqualität", wo man aber mit 30 FPS rumkrebst und bestenfalls grad noch bissel was vom Fernseher an Bildern interpolieren lassen kann mit etwaigen dazugehörigen Artefakten + Inputlag.
Das sind so Momente, bei Denen ich mir wünschte in den Konsolen würden Nvidia Chips drinne stecken samt DLSS :heul:
 
  • Gefällt mir
Reaktionen: fullnewb
LorD-AcE schrieb:
Wenn ich schon lese "Wie der Entwickler von CapFrameX anführt, behaupte AMD selbst, dass FSR 2.0 zum Teil bessere Ergebnisse liefern könne als die native Auflösung" dann wirds mir unwohl. Ich mein, wie soll das gehen? Wenn man mit weniger Pixeln etwas rendert und dass dann hochskaliert, mit allen möglichen Tricks, hat man doch dennoch weniger Informationen im Ausgangsmaterial. Es kann sich also nur um eine sehr subjektive Wahrnehmung handeln, dass es besser aussehe als nativ. Oder sehe ich das falsch?
Warten wir es nur ab und werden sehen was versprochenwurde und was dabei rauskommt. Über etwas zu schimpfen was ich nicht kenne ist nutzlos
 
  • Gefällt mir
Reaktionen: Dimensionday, medsommer, ThePlayer und 3 andere
Großartig! Temporal Upscaling.

AMD hat’s endlich kapiert.

Ich hoffe, dass FSR 1.0 damit möglichst schnell ersetzt wird, denn das was FSR 1.0 leistet ist kaum der Rede wert.

Klar ohne Deep Learning wird mans wahrscheinlich nicht schaffen, aus 720p ein Bild zu zaubern das auch auf 1440p noch gut aussieht (DLSS2.3 hat da wirklich nochmal einen draufgesetzt) , aber wenn das etwas besser ist als bisherige TAA Lösungen, oder für den Entwickler einfacher zu implementieren als etwas vergleichbares selbst zu entwickeln, dann dürfte das sehr brauchbar werden.

Ich freu mich auch als Nvidia Kunde. Konkurrenz ist immer wichtig. Und wenn kein DLSS verfügbar ist, dann nehme ich ein FSR2.0 mit temporal Upscaling dankend an!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schinken42
Interessant, hoffentlich bekommen wir bald Screenshots zu sehen.
 
  • Gefällt mir
Reaktionen: ThePlayer
eax1990 schrieb:
Findet entsprechende Technik sich dann auch in den aktuellen Konsolen wieder?
Wäre auf jeden Fall denkbar, wenn es wie im Tweet beschrieben Herstellerunabhängig und ohne AI-Ansätze laufen soll. Unter Umständen könnte je nach technischer Umsetzung die PS5 die meisten Nachteile aufweisen, da deren RDNA2-GPU afaik am stärksten in Sachen compute-features beschnitten wurde (z.B. kein DP4a support), wobei letzteres wohl auch eher bei KI-Ansätzen eine Rolle spielt. Intels XESS bietet z.B. die Möglichkeit, sowohl die eigenen, spezialisierten Matrix-Recheneinheiten als auch DP4a auf allen kompatiblen GPUs zu nutzen.
 
  • Gefällt mir
Reaktionen: eax1990
Verstehe ich das richtig?
DLSS und FSR sollen 4k~ Auflösung bieten aber nicht so viel leistung/ram in der GPU kosten wie "echtes" 4k~?
 
"Besser als Nativ" bezieht sich sicher hauptsächlich auf Sachen wie Kantenglättung, da macht es ja einen sehr großen Unterschied, in welcher Auflösung das Bild wiedergegeben wird.

Klingt auf jeden Fall für mich sehr interessant, meine 6800XT braucht das zwar auf 1440p noch nicht, aber vielleicht möchte ich irgendwann ja mal auf 4K wechseln. Die RX580 meiner Freundin hingegen könnte das nochmal etwas länger am Leben erhalten - aus verständlichen Gründen versuchen wir gerade, den Kauf einer neuen Grafikkarte zu vermeiden :D
 
Ich finde das zum Strom sparen und Langlebigkeit der Karten super. Strom wird auch nicht günstiger.
 
silentdragon95 schrieb:
Klingt auf jeden Fall für mich sehr interessant, meine 6800XT braucht das zwar auf 1440p noch nicht, aber vielleicht möchte ich irgendwann ja mal auf 4K wechseln. Die RX580 meiner Freundin hingegen könnte das nochmal etwas länger am Leben erhalten - aus verständlichen Gründen versuchen wir gerade, den Kauf einer neuen Grafikkarte zu vermeiden :D

Kommt darauf an was für Anforderungen/Spiele man hat/ von seiner GPU erwartet.
Hatte auch mal eine 6800XT in den Händen und wenn man mich fragt, ist bei 1440p 21:9 schon Schluß auf höchsten Settings. Für 4K ist die Karte einfach nicht gemacht daher musste ich zur höchsten Riege greifen.

Derzeitiges FSR ist eine Zumutung, ohne zu übertreiben. Wer vorher schon auf low/mittleren Settings gespielt hat, wird da keinen großen Unterschied sehen. Für alle die höhere Grafikeinstellungen und ein knackiges Bild gewohnt sind, sieht es aus wie hinge...... . Da spiele ich doch lieber mit den niedrigsten Settings als FSR auf Max zu stellen.
Von daher ist es durchaus zu begrüßen, dass auch FSR einen Schritt nach vorne macht, ähnlich die DLSS 2.0 damit auch AMD Kunden in den Genuß kommen ihre Karte mal länger zu behalten und trotzdem aktuelle AAA nach Jahren auf hohen Einstellungen spielen zu können.
 
  • Gefällt mir
Reaktionen: FeelsGoodManJPG
FSR ist mMn 3-Stufig. FSR1.0 ist sehr leicht auch für kleine Studios zu implementieren und bietet einen Mehrwert auch für Spiele, die einen IMR-Renderer verwenden, also TAA nicht so einfach zu implementieren ist und läuft auf jeglicher Hardware.
FSR2.0 wird mMn deutlich bessere Resultate liefern, ist immer noch einfach zu implementieren, erfordert keine AI-Berechnungen und ist für Spiele mit deferred Renderern gedacht, wo TAA problemlos geht. Ob FSR2 die temporale Berechnung auch selbst übernimmt wäre interessant, das könnte ein Mehrwert werden für Spiele, bei denen TAA schlecht implementiert wurde.
FSR3 wird es mMn erst mit RDNA3 geben und wird einen ähnlichen Nutzen wie DLSS haben mMn und auch nur dort, also auf Karten mit echten AI-Cores, funktionieren. Wie ich AMD kenne, wird da eine DirectML-Implementation, sodass auch Intel und NV davon profitieren.

DLSS2 und FSR1.0 sind übrigens komplett unterschiedliche Anwendungsbereiche für Hardware und Software und daher gar nicht zu vergleichen. Ich finds immer albern, wenn das vergleichen wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo und Pro_Bro
andronom schrieb:
Dazu ist auch keine KI notwendig und Nvidias DLSS nutzt ebenfalls keine KI, um die Auflösung hochzurechnen, wie von vielen hier im Forum angenommen.

andronom schrieb:
Genau hier kommt bei DLSS KI zum Einsatz, die darauf trainiert wird, welche Pixel man miteinander verrechnen kann und welche verworfen werden müssen, um Bildfehler und Artefakte zu vermeiden. Deswegen ist DLSS momentan auch allen anderen temporalen Upscalern wie z.B. Unreals TAAU oder TSR überlegen, die auf eine klassische Heuristik zurückgreifen.

Ist das nicht ein Widerspruch?
 
Ist nicht vor kurzem die Source zu DLSS geleakt? ;)

Ein Schelm, wer Böses dabei denkt...
 
  • Gefällt mir
Reaktionen: cruse, Dimensionday und Pardy
eax1990 schrieb:
etwaigen dazugehörigen Artefakten + Inputlag.
Das sind so Momente, bei Denen ich mir wünschte in den Konsolen würden Nvidia Chips drinne stecken samt DLSS
Wenn die PS5 ein Nvidia Chip hätte, wäre das keine Garantie, das diese Funktion auch genutzt werden würde.
Horizon Forbidden West und GT7 sind eh keine richtigen Beispiele für die Leistungsfähigkeit der PS5.

andronom schrieb:
Unter Umständen könnte je nach technischer Umsetzung die PS5 die meisten Nachteile aufweisen, da deren RDNA2-GPU afaik am stärksten in Sachen compute-features beschnitten wurde (z.B. kein DP4a support),
Ob das tatsächlich über die Architektur beschnitten ist oder über Software.
Fragwürdig ist auch wie relevant das für die Konsolen sein wird.
 
LorD-AcE schrieb:
Wenn ich schon lese "Wie der Entwickler von CapFrameX anführt, behaupte AMD selbst, dass FSR 2.0 zum Teil bessere Ergebnisse liefern könne als die native Auflösung" dann wirds mir unwohl. Ich mein, wie soll das gehen? Wenn man mit weniger Pixeln etwas rendert und dass dann hochskaliert, mit allen möglichen Tricks, hat man doch dennoch weniger Informationen im Ausgangsmaterial. Es kann sich also nur um eine sehr subjektive Wahrnehmung handeln, dass es besser aussehe als nativ. Oder sehe ich das falsch?
Schafft Nvidia mit DLSS doch auch. Zumindest die Bildschärfe ist oft besser durch wegfallen von Antialaising.
 
Wenn es gelingt, dass FSR nachträglich noch Antialiasing bekommt, dann wäre damit schonmal geholfen.

Speziell in VR ist FSR durchaus eine feine Idee / Sache, leidet aber aktuell meines Erachtens noch daran, dass das hochskalierte Bild dann mehr oder weniger stark an Kantenbildung leidet, da das Upscaling eben erst nach dem AA des jeweiligen Spiels passiert. Wenn es gelingt, dass man z.B. erst hochskaliert und dann noch AA + Schärfe drüber zu legen, wäre das schon ein extrem guter Mehrwert.
 
54698uij0 schrieb:
Ist das nicht ein Widerspruch?
Tatsächlich nicht. Was @andronom aussagt ist, dass keine KI (Kein NeuralNetwork, kein MachineLearning, kein DeepLearning oder unter welchem Begriff jemand gerade lustig ist, das zusammenfassen zu wollen) im Interpolationsschritt eingesetzt würde, sondern nur beim Aufstellen des Interpolationsalgorithmus...
 
  • Gefällt mir
Reaktionen: Schinken42
Was ist denn von der Hardware her die Mindestvoraussetzung? Funktioniert also auch mit aktuellen Karten?
 
Zurück
Oben