News FSR 4 vs DLSS 4?: AMDs KI-basiertes Upscaling seit knapp einem Jahr in Arbeit

Philste schrieb:
Ich denke, dass das frühestens mit dem RDNA4 Nachfolger (UDNA) kommt.
Der Nachfolger von RDNA 4 ist RDNA5. UDNA kommt vielleicht nach RDNA 5. So nebulös wie sich Jack Huynh dazu geäußert hat, ist dieser Entschluss wohl noch nicht so alt.

Ich denke nicht dass AMD noch 4 Jahre wartet bis FSR 4 kommt.
Wenn AMD eine Lösung bringt die in die Games integriert werden muss, dann nützt es nichts wenn AMD nur die aktuelle Generation von AMD unterstützt.
BAR86 schrieb:
DLSS - mit AI. AMD darüber, das brauchen wir nicht mit AI, das geht auc hohne dafür auf mehr GPUs. Ein paar Jahre später "hey, wir haben da was völlig revolutionäres, wir machens mit AI".
AMD hat erst Mal das umgesetzt was schnellt und einfach machbar war. Mit FSR 2 haben sie dann eine aufwändigere Lösung nachgeschoben.

Um die Programmierer zu überzeugen die AMD-Lösung zu unterstützen, musste AMD den offenen Ansatz wählen. Auch für zukünftige Versionen gilt, dass AMD möglichst viele GPUs unterstützen muss.
 
  • Gefällt mir
Reaktionen: Zoba
Bis FSR 4 in mehr als einer Handvoll Spiele (durch Entwickler) genutzt, geschweige denn ausgereizt, wird, dürfte noch einige Zeit vergehen, aber prinzipiell ist der Schritt (das aufholen in dem Bereich auf Intel und nVidia Grafikkarten) wohl zu begrüßen.

Es könnte ein RDNA 4 bevorteilendes Upscaling-Feature sein (ähnlich wie bei XeSS von Intel), welches mit Hilfe von NPUs in aktuellen und kommenden K.I. CPUs (die damit bestückt sind) laufen, oder gar ein exklusives, dass nur mit dafür dedizierten Kernen ab RDNA 4 läuft.

Ob RDNA 2 und 3 noch unterstützt werden bzw. deren Architekturen alleine reichen werden, bleibt abzuwarten, aber ich würde mich nicht wundern, wenn man (wahlweise) RDNA4 oder eine NPU im System brauchen wird, damit FSR4 läuft.
Inwieweit sich FSR 4 damit gegenüber FSR 3(.1) wird durchsetzen können, steht ebenso in den Sternen, denn wenn es erst einmal nur für neue/vergleichsweise teure RDNA 4 und 5 Karten kommen wird oder NPUs vorausgesetzt werden, denke ich, dass sich das noch sehr lange hinziehen wird, da viele nicht bereit sein werden nur deswegen auf eine neuere Radeon GPU oder eine K.I. CU aufzurüsten (meine Wenigkeit eingeschlossen).

Somit sehe ich das eher gelassen bzw. tangiert mich FSR4 erst einmal gar nicht, da es vermutlich weit davon entfernt ist für viele relevant zu werden, eben Zukunftsmusik, auch wenn AMD natürlich irgendwann technologisch dort nachziehen musste, um langfristig konkurrenzfähig zu bleiben.
 
Zuletzt bearbeitet:
DrFreaK666 schrieb:
Korrekt.
Nvidias Ansatz: nur lauffähig ab RTX4000
AMDs Ansatz: lauffähig auf so vielen Karten wie möglich.
Das ist damit nicht gemeint, sondern der optical flow accelerator + Tensor Cores.
Der das berechnete "generierte Feld" dann für mehrere Funktionen nutzt und nicht nur eine.

Hier alles erklärt.

Nvidia bemüht Hardware um diese Dinge zu berechnen, AMD setzt auf Software.
DrFreaK666 schrieb:
Nvidia hätte mit Sicherheit auch AMDs Weg wählen können, wollten sie aber nicht
AMD wird den Nvidia Weg gehen. Früher oder später.
Ergänzung ()

CDLABSRadonP... schrieb:
Nvidia hat halt hammerhart geschummelt(...)
Die Spezifikationen waren für alle ersichtlich und transparent. Sowohl bei AMD`s 80er (300W) wie bei Nvidias 80er (320), insofern ergibt dein Vorwurf der Schummelei in dem Kontext keinen Sinn.
CDLABSRadonP... schrieb:
indem sie die TDPs angehoben haben.
Sie haben den größeren Chip für die 80er genommen, das war doch sehr positiv für die Kunden. Der nächstkleinerei war dann die 3070/3070Ti.

Der Kunde bekam den größeren Chip für weniger Geld. Schummelei sehe ich da nicht.
CDLABSRadonP... schrieb:
Der Test hier zeigt übrigens nochmals schön auf, wie schlecht Ampere unterm Strich war:
In Relation zu welcher GPU? Der 2080 Ti?
Klar, der Effizienzsprung ist nicht hoch, wenn man nur einen 10nm Prozess nutzt. Reichte dennoch um mit der Konkurrenz in 7nm gleichzuziehen.

Das muss erstmal bewerkstelligt werden.
CDLABSRadonP... schrieb:
Selbst in Punkto Raytracing hat Ampere eigentlich kaum etwas liefern können, wenn man die Effizienz ernst nimmt.
Du siehst ja in der Tabelle, dass die RT Effizienz höher als bei RDNA2 ist. Je nach Spiel sind das auch mal 30% und mehr, also verstehe ich deine Sicht nicht.
CDLABSRadonP... schrieb:
Effizienzverdoppelung pro Generation (Achtung, keine Refreshes wie GTX 400 auf GTX 500 oder den Kaudawelch nach der 8800 GTX mitzählen!) ist der Standard, an dem sich alles messen lassen muss.
Dann musst du in einer Phantasiewelt leben. Effizienzverdopplungen gibt es nur mit dem entsprechenden Prozess ( Mehreren Full Nodes) Nicht einmal die legendäre 8800GTX schaffte das. Eigentlich gar keine Generation der letzten 20 Jahre.
CDLABSRadonP... schrieb:
Daraus entstanden dann auch ganz automatisch alle früheren Faustregeln, wie dass die Mittelklasse der nächsten Gen schneller ist als HighEnd in der Generation davor.
Die 4080 ist doch schneller als die 3090 Ti, sogar die 4070 Super ist auf 3090 Niveau. Von einer Verdopplung sehe ich hier aber nichts.
CDLABSRadonP... schrieb:
Dennoch hat FSR "1" DLSS "1" besiegen können; daran ändert sich nix.
Die beiden Upscaler haben weder was die zeitliche Erscheinung betrifft ( liegen knapp 3 Jahre auseinander) noch was die Methodik betrifft irgendwelche Gemeinsamkeiten. Wozu also der Vergleich? NIS war vergleichbar mit FSR.
CDLABSRadonP... schrieb:
Nein. Vergleiche können auch ansonsten aufschlussreich sein, um das "was wäre, wenn" zu untersuchen.
Deine Vergleiche sind aber immer so gewählt, dass Nvidia schlecht wegkommt und AMD gut dasteht, obwohl AMD schwächer ist. Könnte auch sagen: Hätte Nvidia noch Turing, wäre AMD selbst in heavy RT/PT etwas schneller.
CDLABSRadonP... schrieb:
Und ja, AMD hat zu wenig auf RT gesetzt, auch das ist glasklar. Und ja, RayReconstruction ist ziemlich stark.
Ja, sehe ich auch so, aber warum war Ampere dann nochmal so schlecht? Die Karten waren mit dem deutlich unterlegenen Prozess dennoch stärker als die Radeons.
 
Zuletzt bearbeitet:
UDNA ist keine Architekturbezeichnung. Bisher!
Es ist eine strategische Entscheidung. Die Trennung der Profi Architektur und der Gaming Architektur zurück zu fahren. Und zukünftig nur noch eine Universelle Architektur zu entwickeln..

Streng genommen könnten [ich glaube nicht daran] also in RDNA4 erste UDNA Schritte vorhanden sein...

Wichtiger noch das Endergebnis dieser Strategie muss zum Ende hin eben nicht UDNA heißen...
Eigentlich geht AMD den Weg den NV gegangen ist.
 
ETI1120 schrieb:
Der Nachfolger von RDNA 4 ist RDNA5. UDNA kommt vielleicht nach RDNA 5. So nebulös wie sich Jack Huynh dazu geäußert hat, ist dieser Entschluss wohl noch nicht so alt.
Ist RDNA5 namentlich schon so bestätigt? Ich hatte das so verstanden, dass im Desktop jetzt noch RDNA4 kommt und im Datacenter nächstes Jahr mit neuer 1-Jahres Kadenz MI350 basierend auf CDNA4 und dann 2026 der RDNA4 Nachfolger und MI400 beide eben auf UDNA setzen.
 
Taxxor schrieb:
Also was wäre wenn AMD FSR1 sowie FSR2 jeweils 2 Jahre früher gebracht hätte?
Was bringt es denn solche theoretischen Szenarien zu betrachten?
Taxxor schrieb:
Aber das ist doch keine Leistung, wenn zu der Zeit DLSS 2 schon ein Jahr draußen war, also 2 Jahre nach DLSS1.
Man stellt sich doch auch nicht in einer Diskussion um RDNA3 hin und sagt "Das ändert aber nichts daran, dass die 7900XTX die 3090 besiegen konnte"

FSR 1 war zudem auch nur etwas besser als NIS, was es auch schon länger vor DLSS2 gab.
kachiri schrieb:
Komisch, dass quasi sämtliche Reviews sagen, dass DLSS - auch in Bezug auf FG - doch das deutlich bessere Bild als FSR erzeugt. AMDs "ich unterstütze alle Karten, auch von NV, die nicht auf 3 auf den Bäumen sind"-Mentalität liegt auch eher am eigenen miesen Marktanteil. Wer würde denn FSR für die paar AMD-Spieler am Markt implementieren, wenn man sie nicht mit Geld zuschüttet?
Quidproquo77 schrieb:
Die beiden Upscaler haben weder was die zeitliche Erscheinung betrifft ( liegen knapp 3 Jahre auseinander) noch was die Methodik betrifft irgendwelche Gemeinsamkeiten. Wozu also der Vergleich?
Ich bedauere, dass ich mich anscheinend nicht genau genug ausgedrückt habe und dadurch für Verwirrung gesorgt habt:

FSR "1" und FSR "3" (genauer gesagt Fluid Motion Frames) konnten halt beides mal Nvidia-Behauptungen debunken: Nein, es braucht für das Ergebnis kein Training auf Supercomputern und nein, es braucht keine OpticalFlowAccelerators, um FrameGeneration umzusetzen. FSR 2 konnte das hingegen nicht. Deshalb ist der Vergleich so gewinnbringend.
Gleichzeitig waren aber die Technologien stets im Vergleich zu dem, was sie debunken sollten, zu spät dran.
 
Raidr schrieb:
Dann muss aber DLSS FG extrem schlecht optimiert sein, denn gemoddetes FSR FG läuft auf alten Karten ohne Probleme mit der gleichen Qualität wie DLSS FG.

Das ist falsch.

FSR FG hat zu DLSS FG qualitativ mindestens einen genauso großen Abstand, wie bei den Upscalern. Und ja, ich meine hier wirklich nur rein den Frame Generation Teil.

Interpolationsartefakte sind bei FSR FG deutlich ausgeprägter und häufig sind die generierten Zwischenbilder unscharf oder zeigen doppelkonturen.


Und ja, DLSS FG ist auch fordernder als FSR FG. Es kostet initial mehr performance bevor die Framerate vom FG algorithmus verdoppelt wird. Mit FSR FG hat man immer 5-10% mehr FPS. Daher gar nicht so abwegig, dass RTX 3000 für Nvidias FG Algo einfach zu langsam ist. Zumal Nvidia ja auch den Optical Flow Accelerator mit einbezieht, der bei 3000 angeblich zu langsam ist, aber die bessere Qualität spricht eben auch dafür, dass das vielleicht nicht gelogen ist…
AMD nutzt eben nen völlig anderen Ansatz, kann daher natürlich schneller sein, aber aktuell ist die Qualität dann auch entsprechend schlechter.
 
  • Gefällt mir
Reaktionen: kachiri
CDLABSRadonP... schrieb:
FSR "1" und FSR "3" (genauer gesagt Fluid Motion Frames) konnten halt beides mal Nvidia-Behauptungen debunken: Nein, es braucht für das Ergebnis kein Training auf Supercomputern und nein, es braucht keine OpticalFlowAccelerators, um FrameGeneration umzusetzen. FSR 2 konnte das hingegen nicht.
FSR 1 und DLSS 1 verfolgten aber doch auch zwei völlig unterschiedliche Ansätze und Ziele.
Wie gesagt, FSR 1 war im Grunde nur ein leicht besseres NIS, was Nvidia schon vorher geboten hat(einziger Unterschied war, dass man bei NIS keine HUD Elemente und Post-Processing Filter ignorieren konnte, weil nicht im Spiel integriert).
Das Ergebnis, welches man sich bei Nvidia von DLSS1 erhofft hatte, hätte aber auch grundsätzlich anders ausgesehen, als das was man mit NIS oder eben FSR1 bekommt. Ist halt nur nichts draus geworden, weshalb man dann mit DLSS1.9 und im Anschluss DLSS2 einen komplett anderen Weg gegangen ist.

Und FSR1 kam als Reaktion auf DLSS2, nicht DLSS1. Vergleiche mit DLSS1 wurden auch von AMD nie gezogen, eben weil es ne komplett andere Technik ist, die zu dem Zeitpunkt schon lange von Nvidia verworfen wurde.
Was anderes wäre es gewesen, wenn Nvidia bis zum Zeitpunkt vom FSR1 Release immer noch bei DLSS1 gewesen wäre und gesagt hätte, dass es nicht besser als das geht und man diese Qualität auch nur mit dem Training auf ihren Supercomputern erreicht.
Aber bis dahin hatte Nvidia ja bereits selbst gezeigt dass es mit einem anderen Ansatz auch ohne spielspezifisches Training auf Supercomputern deutlich besser geht, denn das fiel bei DLSS2 ja weg.


In der Hinsicht war FSR2 deutlich eindrucksvoller, denn bis dahin war der Tenor klar, dass man die Tensor Cores der RTX Karten benötigt, um ein temporales Upsampling in der Qualität wie DLSS2 ordentlich hinzubekommen und ohne diese weiter auf deutlich simplere Verfahren wie FSR1 angewiesen ist(eben dadurch gestützt, dass AMD ein Jahr nach DLSS2 erst mit FSR 1 ankam).

Wobei man auch hier sieht, dass man eben doch nicht ganz rankommt, weil wir bei FSR3.1 beim Super Resolution Part sehen, dass zwar Flimmern reduziert wurde, aber dafür plötzlich Probleme mit Ghosting auftreten, die es vorher fast nie gab. Man hat also ein Übel gegen ein anderes getauscht und um beide Übel gleichermaßen zu beseitigen, bräuchte man ziemlich sicher mehr Samples als der Algorithmus auf den Shadern laufend bearbeiten kann, ohne Leistung zu verlieren.
Ja, man ist mittlerweile auf dem Niveau alter DLSS2 Iterationen, aber Optimierung schreitet ja auf beiden Seiten voran.


Und bei FMF vs FG wird man schauen müssen, wie sich die beiden entwickeln. Ich bin da bei @Quidproquo77 und denke auch, dass Nvidia hier den Unterbau für zukünftige FG-Verfahren gelegt hat, die dann stärker auf die Hardware angewiesen sein werden.
Aber auch aktuell sieht man schon, dass FMF an einigen Stellen noch Probleme hat, die es mit FG so nicht gibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: raPid-81
ex2j schrieb:
Kann man nur hoffen, dass das wie fsr auf allen Grafikkarten funktioniert. Finde es frech von NVIDIA, dass sie die 3 stufe exclusive für die 4000 Reihe anbieten, weil die gpu gen sonst nur maue Steigerungen erbracht hätte
Aha deshalb ist die 4090 meilenweit vor der Last gen
 
CDLABSRadonP... schrieb:
FSR "1" und FSR "3" (genauer gesagt Fluid Motion Frames) konnten halt beides mal Nvidia-Behauptungen debunken: Nein, es braucht für das Ergebnis kein Training auf Supercomputern

FSR1 ist ein rein spatialer Upscaler, wie Nvidias NIS. Also wurde da gar nichts bezüglich "Training auf Supercomputern" debunked.

CDLABSRadonP... schrieb:
und nein, es braucht keine OpticalFlowAccelerators, um FrameGeneration umzusetzen. FSR 2 konnte das hingegen nicht. Deshalb ist der Vergleich so gewinnbringend.
Gleichzeitig waren aber die Technologien stets im Vergleich zu dem, was sie debunken sollten, zu spät dran.

Wo behauptet Nvidia dass es den OFA zwingend benötigt? Also um generell FG zu ermöglichen?
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Ich hoffe mal, dass Sony da nix eigenes gebaut hat, sondern AMDs Lösung einfach nur frühzeitig nutzen kann. Würde PC'lern bei Crossgaming helfen, da es dann schon implementiert ist, die Entwickler müssen es nicht doppelt einbauen und den Spielern hilft es, weil AMD bei FSR bisher ja auch immer ältere Generationen mit bedient hat. Dann würde sich wieder einmal bestätigen, dass AMD-Grafikkarten wie Wein und Nvidia wie Milch altern.
 
  • Gefällt mir
Reaktionen: Wanderwisser
Quidproquo77 schrieb:
Dann musst du in einer Phantasiewelt leben. Effizienzverdopplungen gibt es nur mit dem entsprechenden Prozess ( Mehreren Full Nodes) Nicht einmal die legendäre 8800GTX schaffte das. Eigentlich gar keine Generation der letzten 20 Jahre.
Galt halt sowohl für Kepler, Maxwell 2.0 als auch fast für Pascal. Wenn man den größten Chip ausklammert selbst für Fermi (!). Davor mischt sich in alles viel Kaffeesatzleserei, weil sich heutige Testmethodik, die so etwas sauber bestimmen kann, noch nicht etabliert hatte. Aber es deutet eigentlich alles darauf hin, dass das auch für Tesla 2.0 (manche wohl eher 2.5 sagen, die ursprüngliche GTX 280 war ja z.B. eher mau und mehr ein in Serie gegangener Prototyp) und Tesla galt.
 
Das größte Manko bei FG ist ja der aus meiner sicht der spürbar verlängerte Input-Lag.

Habe neulich FSR3 FG in CP77 probiert, zuerst ganz angetan (Game läuft nativ ~60 FPS) und ne Stunde gezockt...dann wieder deaktiviert und das native Renering (ohne upscaler und FG) fühlt sich für mich besser und deutlich direkter an als 120 FPS fake frames.

Da FG zwei Bilder benötigt, um einen Fake Frame einzufügen, liegt es in der Natur der Sache, dass die GPU erst die Zwei Bilder gerechnet haben muss, befor man das Fakeframe bekommt.

Ich versuche bis dato, wo es geht, Upscaling und FG zu vermeiden und reduziere entsprechend Grafikdetails um auf die gewünschte Framerate in nativer Auflösung (1600p) zu kommen. Bei den neueren Games (die ich noch nicht angespielt habe), wird es jedoch leider für mich unvermeidbar sein mit meinem aktuellen Notebook :-/
 
CDLABSRadonP... schrieb:
Galt halt sowohl für Kepler, Maxwell 2.0 als auch fast für Pascal.
Und wie kommst du darauf? Pascal hat rund 50% mehr Effizienz mit der 1080 gegenüber der 980 Ti geboten, Maxwell oder Kepler ähnlich. Effizienzverdopplung sehe ich da nicht, im besten Fall +60%, wenn man GTX 980 mit 780 Ti vergleicht.
CDLABSRadonP... schrieb:
FSR "1" und FSR "3" (genauer gesagt Fluid Motion Frames) konnten halt beides mal Nvidia-Behauptungen debunken: Nein, es braucht für das Ergebnis kein Training auf Supercomputern und nein, es braucht keine OpticalFlowAccelerators, um FrameGeneration umzusetzen.
Nvidias Herangehensweise funktioniert so, dafür braucht man die Tensor Cores bzw. Optical Flow. Wie das AMD dann umsetzt ist ja nicht Nvidias Ding. Diese Behauptung gab es afaik nie.
 
Philste schrieb:
Ist RDNA5 namentlich schon so bestätigt?
Im selben Gespräch in dem in dem UDNA eingeführt wird.
Wenn man Jack Huynh wörtlich nimmt hat er sogar erklärt dass UDNA nach RDNA5 kommt.

Aber wie gesagt war Jack Huynh nicht ganz deutlich. Aber ich interpretiere seine Aussagen so, dass er will dass UDNA sich in den Rhythmus der Releases einfügt.
Philste schrieb:
Ich hatte das so verstanden, dass im Desktop jetzt noch RDNA4 kommt und im Datacenter nächstes Jahr mit neuer 1-Jahres Kadenz MI350 basierend auf CDNA4 und dann 2026 der RDNA4 Nachfolger und MI400 beide eben auf UDNA setzen.
Es ist wohl offensichtlich dass UDNA ziemlich nah an CDNA sein wird. Da der Softwarestack auf CDNA basiert.
 
Mimir schrieb:
FSR FG hat zu DLSS FG qualitativ mindestens einen genauso großen Abstand, wie bei den Upscalern. Und ja, ich meine hier wirklich nur rein den Frame Generation Teil.

Hast du dazu mal Vergleichsvideos?
Das hat so extrem wie du es darstellst auch noch kein Fachmagazin so erklärt.


"In Sachen Bildqualität zeigen sich keine nennenswerten Unterschiede zwischen DLSS und FSR Frame Generation. Beide Technologien agieren zwar leicht unterschiedlich, schneiden schlussendlich aber gleichwertig ab."

"In Sachen Bildqualität gibt es ebenso keinen Gewinner: FSR FG und DLSS FG sind optisch nicht auseinanderzuhalten"

"Damit ist AMD bei der Frame Generation etwas gelungen, was ihnen kaum einer zugetraut hat: Künstlich generierte Bilder ohne neuronales Netzwerk zu schaffen, die gleichwertig zu DLSS FG sind – und das noch bei oft besserer Performance"

https://www.computerbase.de/2024-03/amd-fsr-nvidia-dlss-frame-generation-vergleich/3/
 
  • Gefällt mir
Reaktionen: up.whatever, Casillas und Wanderwisser
ex2j schrieb:
Kann man nur hoffen, dass das wie fsr auf allen Grafikkarten funktioniert. Finde es frech von NVIDIA, dass sie die 3 stufe exclusive für die 4000 Reihe anbieten, weil die gpu gen sonst nur maue Steigerungen erbracht hätte
Die 4090 ist in deinen Augen ne maue Steigerung? Interessant
 
Ripcord schrieb:
Vor allen mit FG habe ich so meine Probleme. In The Casting of Frank Stone und Still Wakes the Deep gab es damit permanente ruckler die ohne nicht vorhanden waren. War praktisch nicht spielbar damit. Hoffe da wird ebnfalls dran gearbeitet.
Ich habe "Still wakes the deep" mit FG auf meiner 7900XT durchgespielt, das hat hervorragend (ruckelfrei) funktioniert. Das gleiche gilt auch für "Star Wars Outlaws", das ich jetzt gerade spiele.
 
FSR 4 wird vermutlich nur auf der AMD RX 8000 Serie laufen.
AMD ist nicht dumm und sucht aktiv nach Kaufgründen für die Serie.
 
@Philste Andrej Zdravkovic hat in einem Gespräch mit TPU auf eine Frage zu UDNA nur geantwortet, dass das neu ist.

Das heißt im besten Fall in 4 Jahren für Gaming GPU.

Außerdem hat er gesagt dass AMD ROCm vollumfänglich für RDNA bringt. Er begründet das damit dass AMD das für Entwickler Maschinen braucht.

Und wenn man das zuende denkt kommt man zum Punkt dass eine Architektur für Client und Data Center notwendig ist.
Ergänzung ()

Simanova schrieb:
FSR 4 wird vermutlich nur auf der AMD RX 8000 Serie laufen.
AMD ist nicht dumm und sucht aktiv nach Kaufgründen für die Serie.
Nvidia verwendet neue DSSL-Versionen als Verkaufsargument für neue GPU Generationen. Das Funktioniert da man von neuen Games erwartet dass sie DSSL unterstützen.

AMD kann sich das nicht leisten. Ohne ausreichende Installationsbasis unterstützt niemand FSR 4.
 
Zuletzt bearbeitet:
Zurück
Oben