News FidelityFX Super Resolution 2.0: AMD FSR 2.0 stellt sich im zweiten Quartal gegen DLSS

 
  • Gefällt mir
Reaktionen: Kuestennebel79
NighteeeeeY schrieb:
Versteh ich das richtig, dass ich mir mit ner Nvidia Karte dann aussuchen kann ob ich FSR oder DLSS benutze, weil FSR offen ist und auf beiden Karten funktioniert? Oder wie? Und muss das das jeweilige Spiel auch nativ unterstützen oder ist das etwas dass durch den Treiber alleine funktioniert? Bin noch sehr unbewandert, was dieses Thema angeht.
Muss das Spiel bzw. Engine unterstützen. Also auch eine Spiele-Implementierung. Diese soll aber einfacher sein zur Konkurrenz.... (laut AMD)
Ergänzung ()

Plasma81 schrieb:
Für die AMD Nutzer eine wirklich tolle Sache. Ich nutze DLSS abhängig vom Spiel sehr gern. Die Ergebnisse werden sicherlich ähnlich gut sein wie bei bei NVidias Lösung. Allerdings hat es schon einen Grund warum DSSL mit einem neuronalen Netzwerk im Rücken funktioniert.
Ja damit NV sagen kann läuft nur auf unserer Hardware... :evillol:
FRS 2.0 muss sich auch in Bewegung beweisen... Schließlich gibt es da ja auch Probleme...
Aber wäre für NV schon ne Schlappe wenn AMD nachher was vergleichbares abliefert...
 
  • Gefällt mir
Reaktionen: nighteeeeey
Inxession schrieb:
Sollte AMD es schaffen mit FSR 2.0 auf Augenhöhe zu DLSS 2.0 zu landen, so haben Sie neben GSync auch DLSS obsolet gemacht.
Werden sie nicht, weil der Deep Learning Aspekt fehlt, aber sie kommen näher ran.
 
theGucky schrieb:
Wer denkt, das AMD teile des geleakten DLSS Sourcecodes genutzt hat? Bzw sich davon hat "inspirieren" lassen
Und schon kommt die ersten Verleumdung in Form einer suggestiven Frage.

Wann wurde der Source-Code veröffentlicht? Das ist jetzt 2 - 3 Wochen her, in so kurzer Zeit adaptiert man nicht den Code und macht ihn auch lauffähig und noch weniger baut man den Code bereits in ein Spiel ein.

Da Epic bereits ein entsprechenden Upscaler in die UE5 eingebaut hat und das auch mit Unterstützung von AMD, wird AMD eher auf den Erfahrungen bei Epic aufbauen und dort ihren Ansatz herhaben.
 
  • Gefällt mir
Reaktionen: jonderson, Bornemaschine, Orok91 und 12 andere
owned139 schrieb:
Werden sie nicht, weil der Deep Learning Aspekt fehlt, aber sie kommen näher ran.
Aber sie kommen ziemlich nah ran. Diese Interploationsalgorithmen können auch klassisch umgesetzt werden.
 
  • Gefällt mir
Reaktionen: Colindo, edenjung und Eidgenosse
Flomek schrieb:
Ob man ohne neuronales Netzwerk die selbe Qualität erzielt und daher auch eine Möglichkeit für GTX User schafft bleibt ja auch erstmal offen. Lass mich da immer gerne positiv überraschen, bin in meiner Grundhaltung aber immer skeptisch gegenüber Werbeversprechen.
Da bin ich absolut bei dir.
Die Frage ist natürlich wieviele Entwickler sich am Ende die Mühe machen würden DLSS & FSR zu implementieren, wenn FSR tatsächlich leichter ist und dabei dann nur 5-10% schlechtere Ergebnisse liefern sollte.
Aber das wird sich natürlich alles zeigen.

Grundsätzlich ist es auch das, was ich erwarte. Eine leicht schlechtere Qualität im Vergleich zu DLSS, aber dafür halt die Architekturoffenheit. Das hat AMD bei Freesync so gehandhabt und hier wird es wohl ähnlich kommen.
 
  • Gefällt mir
Reaktionen: Flomek
ZRUF schrieb:
Die Frage ist natürlich wieviele Entwickler sich am Ende die Mühe machen würden DLSS & FSR zu implementieren, wenn FSR tatsächlich leichter ist und dabei dann nur 5-10% schlechtere Ergebnisse liefern sollte.
Das läuft nachher nach Schema F. An den entsprechenden Stellen der Renderpipeline die richtigen Parameter an die Interfaces übergeben, das UI um die entsprechenden Optionen erweitern, fertig.
 
Fegr8 schrieb:
Die KI dahinter ist nicht offen, aber die Tensor-Core können nur Matrixmultiplikationen und Addition in FP16. Was machen die jetzt "genauer"?
Die können in der gleichen Zeit temporal aufgrund ihrer Rechenleistung über die Frames ein größere rückwärts gerichtete Schrittweite erreichen. Du hast bei DLSS letztendlich nicht zwingend ein festes Zeitbudget, welches nach den Berechnung on Top draufkommt.
Mit steigender Rechenkraft und dadurch erhöhtem Zeitbudget (in Relation zu den FPS gesehen) kann auch die Präzision steigen und die Anzahl der Pixel, die berücksichtigt werden. DLSS2.x kann diesbezüglich inzwischen sowohl spatial als auch temporal variabel arbeiten.

Ich hoffe ich habe mich jetzt unmissverständlicher ausgedrückt.

Beispiel DLSS1.9 von Control. Rein Shadergestützt. Deutlich genauer als DLSS1.0 aber auch deutlich schlechter als DLSS2.x mangels Anzahl der möglichen zu verarbeitenden Pixelmenge und history- Frames, ohne das Zeitbudget bei der Frame- Berechnung zu sprengen -> Ergebnis ist ungenauer. So ist das gemeint.
Nicht dass die Berechnung per se ungenauer wird.
FP16 bleibt immer gleich.

Fegr8 schrieb:
Können normale Shader auch! Die Tensor-Core sind nur da um die restliche GPU zu entlasten und sind letztendlich auf nur zwei Matrixenberechnung reduzierte Shader-Einheit die nur eine Aufgabe können und auf das maximum optimiert wurde. Die Besonderheit liegt auf die KI die diese verwendet(und wo sie ein Patent haben)!
Siehe oben. Können auch CPUs.
 
  • Gefällt mir
Reaktionen: GERmaximus
Habe in WoW die Fenstergröße auf 1080p gestellt und es sieht aus wie nativ WQHD, ich bin absolut begeistert! Tolle Sache!
 
Salamimander schrieb:
FSR 2.0 dann über 3rd Party in jedes Spiel quetschen wird toll. So kann man auch ein paar Games noch mal beschleunigen. Ich nehme zB WoW. Ich wette es läuft besser UND schneller mit FSR 2.0. Denn der ingame up/downscaler ist wurst....
FSR 2.0 wird sich nicht einem Spiel aufzwingen lassen, das muss genauso wie DLSS vom Spiel unterstützt werden.
theGucky schrieb:
Wer denkt, das AMD teile des geleakten DLSS Sourcecodes genutzt hat? Bzw sich davon hat "inspirieren" lassen? 👿
Keiner. Es hat sicherlich diverse Monate, vielleicht auch ein Jahr oder mehr gedauert, um FSR 2.0 zu entwickeln. Die Zeit um von dem Code irgendwas zu lernen ist viel zu gering. Zumal FSR 2.0 offenbar ja auch ziemlich anders als DLSS 2.0 funktioniert.
 
  • Gefällt mir
Reaktionen: derSafran, jonderson, Zitterrochen und 10 andere
Ich finde es schade das der Underdog mal wieder den offenen Standard legt, bedient und bezahlt.
Und Nutznießer (so wie ich mittlerweile wieder) davon profitieren, ohne auch nur einen Cent dafür geholfen zu haben.

Als Nvidia Nutzer würde ich eine fsr amd only Variante verstehen.
Aber, als offener Standard, lohnt es für Entwickler evtl eher, sich dem offenen als geschlossenen zu widmen.

Siehe freesync.

Übrigens immer wieder interessant, wie amd offene Losungen schafft und Nvidia extra Module (gsync) oder tensor benötigt.
 
  • Gefällt mir
Reaktionen: MegaDriver, jonderson, Bright0001 und eine weitere Person
GERmaximus schrieb:
Übrigens immer wieder interessant, wie amd offene Losungen schafft und Nvidia extra Module (gsync) oder tensor benötigt.
Bitte nicht wieder verallgemeinern und nicht gleich stellen,ob es mit DLSS gleichwertig ist wird sich noch zeigen.Bisher war es so,dass sowohl DLSS besser aussah als FSR und der FPS-Push deutlich höher lag.Trotzdem habe ich meine AMD Karten auch gerne.
 
Wolfgang schrieb:
FSR 2.0 wird sich nicht einem Spiel aufzwingen lassen, das muss genauso wie DLSS vom Spiel unterstützt werden.
Ich könnte mir gut vorstellen, dass sowas in DXVK eingebaut werden könnte. Aber vielleicht liege ich auch falsch.
 
Tornavida schrieb:
.Bisher war es so,dass sowohl DLSS besser aussah als FSR und der FPS-Push deutlich höher lag.Trotzdem habe ich meine AMD Karten auch gerne.
Ja, guck dir einfach Dlss 1.0 an.
Das sah anfangs auch bescheiden aus.
Mit fsr2.0 wird das richtig gut, da bin ich sicher.
 
Shoryuken94 schrieb:
Wenn man etwas aufschließen kann, wird es interessant zu sehen, welche Technik sich am Ende durchsetzt.

Wie soll sich DLSS durchsetzen, wenn es auf AMD und Intel Grafikkarten nicht funktioniert? Entweder es wird beides existieren oder die Open Source Lösung wird sich durchsetzen. Die Frage ist dann auch immer, wieviel Arbeit und Geld für den Spielehersteller entsteht um die beiden Techniken im Spiel anbieten zu können.

Ich finde weiterhin den Nvidia-Ansatz "intelligenter" und AMDs-Ansatz dafür sinnvoller.
 
  • Gefällt mir
Reaktionen: Wanderwisser
GERmaximus schrieb:
Ich finde es schade das der Underdog mal wieder den offenen Standard legt, bedient und bezahlt.
Und Nutznießer (so wie ich mittlerweile wieder) davon profitieren, ohne auch nur einen Cent dafür geholfen zu haben.
Kauf einfach nächstes mal AMD. :)

Meine Stromrechnung wird's freuen. Die 6800 ist eh schon ein Effizienzmonster. Dazu fsr2 und ich schaffe vielleicht einen Gesamtverbrauch von 150 watt. Fürs gesamte System dann! In 1440p. Das wäre Wahnsinn.
 
  • Gefällt mir
Reaktionen: MegaDriver, jonderson, iron_monkey und 3 andere
Czk666 schrieb:
Kauf einfach nächstes mal AMD. :)

Hatte ich, zwei mal😉
Hatte die 6900xt fast ein Jahr lang zufrieden im System, nachdem ich jede Menge ampere durchgetestet hatte.

Warum ich dennoch wieder bei Nvidia gelandet bin?
Fehlende Features.
Und dabei meine ich nicht mal rt was ich bzw. Wir (in unserer 4 Mann gruppe) noch immer nicht nutzen.
Dlss und Nvidia Voice haben mich zurück geholt.
Fsr 1 war für mich eine maßlose Enttäuschung und sah genauso Erbärmlich aus, wie ich Dlss1 in Erinnerung habe.

Umso mehr freue ich mich auf fsr2.0, denn ich denke das in der nächsten Generation das chiplet Design dem monolithisch Design recht hoch überlegen sein wird, zumindest in Sachen Effizienz.

Hoffentlich kommt noch Nvidia Voice für amd. Das ist für unsere abendlichen Sitzungen ein absoluter Segen.
 
Ich bin ja mal gespannt wie schnell 2.0 dann auch auf Linux ankommt :D
 
Zurück
Oben