Test FidelityFX Super Resolution im Test: AMD FSR 2.0, 1.0 und Nvidia DLSS im Vergleich

.Sentinel. schrieb:
geleakten Quellcode
Gewagte These
Auch in sich nicht logisch. Schlicht falsch weil ja ein anderer Ansatz gegangen wurde.
Was ich meinte. Nix ausgedacht was extra kostet und dadurch extra bezahlt werden muss. Ein extra mudul für monitore auch ein schönes Beispiel.
Ne Grafikkarte berechnet weiterhin nur die Grafik. Nicht mehr und nicht weniger. Wenn mit jeder zukünftigen gen die uvp immer weiter steigen weil sich immer neuer (sinnloser) Quatsch einfallen gelassen wird... Wo kommen wir da hin?
Vielleicht sollten sie dann gaming und wie sie es auch immer nennen, strikter trennen. Weil ein Spieler will nur das sein Spiel ordentlich läuft.


.Sentinel. schrieb:
wenn die Hardwarehersteller nicht die Basis dafür legen
Schon klar. Denke ist jetzt offensichtlich das beide ne gute Basis haben.
Mmh Wenn es nicht an den Entwicklern mit hängt. Dann versteh ich nicht den Einwand. Es ist ja erst das erste und einzige Spiel. Abwarten. Wenn das so wäre wie du sagst, würde das bedeuten es kann nur besser werden. Es kann kein Spiel kommen was schlechter funktioniert. 🤔


.Sentinel. schrieb:
Ich meinte.
Ding die tatsächlich was bringen.
RT naja irgendwann...
Der Rest... Nur hype. Braucht auch keiner wirklich. Oder? Ich würde es nicht vermissen. Gibt ja schon ewig Lösungen der jeweiligen engine. Oder halt nicht.

Mfg
 
  • Gefällt mir
Reaktionen: Inxession
Wenn man wie bei den Handykameras nen bewegten Blindtest machen würde ohne Standbilder mit Lupentest das wär mal interessant.. diese ganzen Sherlocks hier, im Spiel würde das keinem auffallen vermutlich erst recht wenn beide Lösungen so dicht beieinanderliegen oder den jeweils anderen übertrumpfen in einer Momentaufnahme
 
.Sentinel. schrieb:
Worauf stützt sich diese Meinung? KI hat ja gerade den Vorteil, dass sie durch ihre Erfahrung Fehler korrigieren und mit der Zeit fehlerfreier agieren kann.

Du redest von DLSS1
Der von mir angesprochene Nachteil der KI-Technik ist ein allgemeiner Ansatz, der meiner Meinung nach immer in gewisser Anzahl auftreten wird, unabhängig vom Grad des Gelernten. Weil eine KI die Eigenschaft besitzt den Inhalt des nativen Bildes viel mehr zu verfälschen, als es ein herkömmlicher Algorithmus mit vorgegebenen (strikten) Ablaufplan tut.

Bei DLSS 2.3 sind die Probleme Ghosting und Smearing bestens bekannt.
 
ihr wisst aber schon, dass ihr neben dem Spiele Genre "Benchmarken bis der Arzt kommt, um zu schauen wie lang er ist" gerade noch ein weiteres vollkommen schwachsinniges Spiele Genre aus der Grube hebt... obwohl.. nein... das stimmt nicht... ich muss das zurück nehmen und mich entschuldigen... euer Spiel Genre gibt es bereits seit ein paar Jahren... ihr hebt es nur auf ein komplett neues Level -> "Wimmelbilder für die richtig weit Fortgeschrittenen"
 
  • Gefällt mir
Reaktionen: Hatch, chaopanda, Alphanerd und 4 andere
Taxxor schrieb:
Die Bildschärfe kannst du aber in beiden Fällen selbst anpassen, nur kann man es bei FSR 2.0 in diesem Fall direkt im Spiel tun, während man es bei Nvidia im Treiber tun muss.

Und auch FSR 2.0 hat auffällige Bildfehler, ich hab Deathloop gestern auch mal angefangen und war recht schnell an der Stelle mit dem kleinen Bagger, wo die Ketten übermäßig stark geflimmert haben, wenn man FSR an hatte, selbst dann noch, wenn man nur wenige Meter davor stand.

Das gelegentliche Verwischen der schwebenden Texte mit dem Hintergrund bei Bewegung wurde ja hier auch schon in einem Screenshot gezeigt
Gut, ich bin ein klarer Anhänger von Team Red, besitze also keine Nvidia-GPU und kann bislang leider nicht von leibhaftigen Erfahrungen mit DLSS sprechen. Aber von anderen Quellen wie beispielsweise PCGH weiß ich, dass die Nachschärfungsfunktion bei den Geforce-Karten nicht sonderlich viel bewirkt bzw. nicht einmal ansatzweise den Schärfegrad von AMDs Lösung erreicht. Das Bild bleibt also nach wie vor sichtlich verwaschen.

Laut Computerbase-Redakteur sind aber keine eklatanten Bildfehler aufgefallen. Aber ich glaube dir natürlich, auch FSR 2.0 wird nicht völlig frei von Bildfehlern sein. Möglicherweise sind es dann eben andere als bei Nvidias Technik, Ghosting oder Smearing wie bei DLSS jedenfalls halte ich für ein alleiniges Problem der KI-Technik.
 
Nolag schrieb:
Ghosting und Smearing sind Artefakte, die bei temporalen Verfahren wie TAA auftreten können. Das hat nichts mit der KI zu tun.
UE Forum: Temporal AA + Motion blur - A final solution to ghosting?
Cyberpunk: TAA GHOSTING FIX - HOW?
Ich habe mich zugegeben noch nicht tiefgründig mit diesem Thema auseinandergesetzt, doch dennoch stellt sich mir die Frage, warum es bei DLSS zu derartigen Problemen kommt, während FSR 2.0 offensichtlich überhaupt keine Probleme in dieser Form hat.
 
  • Gefällt mir
Reaktionen: Kuestennebel79
TigerherzLXXXVI schrieb:
warum es bei DLSS zu derartigen Problemen kommt, während FSR 2.0 offensichtlich überhaupt keine Probleme in dieser Form hat.
In der Digital Foundry Analyse zeigt sich auch bei FSR 2.0 Ghosting: Digital Foundry: AMD FidelityFX Super Resolution 2.0 - FSR 2.0 vs Native vs DLSS - The DF Tech Review
Es gibt einfach noch nicht genug Games mit FSR 2.0. Das Ghosting und Smearing ist nur in manchen Games so stark, dass man es als Problem wahrnimmt.
 
  • Gefällt mir
Reaktionen: Affe007
Nolag schrieb:
In der Digital Foundry Analyse zeigt sich auch bei FSR 2.0 Ghosting: Digital Foundry: AMD FidelityFX Super Resolution 2.0 - FSR 2.0 vs Native vs DLSS - The DF Tech Review
Es gibt einfach noch nicht genug Games mit FSR 2.0. Das Ghosting und Smearing ist nur in manchen Games so stark, dass man es als Problem wahrnimmt.
Das bedeutet also, dass diese Bildartefakte vermutlich ein generelles Problem bei temporalen Upsampling-Verfahren ist? Ich lese wirklich sehr viele Artikel über PC-Technik im Allgemeinen und das Thema Smearing und Ghosting wurde bisher immer nur im Zusammenhang mit DLSS erwähnt. Deshalb nahm ich auch zunächst an, es handele sich hier um ein Problem durch die KI-Technik im Hintergrund. Aber möglicherweise ist sie dennoch indirekt für die Heftigkeit der auftretenden Bildfehler verantwortlich, weil es Probleme mit der korrekten Verarbeitung von TAA-Kantenglättung gibt.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Ich kann als Entwickler so viel gute Arbeit leisten, wie ich will, wenn die Hardwarehersteller nicht die Basis dafür legen, wird alles eine lahme Krücke, was ich baue.
Wie hat das bloß früher funktioniert, als die Hardwarehersteller nur ihre Hardware und passende Treiber gebastelt haben und nicht versucht haben über Software zu bestechen?...
 
TigerherzLXXXVI schrieb:
das Thema Smearing und Ghosting wurde bisher immer nur im Zusammenhang mit DLSS erwähnt. Deshalb nahm ich auch zunächst an, es handele sich hier um ein Problem durch die KI-Technik im Hintergrund.
Es hilft vielleicht, zu verstehen, dass während DLSS 2.x läuft, keine KI-Technik im Hintergrund arbeitet.
KI bzw. ML wird nur dazu genutzt, um den Algorithmus zu trainieren, der dann in den DLSS Versionen enthalten ist.
Danach ist es einfach ein Algorithmus wie der von FSR auch, der Unterschied besteht nur darin wie er erstellt wurde.
 
  • Gefällt mir
Reaktionen: rumpeLson, McFritte, Sun-Berg und eine weitere Person
Taxxor schrieb:
Es hilft vielleicht, zu verstehen, dass während DLSS 2.x läuft, keine KI-Technik im Hintergrund arbeitet.
KI bzw. ML wird nur dazu genutzt, um den Algorithmus zu trainieren, der dann in den DLSS Versionen enthalten ist.
Danach ist es einfach ein Algorithmus wie der von FSR auch, der Unterschied besteht nur darin wie er erstellt wurde.
Wofür werden dann die Tensor-Cores benötigt?
 
TigerherzLXXXVI schrieb:
Wofür werden dann die Tensor-Cores benötigt?
Um den Algorithmus zu beschleunigen. Dadurch können RTX Karten mit DLSS mehr Samples für jeden Frame zur Rekonstruktion nutzen.
Und je mehr vorherige Frames man zur Verfügung hat, desto eher sehen solche feinen Details wie dünne Kabel auch danach noch korrekt aus.
Würde FSR 2.0 genau so viele Samples nutzen, wäre der Performancevorteil wohl deutlich geringer, dafür aber auch die Qualität besser.

Ich bin selbst nicht so tief drin, deshalb @.Sentinel. bitte korrigieren, wenn ich Mist schreibe, aber ich denke mal mit größerer Samplemenge steigt auch gleichzeitig die Wahrscheinlichkeit, dass der Algorithmus mal mehr Pixel beibehält, die er eigentlich hätte verwerfen sollen. Das begünstigt dann Ghosting, weshalb es umso wichtiger ist, den Algorithmus gut anzupassen, bei DLSS eben durch ML, bei FSR von Hand.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TigerherzLXXXVI, foo_1337 und Laphonso
TigerherzLXXXVI schrieb:
Wofür werden dann die Tensor-Cores benötigt?
Für Matrizen(multiplikation), da der Algo diese wohl benötigt. Sonst sind sie eher nutzlos. Was man für die Zukunft noch im Hinterkopf behalten sollte, dass FSR2.0 dynamische Auflösung bei einem Frame-Target machen kann, wird wohl bald irgendwann kommen.
 
Zuletzt bearbeitet:
leonM schrieb:
Was man für die Zukunft noch im Hinterkopf behalten sollte, dass FSR2.0 dynamische Auflösung bei einem Frame-Target machen kann, wird wohl bald irgendwann kommen.
Das ist doch in Deathloop bereits drin. Und konnte z.B. Cyberpunk auch schon mit FSR 1.0.
Du stellst dein FPS Target ein und sagst dann noch, bis auf wieviel Prozent der Auflösung FSR maximal runter gehen darf, um das Targtet zu halten.
 
Taxxor schrieb:
Das ist doch in Deathloop bereits drin. Und konnte z.B. Cyberpunk auch schon mit FSR 1.0
FSR1.0 ist nicht vergleichbar mit einen TAA bzw. FSR2.0, daher ... Aber was meinst du damit, dass es schon drin ist? Du kannst also ein Target von 60fps geben und er switch automatisch bei der Auflösung(also von Max bis Min).
Edit: hab deine Ergänzung jetzt erst gesehen, dass gilt auch für FSR2.0(im Deathloop) ??
 
leonM schrieb:
FSR1.0 ist nicht vergleichbar mit einen TAA bzw. FSR2.0, daher ... Aber was meinst du damit, dass es schon drin ist? Du kannst also ein Target von 60fps geben und er switch automatisch beider Auflösung(also von Max bis Min)
Exakt, wobei man eben das Min definieren kann. Im Fall von Deathloop zwar nicht beliebig, aber immerhin in drei Stufen, Qualität(85%), Ausgewogen(75%) und Leistung(50%)
Bei "Adaptive Auflösung" hat man die Wahl zwischen V-Sync basiert(dann will er immer die Hz Zahl des Monitors erreichen) oder Manuell(dann kann man die Einstellung darunter nutzen)
Unbenannt.png
 
TigerherzLXXXVI schrieb:
Wofür werden dann die Tensor-Cores benötigt?
Für die "AI Rekonstruktion". Das ist die letzte kleine Bastion für DLSS:. FSR 2.0 "verliert" in dieser einen Facette. Im Wortsinne Bildinformationen, den Details wie Leitungen, Kabel, Gitter, Muster, Schriftzeichen etc. im Hintergrund in 100% der Screens und Videos, die ich gesehen habe.
Anders formuliert: Es gibt keinen Deathloop Screenshot, in dem FSR 2.0 im Hintergrund mehr Details wiederherstellt als DLSS.
Da Deathloop der best case ist mit wochenlanger Vorbereitung, bin ich gespannt, ob das der Maßstab wird für normale FSR 2.0 Qualität oder ob das bereits das best case Szenario war als AMD Showcase Titel für FSR 2.0
Bis FSR 3.0 kommt..
DLSS 3.0 kommt aber auch, und meine These lautet, dass Nvidia jetzt die Rosinen picken muss im Kontext "HIER ist die Tensor gebundene AI Rekonstruktion überlegen/besser als die Software Lösung" oder sowas.
 
Taxxor schrieb:
Exakt, wobei man eben das Min definieren kann. Im Fall von..............
Super, greift das schon bei FSR2.0 ?? Wäre auf jeden Fall eine super Standard-Option und man würde wohl die kurze Auflösungsdifferenz eh kaum oder garnicht merken(außer die ist über eine n-Zeit vorhanden)
 
Zurück
Oben