Freiheraus schrieb:
Erstaunlich, dass Ghosting für FSR 2.0 kein Thema zu sein scheint, ausgerechnet etwas womit man DLSS oft auf dem falschen Fuß erwisch
Nicht unbedingt. In einem "klassischen" Algorithmus kann man - sofern es findige Entwickler gibt - einiges noch erreichen und zum Beispiel mit Grenzwerten bei den Bewegungsalgorithmen arbeiten, um ein Pixel zu verwerfen. Genau so kann man auch mit "Indizes" für die Pixel arbeiten und prüfen, ob man gewisse Pixel gesetzt hat und wenn ja, setzt man sie nicht noch mal usw.
Plastikman schrieb:
Damit zeigt sich dann doch irgendwie, dass dieses Tensorkernegedöns von NVidia einfach nur wieder blabla war, um mehr Geld zu kassieren.
DAS kann man an der Stelle sicher so sagen, wird der Thematik aber nicht gerecht.
Hier muss man nämlich unterscheiden zwischen den Ansätzen: AMD geht bei beiden FSR-Versionen einen "klassischen" Weg und arbeitet mit verschiedenen Algorithmen, die die Bilder rekonstruieren. AMD betreibt hier einen sehr hohen Aufwand, um die Algorithmen "schnell" zu machen und ebenso auch eine hohe Qualität zu erlangen. Das hat den Vorteil, dass AMD nur mit den SIMD-Einheiten zurechtkommt.
NVIDIA hat sich bei DLSS aber von Anfang an überhaupt nicht um die klassischen Ansätze gekümmert, sondern hat bei DLSS1.0 alleine auf die KI vertraut und merkte, dass das nicht geht. In DLSS2.0 hat NVIDIA dann eine "temporale" Komponente eingeführt und das grobe "Gerüst" von klassischen Rekonstruktionen gewählt. Die KI bei DLSS2.x eine "Blackbox", die die "Algorithmen" weitgehend ersetzen in den Bestandteilen, um "schnell" zu sein. Das funktioniert auch sehr gut, hat aber - gegenüber AMDs Ansatz erst mal "klassisch" ran zugehen - ein paar Nachteile, weil man nicht unbedingt direkt in die "Blackbox" eingreifen kann und die KI sehr gut trainieren muss. NVIDIAS Weg hat auch einige Vorteile, gerade was die "Komplexität" des ganzen Konstruktes angeht.
Laphonso schrieb:
Sofern das Tensorgedöns nämlich 20%-30% schneller ist als FSR, wird aus blabla messbar fps Zuwachs.
Auch wenn ich ein Stück weit deine Intention hinter deinen Beiträgen verstehe und hier manche Beiträge auch nicht unbedingt "gut" finde, was jetzt die Aussagen über DLSS angeht: Deine Beiträge sind da kein Deut besser und gerade solche Aussagen wie die von mir zitierte, sind einfach nur unnötig provokativ und dazu noch mit einer gehörigen Portion Spekulation verbunden. Ganz ehrlich, du benimmst dich mit solchen Beiträgen wie ein Kleinkind, dass nicht einsehen kann, dass seine Lieblingsmannschaft im Fußball gerade nicht gewonnen hat, sondern ein Unentschieden kassiert hat und nicht damit klarkommt, dass alle für den Kontrahenten lobende Worte finden.
Was DLSS 3 liefern wird, dass werden wir sehen, wenn DLSS 3 kommt. Ob es schneller wird, werden wir auch dann sehen.
Der primäre Leistungsvorteil bei FSR 1, FSR 2, DLSS 1 und DLSS 2 kommt daher, dass die eigentliche Auflösung "massiv" reduziert wird. Man reduziert die Menge der Pixel um knapp 66 % und man bekommt je nach Spiel ca. 60 - 66 % an Performance heraus. Klar, NVIDIA kann DLSS 3 "noch" weiter beschleunigen, aber selbst wenn NVIDIA DLSS 3 - also den DLSS-Teil - um 100 % beschleunigen würde, käme NVIDIA nur an die 66 % heran und würde nicht 30 % auf die 66 % mehr Leistung herauf packen. Dafür muss NVIDIA die Renderauflösung weiter reduzieren. Man müsste also das aktuelle Ergebnis im Modi Quality mit der Auflösung des Modus Performance schaffen. Da ist dann eher die Frage, wie viele Samples NVIDIA mit allen Daten dann vorhalten müsste, um wirklich die gleiche Qualität zu schaffen, wie jetzt mit 1440p bei 2160p.
NVIDIA wird sich mit DLSS 3 vermutlich dem Ideal von 66 % weiter annähern im Quality-Modus. Ob NVIDIA es aber schafft, mit 1080p Material die gleiche Qualität zu bekommen, wie aktuell mit 1440p? Das kann man bezweifeln.
Weniger reißerisch, etwas realistischer ist an der Stelle angebracht.