Lamaan schrieb:
Ich werde nie verstehen wie man ein Feature nutzen und feiern kann, dass angeblich die Qualität verbessern soll aber gleichzeitig, auf Grund von Leistungsprohblemen, Bildfehler einbaut.
Das liegt daran, dass es nicht so funktioniert, wie du es beschreibst, also du hast es in der Tat nicht verstanden. Denn das Feature funktioniert einerseits auch ohne Frame Generation und andererseits liegen die Bildfehler nicht an Performance-Problemen, sondern gewissermaßen in der Natur der Sache:
Du baust ja ein Bild für eine hohe Auflösung aus einem Bild in niedrigerer Auflösungen durch intelligentes Hochskalieren auf. Du erzeugst also aus weniger Pixeln als Input mehr Pixel als Output. D.h. es fehlt Wissen für die Pixel, die in der höheren Auflösung noch nicht gefüllt sind. Jetzt wird nicht stumpf hochskaliert, sondern mit ML Methoden, wodurch bessere Schätzwerte für die Pixel resultieren, als bei einem normalen Hochskalierungsalgorithmus. Im gleichen Arbeitsschritt werden dabei sogar noch Kanten geglättet.
Aber, richtig gelesen, es wird geschätzt. Das Wissen, wie die Pixel zu färben sind, gibt es ja nicht. Egal wie schnell die GPU ist, man macht ja aus wenig mehr. Das liegt eben nicht in 100% der Fälle richtig, kann es ja auch gar nicht. Trotzdem entsteht durch diese Technik einerseits ein Geschwindigkeitsgewinn, weil das schneller funktioniert, als wenn man das nächste Bild in voller Auflösung rendern würde, und andererseits wurden ja bereits Bildverbesserungstechniken im selben Arbeitsschritt angewendet, die beim normalen Bild ggf. im Nachgang, oder, noch teurer, durch Rendern in höherer Auflösung und dann Herunterskalieren passieren müssten. Also ist in sehr vielen Fällen das Bild dadurch sogar besser bei geringeren Rechenkosten.
Bei Frame Generation wird dann das ganze Bild, nämlich ein Bild zwischen 2 Frames, geschätzt. Mit ähnlichen Methoden und wieder dem Gewinn, dass es schneller ist, als das Bild so zu rendern. Dadurch potenzieren sich natürlich auch die Schwächen eines solchen Ansatzes. Aber das hat auch hier nichts mit mangelnder Leistung zu tun. Im Vergleich zum vorher genannten, wo ein bereits fertiges Bild hochgerechnet wird, wird ja hier ein Bild erzeugt, was den Übergang zwischen 2 Frames darstellen soll. Das sind ungleich mehr Schätzungen, bei denen man hart daneben liegen kann, insbesondere bei Überlagerung von Bildelementen bei viel (ggf. gegenläufiger) Bewegung. Dass das trotzdem vergleichsweise gut funktioniert, ist schon eine ordentliche Leistung.
Man kann natürlich sagen, wenn die GPU an sich mehr Leistung hätte, dann wäre das alles nicht nötig. Platt gesprochen stimmt das, aber unterm Strich gibt es dir als Käufer weit mehr Optionen, und, wie erwähnt, häufig ist ein DLSS Bild eben besser als ein herkömmlich gerendertes. Gleichzeitig läuft die Karte dabei kühler und ruhiger. Oder du kannst einfach mehr aus einer schwächeren Karte herausholen. Also würde ich behaupten, dass die Vorteile hier insgesamt überwiegen.
AMD hat hier mit FSR ja auch ein Eisen im Feuer, sogar, wie üblich, als offenen Standard. Jedoch täuscht das leider nicht darüber hinweg, dass ML basierte Techniken natürlich auch besonders gut auf Hardware funktionieren, die damit gut zurechtkommt. Nvidia ist damals mit Turing diesen Schritt gegangen und hat die Architektur konsequent dafür bzw. Raytracing umgebaut. Turing ist deswegen, was sowas angeht, auch sehr gut gealtert. AMD hat diesen Schritt noch nicht getan und wirft bis jetzt einfach mehr Kohle ins gleiche Feuer. Dadurch tun die Karten das, was sie können, zwar schneller, können aber nicht das, was von ihnen verlangt wird, dadurch besser. Die alten Stärken bleiben stark, die alten Schwächen bleiben schwach, auch wenn sie erträglicher werden.
Ein kompletter Architekturumbau wäre für AMD unumgänglich, um wieder auf Augenhöhe mitzuspielen. Den Schritt mag man offenbar nicht gehen, oder scheut zumindest den Vergleich im High-End Segment. Ich persönlich halte das strategisch für einen Fehler, aber vielleicht irre ich mich ja.