Wadenbeisser schrieb:
Heute wird sowas eben als Feature verkauft und so deutlich weiter getrieben als damals.
Es wird zur Leistungssteigerung mit einer schlechteren Shader Qualität und geringeren Auflösung gerechnet, es als Feature verkauft und gleichzeitig entgegen besseren Wissens nicht zwischen dem orginalen und dem "optimierten" Zustand unterschieden.
Heute mag man Features haben die in der Lage sind Leistung zu steigern bei gleichsam unwesentlichem BQ Verlust, ABER der Unterschied (und daran krankt euer Einwand massiv) ist, dass die optional sind, zumindest bei von Außen einwirkenden wie DLSS, während die AF Trickserei über weite Teile im Stock Zusand eben default war, wenn dann vllt noch optional aus (ab G80 bzw. ansatzweise ab GCN bei AMD)
Das ging sogar noch schlimmer, Barts bei AMD kennste bestimmt auch...
Btw. gibt es schon seit ewig Optimierungen, das Debattieren über native oder nicht zeigt idR. wer die Technik verstanden hat und wer nicht. Bspw. wird per TBR die Leistung optimiert, auf Konsolen ändert man dynamisch die Renderauflösung, Entwickler nutzen Weichzeichner, Tiefenschärfe und Fokuspunkte um Teile der Szenen gar nicht groß ausarbeiten zu müssen usw.
Die Liste kann man ewig weiter führen... Die Frage ist, wo macht man den Cut?
Zu DLSS kann man sagen, dass das Upscaling ansatzweise den optischen Output wie in der Zielrenderauflösung erreicht und teils gar in der Lage ist, besser auszusehen.
Im Endeffekt wäre mehr Optik ähnlich Downsampling, wo in der Selben Pixelzahl optisch ein besseres Bild kommt wie native berechnet...
Insofern stellt sich klar die Frage, wozu native Auflösung die Referenz sein sollte??
MMn ist das quatsch, als Nutzer habe ich nix von native UHD wenn das Endergebnis auch via DLSS auf gleichem Niveau erreicht wird.
Im Vergleich zur AF Trickserei ging es dort btw. nicht um optische Bildqualitätssteigerung sondern das wegschalten von (seinerzeit noch) Leistung kostenden Filtern. Auch das macht den DLSS Vergleich nicht passender.