Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIm Test vor 15 Jahren: Als ATi und Nvidia bei der Qualität mogelten
tl;dr:Vor 15 Jahren widmete sich ComputerBase der anisotropen Filterung bei ATi und Nvidia (Test). Zwischen den beiden Herstellern gab es deutliche Unterschiede hinsichtlich der Qualität der Filterung. Problematisch war dabei, dass sich viele der eingebauten Geschwindigkeitsoptimierungen nicht deaktivieren ließen.
wenn ich mir so die Bilder anschaue, hätte ich eine Idee für Nvidia und AMD:
AF-Einstellungen grundsätzlich ignorieren (abschalten) und einfach die bekannten Schärfefilter verwenden = free FPS
Ich habe damals keine Unterschiede gesehen und es gab immer nur "aus" oder "hohe Leistung" weil die Grafikkarte damals gerade so gereicht hat. Das Budget für high end war halt nicht da.
Heute wird sowas eben als Feature verkauft und so deutlich weiter getrieben als damals.
Es wird zur Leistungssteigerung mit einer schlechteren Shader Qualität und geringeren Auflösung gerechnet, es als Feature verkauft und gleichzeitig entgegen besseren Wissens nicht zwischen dem orginalen und dem "optimierten" Zustand unterschieden. Gleichzeitig habe ich seit einer Ewigkeit keine solchen Qualitätstests mehr gesehen.
Kompletter Schwachsinn. Damit offenbarst du nur deine totale Unkenntnis der hinter DLSS stehenden innovativen Technologie. Mit dem Thema des Artikels hat das jedenfalls gar nichts zu tun.
Warum? DLSS ist Auflösungscheating in Reinkultur.
Es wird zur Leistungssteigerung eine deutlich höhere Auflösung ausgegeben als in der das Bild berechnet wurde und das Ergebnis der schlechteren Berechnung in einem Zwischenschritt mit vorgegebenen Einstellungen aufpoliert.
Kompletter Schwachsinn. Damit offenbarst du nur deine totale Unkenntnis der hinter DLSS stehenden innovativen Technologie. Mit dem Thema des Artikels hat das jedenfalls gar nichts zu tun.
Ich zitiere mal aus einem Test: "Ursächlich dafür ist Nvidias Entscheidung, DLSS als Entlastungsmaßnahme zu bewerben, die bei vergleichbarer Qualität die Leistung erhöht. Dahinter steckt keine Zauberei, sondern ein uralter Trick: Die interne Render-Auflösung fällt bei aktivem DLSS geringer aus als die im Spiel eingestellte. Es liegt in der Natur der Sache, dass eine reduzierte Auflösung zu entsprechend geringerer Qualität und stärkerem Aliasing führt. Hier setzt das Herzstück von DLSS an: Die Software weiß aus den Trainingssessions, welche Informationen verlorengehen, und versucht diese nach bestem Wissen spatial (räumlich) und temporal (zeitlich) aufzuwerten."
Nix anderes haben die früher gemacht, da wurde es nur nicht als AI, Deep Learning und schieß mich tot bezeichnet.
EDIT: Ist kein reines gebashe gegen nV, AMD trickst genauso.
Solche Qualitätstests würden mich auch bei modernen Features auf modernen Grafikkarten interessieren. Gerade mit Raytracing bahnt sich da ja wieder ein Lauf der unterschiedlichen Techniken mit unterschiedlichen Ergebnissen an.
Bei guter Umsetzung, und offener Kommunikation finde ich solche "Mogeleien" gut. Der Qualitätsverlust sollte halt im Rahmen bleiben.
Seit dieser Zeit habe ich im Nvidia Treiber immer 'höchste Qualität' eingestellt. Meiner Meinung nach war der Leistungsgewinn durch Anpassung der anisitropen Filterung bei Nvidia nie den Qualitätsverlust wert.
Ich wundere mich heute immer wieder, warum es überhaupt noch die Möglichkeit gibt, das AF in Spielen einzustellen. Das kostet doch fast gar keine Leistung!?
Bei The Witcher 3 gibt es im Grafikmenü keine Option das AF einzustellen, dabei hättet es dieses Spiel bitter nötig. AF im Treiber auf 16x erzwungen sieht es deutlich besser aus.
Zunächst einmal ist es kein "Cheating". Deine Wortwahl suggeriert, dass hier irgendetwas heimlich passiert. Schwachsinn.
Zum anderen handelt es sich hierbei um eine komplett neue Upscaling-Methode, die keinem primitiven Interpolationsalgorithmus folgt. Stattdessen erfolgt das Upscaling durch ein neuronales Netz, das mit Screenshots aus dem Spiel trainiert wird sowie die Bewegung des Spielers berücksichtigt.
Möglicherweise liegt es nur daran, dass ich im Bereich des maschinellen Lernens aktiv bin und dadurch die Komplexität und Innovationskraft dieses Verfahrens einschätzen kann. Aber seid doch wenigstens so gut und lest euch wenigstens Grundlagen an, bevor hier derartig vorschnell unsinnige Urteile vom Kaliber
Möglicherweise liegt es nur daran, dass ich im Bereich des maschinellen Lernens aktiv bin und dadurch die Komplexität und Innovationskraft dieses Verfahrens einschätzen kann.
statt eines trilinearen ein „brilinearer“ Filter benutzt, sofern dies ohne Qualitätsverlust möglich war. Der Unterschied zwischen Standard und Advanced war, dass die höhere Stufe den brilinearen Filter früher einsetzte.
Aber wieder ein interessanter Artikel, wie auch früher immer wieder mit allen möglichen, teils schmutzigen, Tricks gearbeitet wurde um in Benchmarks den längsten Balken zu haben.
Ist das auch dein Argument, das Du jedem Wissenschaftler gegenüber bringst, um eine inhaltliche Auseinandersetzung zu vermeiden? "Sorry, dir fehlt der Abstand". Köstlich
Was hat das mit Wissenschaft zu tuen?
Bei der DLSS Diskussion geht es um ein Feature das intern qualitativ schlechter arbeitet als der Standard Zustand aber die beiden Endergebnisse bei der Frage der Leistung nur allso bereitwillig direkt verglichen weil die Ausgabeauflösung an den Monitor die gleiche ist.