TheHille schrieb:
Ich würde davon ausgehen, dass die Karte unter nativ "maximaler" ausgelastet werden kann, als mit Upscaler.
Ja und nein. Wenn eine Karte nativ gerade so ausgelastet wird, sorgen Upscaler natürlich dafür, dass sie es nicht mehr wird.
Das ist bei den Tests aber nicht der Fall, weil Spiele mit Upscaler meistens so anspruchsvoll sind, dass du sie sowieso immer brauchst. Damit relativiert sich das ganze.
TheHille schrieb:
Das kann ich theoretisch auch mit Reduktion der Auflösung/Detailgrad erreichen. Nur mit FSR/DLSS habe ich keinen (großen) Verlust bei der Bildqualität.
Genau das ist ja der Punkt. Mehr Leistung bei gleichwertiger/besserer Bildqualität. Warum soll ich die Bildqualität runterdrehen, nur um nativ nutzen zu können, wenn ich Upscaler nutzen kann? Mal aus Sicht des Users, welcher jetzt vor dem Spiel sitzt und spielen möchte.
Wir wollen doch alle die höchst mögliche Bildqualität bei hohen Bildraten.
TheHille schrieb:
Andersrum wird ein Schuh daraus. Nur bei Nativ weiß ich, wie sich die entsprechenden Karten im Verhältnis zueinander verhalten. Und du weißt, dass wenn deine Karte 60 FPS (oder deine gewünschte Ziel-FPS) erreicht, du kein FSR/DLSS brauchst. Anmachen kannst du sie dann ja trotzdem noch.
Das weiß ich auch so, weil sämtliche Karten Upscaler unterstützen bzw. bieten.
Wenn ich nativ 60 FPS erreiche, wie viel erreiche ich dann mit DLSS? Ersteres interessiert mich nicht, weil ich ohne Upscaler nicht spiele. Grund dafür ist, dass Nativ TAA bedeutet und TAA ist selten besser als DLSS.
TheHille schrieb:
Mein Problem an den Techniken ist der inflationäre Gebrauch bzw. wird bei der Spieleentwicklung m.M.n. nicht mehr so optimiert, dass es unter Nativ läuft, sondern sich auf die Upscaler verlassen.
Frage: Wenn es Upscaler nicht geben würde, glaubst du die Spiele wären heute auf dem gleichen grafischen Niveau mit gleicher FPS nativ, wie sie DLSS bietet?
Ich kann dir versichern, dass dem nicht so wäre. Es gab früher schon Spiele die nicht optimiert waren/wurden und die gibt es heute auch. Ob es heute mehr sind, ist möglich, aber das liegt nicht unbedingt an Upscalern. Und ich bezweifle, dass man das als Laie mit bloßem Augen am Gameplay erkennen kann. Klar gibt es offensichtliche Beispiele wie Cities Skyline 2, aber im Alan Wake 2 Thread gab es ein paar Helden, die behaupteten, dass Assassins Creed 3 besser aussieht.
Bspw. kann ein höherer Polygoncount schon mehr Last erzeugen. Wie willst du die Polygone von Spiel A und B miteinander mit bloßem Augen vergleichen? Kannst du nicht.
TheHille schrieb:
Eine Technologie, die es einem eigentlich ermöglichen soll unspielbare Spiele spielbar zu machen, wird nun zur neuen Messlatte.
Das ist ja nur ein Aspekt. Sie sollen ja gleichzeitig die Bildqualität verbessern und das ist das, was wir alle wollen, oder etwa nicht?
TheHille schrieb:
Jetzt bräuchten wir nur noch eine Technologie, die unspielbare FSR/DLSS-Spiele wieder spielbar macht. Verstehst du, was ich meine?
Welches Spiel ist denn unspielbar mit Upscaler?
TheHille schrieb:
Der neue Status-Quo basiert auf einer "Behelfslösung". Das ist meine Kritik. Aber diese Kritik geht nicht Richtung AMD/nVidia, sondern eher Richtung Spieleentwickler/Engine-Hersteller...
Die Frage ist, ob die Kritik berechtigt ist. Deine Annahme und die vieler anderen ist ja, dass aufgrund der Upscaler weniger optimiert wird als früher. Beweise dafür gibt es aber keine.
Und auch in einem Leistungsbenchmark ist die Optik ein Faktor, der eine wesentliche Rolle spielt, denn du willst die Leistung bei entsprechender Optik wissen, also Auflösung und Detailgrad.
Wie dem auch sei ist das hier aber auch kein Leistungsbenchmark, wie
@Taxxor ja schon richtigerweise erwähnte.