MaverickM schrieb:
Upscaler und andere Software-Tricks haben in einem Test, der die Rohleistung von Karten miteinander vergleichen soll, absolut nichts zu suchen. Wenn Du das nicht verstehst, dann brauchen wir gar nicht erst weiter diskutieren.
Wenn es NUR mit Upscaler und Software-Tricks verglichen wird, magst Du recht haben. Da aber jegliche Bilder mit modernen Engines über iwelche Tricks auf den Bildschirm gelangen und "nativ" eigentlich nur noch reaktionäres Träumen Ewiggestriger ist, geht mir die Leier mittlerweile auch auf den Wecker. Selbst simples 2xMSAA ist ein "Software-Trick", da von "Rohleistung" zu fabulieren, hat schon was.
Wenn man konsequent wäre, ist selbst RT ein "Software-Trick" um die Grafik aufzuhübschen. Vergleicht man also mit RT an, ist nach Deiner Logik unzulässig, da ja nicht "native Rohleistung". Warum aber nun also ein "Software-Trick", der zu weniger FPS führt als Massstab zulässig sein soll, ein "Software-Trick", der zu mehr FPS führt für einen Vergleich nicht statthaft sein soll, erschliesst sich mir nicht. In beiden Fällen wird das native Bild abgeändert und die Ausgabe (resp. die FPS) basieren rein darauf, wie gut Karte X gegenüber Karte Y mit dem "Software-Trick" umgehen kann.
Man liest aber hier und es ist allgemein gültig, dass halt AMD Karten (bisher) mit RT viel mehr Leistung verloren haben. Da hat keiner ein Problem damit. Wenn man aber dann MFG aufführt als Grund, warum die nVIDIA Karten mehr FPS liefern, schreien plötzlich alle was von "Verzerrung".
Glaub mir, in 10 Jahren kräht kein Hahn mehr nach frame generated FPS, da die so standardmässig dazu gehören werden wie Antialiasing heutzutage. Bei den Konsolen interessiert es auch keine Sau, wie die 30 oder 60FPS am Ende des Tages zustande kommen, warum wohl?