Interessanter Punkt.
Aber in der Praxis betrachtet,wie kann man sich das Vorstellen?
- Die Graka kommt nicht hinterher, also senkt Der Treiber die zu rendernde Auflösung.
Dafür sind CPU Instruktionen nötig
- Dann passt es (die Last) wieder und die Reso wird wieder erhöht, auch hier hat die CPU wieder zu tun.
Interessant wäre jetzt hier:
Jeweils CPU und GPU Last, sowie Leistungsaufnahme.
Arbeiten die Systeme so gar effizienter, oder brauchen sie mehr Strom?
Das könnte diverse Tests verwässern.
Bei NVIDIA ist mit DLSS ja das Problem (Aka Feature) ebenfalls sehr ähnlich existent.
Das Ding ist: Welcher Testredakteur ist in der Lage darauf basierten Betrug zu erkennen.
Wenn das Bild nur in 2200p statt 2800p gerendert wird, das Ausgabesignal aber auf 2800p ist, wer erkennt das?
Wenn man diese Features je Hersteller deaktiviert: bleiben die dann aus, oder gehen sie „aufgrund eines Fehlers“ dann in einem Benchmark wieder an?
Und zusätzlich auf die Speicherauslastung als Anhaltspunkt zu achten:
Ich kann bei ner geringer gerenderten Auflösung auch erstmal Reste der größeren Reso im Speicher lassen. Oder irgendwelche dummydaten reinschreiben...