Sag mal, ist das ne Annahme oder tatsächlich getestet? Ich fand die These zumindest so interessant, dass ich es gerade eben getestet habe. Und was soll ich sagen. Ist leider komplett falsch.
Hier Cyberpunk mit Pathtracing mit einer besonders CPU-lastigen Szene.
720p mit DLSS Ultra Performance = 240p interne Renderauflösung
Anhang anzeigen 1518661
1080p mit DLSS Quality = 720p interne Renderauflösung (=9 fache Pixelanzahl !!!)
Anhang anzeigen 1518663
Und ja, die FPS schwanken in der Szene gerne mal um 2-3 FPS rauf und runter, ist also wirklich identisch.
Das ganze nochmal im internen Benchmark. Hier konnte ich nur bis maximal 720p mit Quality upsampling gehen, da sonst die GPU langsam limitiert. Aber ist wenn man die internen Renderauflösungen vergleicht trotzdem 240p vs 480p und somit die vierfache Pixelanzahl:
Anhang anzeigen 1518671
Also nein, dass RT/PT mit steigender Auflösung die CPU stärker belastet kann ich nicht bestätigen. Die CPU Performance im CPU Limit ist je nach Szene oder Testsequenz immer identisch und unabhängig von der Auflösung.
RT und PT kosten zwar CPU performance und drücken die Framerate im CPU Limit, das ist richtig. U.A. wegen der BVH. Aber Auflösungsabhängig? Nein.