OrtusMalum schrieb:In der News wird Erwähnt, dass Windows es erlaubt, das Rendern auf die Leistungsstärkere Karte zu legen, während die Bildausgabe von der Leistungsschwächeren Karte übernommen wird um damit Strom zu sparen.
Wieso spart man damit Strom? Die Leistung welche zum Rendern benötigt wird sollte doch gleich bleiben wenn es weiterhin die (z.B.) GTX1060 rechnet. Und ich würde jetzt eigentlich nicht erwarten, dass allein die Bildausgabe so viel am Stromverbrauch ausmacht, dass das von GPU zu GPU so verschieden ist... Oder überseh ich jetzt was?
Das ist schlecht formuliert. Sinn macht diese Vorgehensweise im normalen Desktopbetrieb (Office, Browser usw.), wo die stärkere GPU komplett abgeschaltet werden kann. (in Notebooks seit Jahren Standard)