In der News wird Erwähnt, dass Windows es erlaubt, das Rendern auf die Leistungsstärkere Karte zu legen, während die Bildausgabe von der Leistungsschwächeren Karte übernommen wird um damit Strom zu sparen.
Wieso spart man damit Strom? Die Leistung welche zum Rendern benötigt wird sollte doch gleich bleiben wenn es weiterhin die (z.B.) GTX1060 rechnet. Und ich würde jetzt eigentlich nicht erwarten, dass allein die Bildausgabe so viel am Stromverbrauch ausmacht, dass das von GPU zu GPU so verschieden ist... Oder überseh ich jetzt was?
Wenn es aber tatsächlich so ist, und die Synchronisation des ausgegebenen Bildes, wie im Bericht steht, nicht auf der NVidia-Karte passiert sondern auf der Bildausgebenden AMD-GPU passiert, dann kann NVidia dem ja nur ein Riegel vorschieben indem sie verhindern, dass die NVidia-Karte ein Bild über eine zweite GPU ausgeben kann. In dem Moment torpedieren die aber die "Stromsparfunktion" von Windows... Gerade wenn es um Notbooks geht bei denen Akkulaufzeit einen hohen stellenwert bei der Kaufentscheidung haben, würden die sich damit nur selbst ans bein pinkeln?