Warum soll der Stromverbrauch höher sein?
Wie viel strom verbraucht wird entscheiden halt die Komponenten die verbaut sind und die Grafiksettings.
Was soll da im Rechenzentrum anders, als zuhause sein?
Vorteil ist eben wie schon gesagt wurde die dynamische Lastverteilung. Man kann dann eben mit meinetwegen 100 GPUs 1000 Spieler bedienen, weil eben nie alle gleichzeitig online sind. Das spart schon enorm ressourcen.
Ist ja grundsätzlich auch ne ziemliche Verschwendung, wenn sich "jeder" nen PC und vielleicht noch ne Konsole kauft, dafür Ressourcen aufgewendet werden und alles am Tag vielleicht nur ne Stunde genutzt wird.
Die Konsole ist bei mir teilweise wochenlang ungenutzt, wenn ich grad was am PC zocke. Und der PC läuft auch nur nach feierabend... Eigentlich ne ziemliche Verschwendung.
Im Rechenzentrum nutzt halt dann einfach jemand anderes "meine" Rechenkapazität, wenn ich garade nicht online bin.
Aus ökonomischer und ökologischer Sicht ist das echt nicht verkehrt. Zumal sich das Modell so ja auch finanziert. Statistisch gesehen zahlen eben X-leute durch ihren monatlichen Beitrag für einen Slot im Rechenzentrum.
Ich werd mir Stadia auf jeden Fall mal ansehen, wenns so weit ist.
Meine größte Sorge ist aktuell die Bildqualität. Auch wenn ich mir durchaus vorstellen kann, dass ein 30 Mbps Stream mit VP9 Codec ne ordentliche Bildqualität schafft, so kommt es letztendlich ja dann immernoch drauf an, "wie" der Stream codiert wird. Je nachdem, wie viel Rechenaufwand in das encoding reingesteckt wird (vermutlich werden Hardwareencoder genutzt?) kann die Qualität schwanken. Wenn ich z.B. mit meiner GTX980 per GPU encoding aufnehme, dann sind 30 Mbit absolut nicht ausreichend. Wenn ich aber mit 100 Mbit aufnehme und das ganze dann per CPU encoding auf 30 Mbit komprimiere, dann reichen 30 Mbit eben doch aus.
Die Bildqualität hängt extrem vom Encodingaufwand ab. Und darauf bin ich am meisten gespannt.