kreisel93 schrieb:
Nein, darum geht es nicht. Windows soll nur wieder (was den Stromverbrauch angeht) besser werden!
Linux kann ja auch gar nicht jede Anwendung ausführen...
Dafür müsste Linux erst einmal besser werden wie ein aktuelles Winodws 10. Auf drei getesteten Geräten, jeweils mit den Standard-Settings nach Instalation (bei mir Linux Mint), verbraucht der Lenovo x220 (Intel-GPU), das Acer Aspire Switch Alpha 12 (Intel GPU) und auch mein PC (i9-9900K mit RTX 4070) sowohl im Idel wie auch bei Videobetrachtung mit VLC oder YT-Videos im Firefox mehr Strom wie unter Windows. Ihc zweifele daran, dass dies nur an der genutzten USB-SSD für Linux liegt.
Mag sein, dass man Linux noch optimieren kann, dass es mit Chrome, anderen Video-Auflösungen oder Codecs anders aussieht. Aber das bedeutet dann, dass ich dafür unter Linux viel mehr Aufwand reinstecken muss wie unter Windows.
Ich hatte vor einigen Jahren mal AVIDemux zum Encoden von Videos unter Linux und Windows 10 getestet (identische SW-Version, alles auf SW konfiguriert und HW identisch über das UEFI konfiguriert). Damals war AVIDemux unter Linux reproduzierbar 5% langsamer wie unter Windows 10.
Habu schrieb:
Denke es kommt da sehr auf die Nutzung und auch die verwendete Hardware an.
Klar kommt es das. Aber vor allem zeigt es wieder schön, dass es auf die Linux-Distribution und deren Optimierung ankommt, wenn man nicht selber optimieren möchte/kann.
kreisel93 schrieb:
beides im Vergleich zu Linux...
Der Phoronix Link zeigt doch eindrücklich, daas es in Sachen Stromverbrauch nicht "das Linux" gibt (was aber sowieso seit 30 Jahren bekannt ist). Dabei muss ich noch nicht einmal an eine komplett auf OS setzende Distribution denken und hoffen, dass der nouveau Treiber meine RTX 4070 genaudso gut (=performant und sparsam) unterstützt wie der Nvidia-Treiber, wenn ich die GPU nutzen möchte.
kreisel93 schrieb:
Schließlich spart das dann auch für ganz viele Leute den Kauf eines Stromzählers
Damit der PC ein paar Watt weniger braucht, die Waschmaschine aber weiter bei jeder Wäsche (im falschen/unnnötigen Programm) ein paar dutzend bis hundert Watt mehr verbrät? Mein PC kann 125 Stunden im Idle laufen bis er den Strom verbraucht hat, den meine Waschmaschine für eine unnötig 60° Wäsche (anstatt 40°) zusätzlich verbraucht.
kreisel93 schrieb:
Lesen hier die mit, die am Ende diese Tests machen würden?
Ich werde da jedenfalls nicht mittesten. Wozu auch? Tests auf einer 5 Jahre alten Plattform mit individueller Ausstattung bringen niemandem außer mir etwas. Ich müsste mit meinen Anwendungen testen (die es unter Linux nicht gibt, also dort unter Wine oder gleich in einer VM) oder es einfach lassen und den Strom (gemessen per sündhaft teuren Strommessgerät) an anderer Stelle sparen. Z.B. durch die umweltmäßig miserabele Entscheidung, meinen 12 Jahre alten Monitor gegen einen neuen zu ersetzen, um damit ca. 50W/Stunde zu sparen. Damit muss der neue Monitor 5-6 Jahre durchhalten, um den Kaufpreis durch gesparte Stromkosten wieder drin zu habe.
Für allgemeine Aussagen und Kaufentscheidungen auf Basis des Verbrauchs einer HW-Plattform genügen mir die Angaben, die HardwateLuxx oder PCGH (und vermutlich auch Heise) bei CPU Tests machen. Wobei auch diese nur mit dem aktuellen BIOS/Treiberstand und dem konkreten Mainboard "korrekt" sind. Sowas sieht man bei nahezu jeder neuen Zen-Generation von AMD.