Vielleicht können mich die ganzen intelligenten Leute hier mal aufklären. Ich verstehe da doch Einiges nicht...
Jetzt mal die höheren Stromkosten durch Mehrverbrauch außenvor gelassen:
Was spricht außer den höheren Anschaffungskosten gegen ein Netzteil, dessen Auslastung bei z.B. Spielelast etwa 50% beträgt?
Warum man 50% Auslastung unter Last nicht erreichen können soll, wie
@iron mike schreibt erschließt sich mir nicht ganz. Und selbst wenn es etwas schwankt und 20%, 50%, und 100% am effektivsten sein sollen, ist es ja nun nicht so, dass man übertrieben gesagt bei 49% oder 51% Auslastung auf einmal nur noch 80% statt >90% Wirkungsgrad hat.
Und was die idle-Verbräuche angeht, liegt man doch vielleicht bei 50 Watt bei einem "Standard-Rechner", wo dann selbst ein 550W Netzteil wenig effizient sein dürfte. Bei z.B. der Videowiedergabe reicht man dann ja schon eher an 80-100Watt ran. Da wiederum macht es nach zitierten 80 Plus Wikipedia Artikel keinen bemerkenswerten Unterschied, ob ich nun ein 550W Gold Nt habe was mindestens 90% Wirkungsgrad bei 20% Last hat oder ein 1100W Titanium Nt mit mindestens 90% Wirkungsgrad bei 10% Last.
Und selbst ein 550W Platin Nt dürfte nur minimal effizienter sein.
Das ganze jetzt noch absolut betrachtet werden die Unterschiede für mich noch irrelevanter.
Gibt es da jetzt einen Denkfehler? Falls ja, wo? Und eine Erklärung für einen absoluten Laien wäre interessant.
Zum eigentlichen Thema: Ich finde die Leistungsaufnahme ok. Für die Zeit, die ich im Jahr noch zocke, ist es mir fast egal, ob der Rechner nun 400, 600 oder 800W braucht. Das ist mir mein Hobby durchaus (noch) wert.