My two cents zu diesem Thema:
Natürlich sind immer höhere Energieverbräuche der falsche Weg. Auch wenn natürlich die Effizienz steigt ggü. der letzten Gen an CPUs und GPUs. Am Ende wird trotzdem ein Betrag X an Watt aus der Dose gezogen, der mit jeder Gen steigt und auch noch zusätzlich weggekühlt werden muss.
Da braucht es neue Ansätze, Hardware mit einem maximalen Energiebudget TROTZDEM leistungsfähiger zu machen.
Das ist natürlich nicht einfach und bedeutet einen radikalen Umbruch, aber wir stehen so allmählich an der Schwelle davon, dass althergebrachte Herangehensweisen und Architekturen ausgedient haben. Dazu gehört m. E. im Übrigen auch, dass jeder seinen eigenen PC mit Hochleistungshardware zu Hause stehen hat.
Ich meine, wo sind wir denn in der nächsten Gen? 5-Slot-Grakas in der FE. Dazu stahlverstärkte Mobos und ein Graka-Ständer sowie ein externer MoRa werden Pflicht, weil man das alles physikalisch nicht mehr ausreichend gekühlt bekommt - egal, mit bzw. in welchem Gehäuse?
Für Stabssauger gab es doch auch ein Limit von 900 W, dass EU-weit als verpflichtende Richtlinie verabschiedet wurde. Trotzdem bekomme ich problemlos meine Bude staubfrei. Und das nicht schlechter, als mit dem alten 2000-W-Sauger. Mehr Watt bringen auch nicht wirklich mehr Saugleistung. Ähnlich wie bei CPUs und GPUs, wo man in den hohen Watt-Regionen auch kaum mehr Rechenleistung erhält.
Dann noch das Thema, dass natürlich nur eine gewisse Maximal-Leistung von einer Steckdose bereitgestellt wird.
Und auch, wenn wir nur noch regenerative Energiequellen nutzen würden, sollten wir trotzdem die Leistung nicht so wegballern.
Ich gebe zu, dass ich das PPT meines 3700X etwas angehoben habe (TDP auf 95 W) , um einen etwas besseren und längeren Single Core Boost zu haben. Gleichzeitig habe ich aber ordentlich undervolted.
Meine 3080 darf sich nicht mehr genehmigen als ~280 W und ist ebenfalls undervoltet.
In der Spitze sollte mein System also nur gut die Hälfte verbrauchen, was mein NT mit 850 W bereitstellen kann.
Natürlich nur unter der theoretischen und recht realitätsfernen Annahme, dass alle Komponenten gleichzeitig maximal ausgelastet werden.
Und diese Maximalverbräuche treffen ja - trotz allem - auch nicht dauerhaft auf die neuen Gens von GPUs und CPUs zu. Im Gaming bspw. sind sie meistens geringer. Bei der CPU sowieso und bei der GPU nur, wenn man es drauf anlegt, alles maxt und in UHD spielt.
Ich finde es auch interessant zu lesen, dass ständig überall auf die kommende 4090 engedroschen wird, die beiden neuen 4080er, deren Maximalverbräuche auf dem Niveau der 3080 bzw. sogar noch darunter liegen, kaum erwähnt werden. Und die 4080 ist ja schon um einiges leistungsfähiger als die 3080.