Herdware schrieb:
Es gab schon immer vergleichsweise sparsame Systeme unter dem High-End. Das ist keine neue Entwicklung.
Ich hatte z.B. parallel zum 1KW C2D-System auch ein 10"-Sub-Notebook mit ULV-Core-CPU und sogar einer kleinen Mobil-GPU von Nvidia aus der 7000er Generation. Nur konnte ich da drauf halt längst nicht alles Spielen. (Was mich nicht davon abgehalten hat, z.B. World of Warcraft drauf zu versuchen.)
Aber High-End-Systeme, die auch wirklich sinnvoll sind, um aktuelle AAA-Spiele in voller Qualität zu genießen, waren halt zwischenzeitlich mal deutlich sparsamer als die heutigen Gegenstücke und der derzeitige Trend geht nach oben.
Ich denke die aktuellen Highend Systeme sind sogar relativ effizient, zumindest wenn man selbst ein wenig Hand anlegt.
Ich bin zum Beispiel mit der 4090 (UV/PL 360W) in identischen Situationen (Einstellungen/Auflösung/Framerate) um einiges unter meiner alten 6800XT (UV).
Und die 6800XT war jetzt nicht extrem Energiehungrig.
Das größere Problem sind immer höhere Auflösungen und immer höher Bildwiederholraten welche die Hardware dann an ihr Limit bringen, in dem die Effizienz oftmals ordentlich nachlässt.
Ich persönlich suche mir für jeden Fall ein angemessenes Framelimit und halte damit die Leistung und auch Verlustleistung durch Abwärme möglichst gering.
Bringt als zusätzlichen Bonus ein kühleres System und weniger Energieverbrauch .
Auch die ganzen Hochleistungsrechner sind um einiges effizienter als noch vor einigen Jahren (Flops/W), auch wenn es manchmal anders rüberkommt.
Es stellt sich eher die Frage, ob wirklich alles was in solchen Supercomputern momentan berechnet wird sinnvoll ist.
Auf der anderen Seite machen gerade solche hohen Leistungen bestimmte Forschungen überhaupt erst möglich.
Und da rede ich unter anderem von Forschungen zur Kernfusion oder auch in der Medizintechnik, welche irgendwann auch unser Leben ändern könnten.
Eventuell kommt dann mit Quantencomputern nochmal ordentlich Bewegung in die ganze Sache.