CCIBS
Commander
- Registriert
- Sep. 2015
- Beiträge
- 3.010
Das Problem ist weniger der Verbrauch, als die Effizienz. Server CPUs können auch über 200 bis 300 Watt verbrauchen, sind aber Effizienter, als das, was im Desktopbereich durch den hohen Takt verbraucht wird, nur damit er Balken bei Bench etwas länger wird. Aber durchschnittlich würde ich sagen, reichen 65 Watt bei einer CPU. Höchstens 95 Watt.
GPUs Arbeiten wiederum allgemein Effizienter. Die RTX 3070, bzw. RX 6800 / RX 6900 XT gelten als die effizientesten und gehören zum oberen Spektrum.
Jetzt nur auf den Desktopbereich betrachtet läuft es bei den CPU gerade ziemlich falsch, da es auf die kosten der Effizienz geht. Bei der GPU scheint immerhin die Effizienz nicht schlechter zu werden, wobei es dann schon bedenklich ist, wenn die nächste GPU Generation allein soviel Strom verbraucht, wie ein komplette High End System der letzten Generation.
Gewählt CPU 65 Watt, GPU bis 250 Watt
GPUs Arbeiten wiederum allgemein Effizienter. Die RTX 3070, bzw. RX 6800 / RX 6900 XT gelten als die effizientesten und gehören zum oberen Spektrum.
Jetzt nur auf den Desktopbereich betrachtet läuft es bei den CPU gerade ziemlich falsch, da es auf die kosten der Effizienz geht. Bei der GPU scheint immerhin die Effizienz nicht schlechter zu werden, wobei es dann schon bedenklich ist, wenn die nächste GPU Generation allein soviel Strom verbraucht, wie ein komplette High End System der letzten Generation.
Gewählt CPU 65 Watt, GPU bis 250 Watt