kiffmet schrieb:
Es ist vollkommen normal, wenn ne CPU mehr Watt zieht, als sie TDP hat. Die reale Leistungsaufnahme = Verrichtete elektrische Arbeit + Abwärme.
Grundfalsch!
Wie gesagt, in den 90er Jahren galt noch der Grundsatz, daß eine CPU geringfügig bis erheblich
weniger Watt zieht, als die TDP-Klassifizierung aussagt. Die TDP war ein grob gestufter
Systemkühlrichtwert!! Hätte damals eine 40-Watt-CPU 80 Watt verbraten, wäre sie schon im Bootprozeß abgefackelt. Heute verläßt man sich darauf, daß die CPU rechtzeitg den Takt drosselt. Und darauf, daß die Kühler ohnehin überdimensioniert sind
Und was du da von "Leistungsaufnahme = Arbeit + Abwärme" redest, ist physikalischer Unfug. Das gilt zB. bei einem Motor, der elektrische Energie in
mechanische Energie plus Abwärme umsetzt. Idealerweise hätte so eine Konstruktion gar keine Abwärme, weil hier die mechanische Energie benötigt wird. Deshalb spricht man da da auch von einem Wirkungsgrad, der die nutzbare Energie ins Verhälktnis zur aufgewandtern Energie setzt.
Ein Prozessor leistet aber keine mechanische Arbeit. Alles, was da an elektrischer Energie reingeht, wird letzten Endes in Abwärme umgewandelt. Auch am Ende einer "elektrischen Arbeit" steht die Umwandlung der dabei benötigten Energie in Abwärme. Beim Prozessor sind also Leistungaufnahme und Abwärme immer
identisch!
Es ist also ein Unding, wenn eine CPU mehr Strom verbraucht, als die TDP als
maximal wegzukühlende Abwärme definiert. Würde man die Kühler streng nach TDP konstruieren, würden die Rechner dauernd throttlen...