Wieso steigt die Leistungsaufnahme so stark bei kleinsten Spannungserhöhungen?

Envoy

Lt. Commander
Registriert
Apr. 2008
Beiträge
1.780
Hallo Zusammen

Ich habe mich schon öfters gefragt weshlab die Leistungsaufnahme von Grafikkarten (und auch CPUs) bei kleinen Spannungserhöhungen von beispielsweise 0.1V dermasen in die höhe getrieben wird. Und weshalb dies so eine starke Belastung für die Spannungswandler ist. Kann das jemand "detailiert" erklären? Wäre nett :)
 
Weil die Leistung einen quadratischen Zusammenhang über die Spannung hat. P = U² / R

Bei Halbleitern sinkt natürlich (i.d.R.) der Innenwiderstand bei steigener Spannung. Aber für konstante Temperatur gilt das Ohmsche Gesetz wie angesprochen für konst. R.

=)
 
Zuletzt bearbeitet:
P=U*I

Sprich es fließt ein hoher Strom durch die Schaltungen und der Verursacht bei kleinen Spannungsänderungen große Leistungsunterschiede(Vereinfacht dargestellt)
 
Und je mehr Strom fließt... desto wärmer wird wieder CPU was weiter einen Stromanstieg bewirken würde. Deswegen setzen moderne CPUs sogar ihre Spannung autom. herab um den Strom (in einem gewissen Bereich) zu begrenzen.
 
Zu der ohmschen quadratischen Komponente kommt noch die Tatsache, dass durch hohe Leistung hohe Temperatur folgt, die bei Halbleitern für geringeren widerstand sorgen, was wieder zu höherer Leistung führt.

Ne Formel für aktivierte Majoritäten/Minoritäten in Störstellen reserve, die sich direkt auf den widerstand auswirken willst du aber jetzt nicht, oder?
 
Zuletzt bearbeitet:
Ich kann falsch liegen, aber mal grobes Rechenbeispiel:

300W=1,5V*200A (P=U*I)
In dem Fall ist der Widerstand vom Chip 0,0075 Ohm (R=U/I)

Jetzt nehmen wir mal 1,6V
Damit hätten wir 213,3A (I=U/R) also 1,6V*213,3A=341W

Jetzt muss man aber noch berücksichtigen, dass Halbleiter mit steigender Temp einen niedrigeren Widerstand haben!!
Ich kenne da keine genauen Zahlen, aber selbst wenn er um 10% fällt:
1,6V*0,00675Ohm=237A -> also grob schon 380W

Hoffe das hilft, und das es soweit richtig ist ;)

Edit: Das ist auch der Grund warum die 290X im Referenzdesign so viel Strom zieht, sie ist sau heiß. Und schon 70°C statt der 95°C machen nicht wenig aus, bei mir waren es glaube ich um die 40W!
 
Zuletzt bearbeitet:
Gleicht zwar nie den Anschaffungspreis einer WaKü aus, aber ja, bei mir verbraucht die 290X auf 1220Mhz weniger Strom als sie in den meisten Tests bei 1000Mhz braucht. Läuft halt auch meist auf unter 50°C :D

Mein ganzer PC bleibt unter 300W bei Vollast wenn ich die GPU auf 1Ghz lasse ;)
 
wow geht das hier ab :) OK ja, ich schäme mich nun (mir gegenüber) fast für meine Frage :) Das hätte ich eigentlich wissen MÜSSEN... Egal hehe. Ich habe auch an P=U*I herumstudiert, aber habe nie damit gerechnet dass da 200 Ampere fliessen... nichtsdesto trotz, danke :)
 
Zurück
Oben