Warum mehr Spannung beim Übertakten einer CPU?

Koni87

Banned
Registriert
Aug. 2018
Beiträge
257
Kann mir jemand den technischen Grund nennen, warum man beim Übertakten einer CPU auch mehr Spannung an der CPU braucht?
 
Mehr Takt = Kürzere Schaltzeiten => mehr Elektronendruck nötig damit das Signal auch ankommt.
 
Sehr sehr vereinfacht ausgedrückt:
Jedes Mal wenn ein Transistor schaltet, wird eine gewisse Menge Energie benötigt. Um diese Energie bereitstellen zu können, muss die Spannung erhöht werden.
 
  • Gefällt mir
Reaktionen: WhiteGoose
Es muss sichergestellt sein, dass innerhalb eines Taktzyklus alle Transistoren so geschaltet haben, wie sie sollen. Man kann also so weit übertakten, bis die einzelnen Transistoren nicht mehr schnell genug schalten können. Ab dann muss man die Spannung erhöhen.

Die Geschwindigkeit, mit der ein Transistor geschaltet wird, hängt zum Beispiel von seiner Gate-Kapazität ab. Die ist durch das Design und die Herstellung der CPU festgelegt.

Man kann das Gate wie eine Art Kondensator sehen, der aufgeladen werden muss. Durch eine höhere Spannung fließt ein höherer Strom, und der Kondensator wird schneller bis zu einer bestimmten Spannung aufgeladen: https://de.wikipedia.org/wiki/Kondensator_(Elektrotechnik)#Ladevorgang
 
  • Gefällt mir
Reaktionen: WhiteGoose
Das Taktsignal verursacht bei den elektronischen Bauteilen einen Schaltvorgang, welcher trotz beinahe Lichtgeschwindigkeit des Stroms eine gewisse Zeit beansprucht (im Bereich von einigen Nanosekunden). Wenn du den Takt erhöhst, kann es sein dass das neue Taktsignal beim Bauteil ankommt bevor der vorherige Schaltvorgang komplett durchgeführt wurde; das System wird instabil.

Durch erhöhen der Spannung wirkst du dem entgegen, weil eine höhere Spannung die Schaltzeiten der Bauteile verkürzt, dadurch werden die Komponenten jedoch höher beansprucht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: WhiteGoose und Zwirbelkatz
Auf den Signalleitungen sollten idealerweise Rechtecksignale zu sehen sein (Spannung an, Spannung aus). Da die Rechner an den technischen Grenzen betrieben werden, bleiben nur noch Buckel übrig, statt eines klaren Signals, durch die von den anderen beschriebenen Effekte. Je schneller geschaltet wird, um so mehr verschwindet der Buckel, verwischt das Signal.

Deshalb macht man kein overclocking, wenn ein fehlerfreier Betrieb sichergestellt werden soll.

Die höhere Spannung zieht das Signal wieder hoch, damit es besser lesbar wird.
 
Ich frage mich, warum bei keiner der Erklärungen der Begriff elektrischer Widerstand gefallen ist.

Stark vereinfacht könnte man schreiben, dass der Widerstand einer Schaltung von der genutzten Frequenz und der Temperatur der Schaltung abhängt. Es sind keine linearen Abhängigkeiten wie beim ohmschen Gesetz, aber grob kann man sagen aus einer höheren Frequenz wie auch aus einer höheren Temperatur resultiert ein höherer Widerstand.

Dieser geänderte Widerstand hat verschiedene Folgen. Zum einen steigt durch den linearen Anteil des Widerstandes die Verlustleistung, zum anderen werden die Signalimpulse durch den nichtlinearen Anteil des Widerstandes verzerrt. Da die Stromstärke nicht wirklich verringert werden kann, muss man die Spannung erhöhen um beiden Effekten gegen zu steuern.
 
Zurück
Oben