Hallo zusammen,
ich habe eine eher theoretische Frage, die vielleicht ein Elektroniker beantworten kann. Und zwar frage ich mich, ob eine geringere Frequenz der elektrischen Energieversorgung (also dem Stromnetz) auch eine geringere Frequenz der elektronischen Bauteile eines Computers bedingt. Also konkret, wenn beispielsweise die Netzfrequenz von 50,000 Hz auf 49,900 Hz fällt, was einem prozentualen Unterschied von -0,2% entspricht, taktet dann auch meine CPU, welche gerade bei 5,00 GHz takten sollte, auch nur bei 4,99 GHz? Natürlich lässt sich das über eine Software des laufenden Systems nicht ermitteln, da diese genauso von der geringeren Frequenz betroffen wäre und somit keine Frequenzabweichung ermitteln kann. Auch Benchmarks, welche bspw. FPS ermitteln, sollten davon unberührt sein. Hingegen würde es einen Unterschied bei Benchmarks machen, die Zeit als sehr hochauflösendes Kriterium hinzuziehen würden und diese extern messen. Da die Frequenzabweichung auch nach oben geht und langfristig genullt wird, sollte es auch keine langfristige Performance-Auswirkungen haben. Dies ist also eine eher wissenschaftliche Frage, als für die Praxis relevant.
Ich bin auf euren Input gespannt
Was meint ihr?
ich habe eine eher theoretische Frage, die vielleicht ein Elektroniker beantworten kann. Und zwar frage ich mich, ob eine geringere Frequenz der elektrischen Energieversorgung (also dem Stromnetz) auch eine geringere Frequenz der elektronischen Bauteile eines Computers bedingt. Also konkret, wenn beispielsweise die Netzfrequenz von 50,000 Hz auf 49,900 Hz fällt, was einem prozentualen Unterschied von -0,2% entspricht, taktet dann auch meine CPU, welche gerade bei 5,00 GHz takten sollte, auch nur bei 4,99 GHz? Natürlich lässt sich das über eine Software des laufenden Systems nicht ermitteln, da diese genauso von der geringeren Frequenz betroffen wäre und somit keine Frequenzabweichung ermitteln kann. Auch Benchmarks, welche bspw. FPS ermitteln, sollten davon unberührt sein. Hingegen würde es einen Unterschied bei Benchmarks machen, die Zeit als sehr hochauflösendes Kriterium hinzuziehen würden und diese extern messen. Da die Frequenzabweichung auch nach oben geht und langfristig genullt wird, sollte es auch keine langfristige Performance-Auswirkungen haben. Dies ist also eine eher wissenschaftliche Frage, als für die Praxis relevant.
Ich bin auf euren Input gespannt

Zuletzt bearbeitet:
(typo)