DERHansWurst
Lieutenant
- Registriert
- Sep. 2014
- Beiträge
- 855
Mahlzeit zusammen,
ich hatte ein paar freie Min. und eine neue WLAN Steckdose, die den Stromverbrauch misst, und wollte mal schauen wie gut oder schlecht das funktioniert. Um das zu vergleichen, dachte ich mir, kann ich ja einfach etwas an der Spannung der Grafikkarte schrauben um die Werte aus dem MSI Afterburner/RivaTuner mit denen der Steckdosen App vergleichen.
(funzt erstaunlich gut, aber das ist nicht das Thema)
Lange Rede kein Sinn. Mir ist folgendes aufgefallen und ganz nachvollziehen kann ich es nicht.
Ich habe erstmal Overwatch gestartet im Trainingsbereich (mir fiel auf die Schnelle nix besseres ein). Grafikkarte ist zu 90% ausgelastet bei 144FPS(Vsync), Leistung 190-200W laut Overlay bei einer Spannung von 1,2V. Nun habe ich mich runtergetastet und bis 1,12V gehts, weiter nicht. Und dann verbraucht die Karte nur noch um die 150W. Ich war begeistert.
Jetzt dachte ich mir, das macht ja alles keinen Sinn: die Karte muss auf Volllast brennen.
Also habe ich mal den Witcher 3 gestartet mit Texturmod, alle Settings auf Anschlag, Vsync raus: Grafikkarte bei 99%, 130-190FPS (jenachdem), CPU bei 30%, Leistung der GPU bei 200W.
Und auch hier habe ich mich bis auf die 1,12V runtertasten können.
Aber: ohne eine Änderung bei der Leistung zu sehen.
Wieso? Spare ich nur Strom durch Undervolting, wenn die Karte NICHT unter Volllast läuft? Habe ich einfach ne Karte erwischt, die nicht so undervolting-freundlich ist?
Ich bin nicht so tief im Thema und kann es mir ad hoc nicht erklären, vielleicht ja einer von Euch.
Ich danke schon mal für Hilfe.
ich hatte ein paar freie Min. und eine neue WLAN Steckdose, die den Stromverbrauch misst, und wollte mal schauen wie gut oder schlecht das funktioniert. Um das zu vergleichen, dachte ich mir, kann ich ja einfach etwas an der Spannung der Grafikkarte schrauben um die Werte aus dem MSI Afterburner/RivaTuner mit denen der Steckdosen App vergleichen.
(funzt erstaunlich gut, aber das ist nicht das Thema)
Lange Rede kein Sinn. Mir ist folgendes aufgefallen und ganz nachvollziehen kann ich es nicht.
Ich habe erstmal Overwatch gestartet im Trainingsbereich (mir fiel auf die Schnelle nix besseres ein). Grafikkarte ist zu 90% ausgelastet bei 144FPS(Vsync), Leistung 190-200W laut Overlay bei einer Spannung von 1,2V. Nun habe ich mich runtergetastet und bis 1,12V gehts, weiter nicht. Und dann verbraucht die Karte nur noch um die 150W. Ich war begeistert.
Jetzt dachte ich mir, das macht ja alles keinen Sinn: die Karte muss auf Volllast brennen.
Also habe ich mal den Witcher 3 gestartet mit Texturmod, alle Settings auf Anschlag, Vsync raus: Grafikkarte bei 99%, 130-190FPS (jenachdem), CPU bei 30%, Leistung der GPU bei 200W.
Und auch hier habe ich mich bis auf die 1,12V runtertasten können.
Aber: ohne eine Änderung bei der Leistung zu sehen.
Wieso? Spare ich nur Strom durch Undervolting, wenn die Karte NICHT unter Volllast läuft? Habe ich einfach ne Karte erwischt, die nicht so undervolting-freundlich ist?
Ich bin nicht so tief im Thema und kann es mir ad hoc nicht erklären, vielleicht ja einer von Euch.
Ich danke schon mal für Hilfe.
Zuletzt bearbeitet:
(Rechtschreibung)