-SouL ReaveR-
Commodore
- Registriert
- Nov. 2006
- Beiträge
- 4.803
Hey,
Mich würde mal interessieren, wie man genau den Stromverbrauch einer Grafikkarte ausrechnet, bzw. welches Programm dies einem anzeigen kann.
Sind dann diese Werte überhaupt zutreffend oder sehen sie in der Realität ganz anders aus?
Ich habe vor kurzem auf einem Furmark und GPU-Z Screen folgendes gesehen:
Kann man einfach die Werte bei "VDDC" mal die von "VDDC Current" rechnen und erhält so den gegenwärtigen Verbrauch der Karte?
Handelt es sich dann nur um den Verbrauch des Grafikprozessors? Denn die Spannung gilt ja der GPU und der Speicher besitzt eine andere Spannung,
welche doch auch irgendwie Einfluss auf den Verbrauch der Karte haben sollte oder?
Mich würden einfach Möglichkeiten interessieren, wie man diesen Verbrauch ausrechnen könnte, ohne jetzt ein Gerät zwischen Computer und Steckdose zu hängen.
Mich würde mal interessieren, wie man genau den Stromverbrauch einer Grafikkarte ausrechnet, bzw. welches Programm dies einem anzeigen kann.
Sind dann diese Werte überhaupt zutreffend oder sehen sie in der Realität ganz anders aus?
Ich habe vor kurzem auf einem Furmark und GPU-Z Screen folgendes gesehen:
Kann man einfach die Werte bei "VDDC" mal die von "VDDC Current" rechnen und erhält so den gegenwärtigen Verbrauch der Karte?
Handelt es sich dann nur um den Verbrauch des Grafikprozessors? Denn die Spannung gilt ja der GPU und der Speicher besitzt eine andere Spannung,
welche doch auch irgendwie Einfluss auf den Verbrauch der Karte haben sollte oder?
Mich würden einfach Möglichkeiten interessieren, wie man diesen Verbrauch ausrechnen könnte, ohne jetzt ein Gerät zwischen Computer und Steckdose zu hängen.