Maximaler Verbrauch, wann?

Orpheus1973

Ensign
Registriert
Nov. 2010
Beiträge
173
Hi Leute

Zur Zeit bin ich wieder dabei einen neuen PC zu basteln wobei ich diesmal mehr auf den Stromverbrauch achte. Die Zusammenstellung ist soweit fertig und ich habe mich eigentlich schon für eine Graka entschieden -> HD 5850 Extreme

Der Maximale Verbrauch ist hier mit 170W angegeben, ich Frage mich nun die ganze Zeit wann ich diesen Wert erreiche? Allein beim spielen oder nur wenn ich Sachen wie Furmark bzw Benchmarks durchlaufen lasse?
Lässt sich der durchschnittliche Verbrauch irgendwie ermitteln?

Der Maximale Verbrauch hat die HD 6950 mit 200W für mich an den Rand geschoben.

Tut mir Leid falls die Frage hier öfter kommt, bin zur Zeit noch etwas unschlüssig und habe was das angeht nicht wirklich viel Ahnung.

Bis dahin und schonmal Danke :)
 
Zuletzt bearbeitet:
Ja den max. Verbrauch einer Grafikkarte wirst Du nur mit Tools/Programmen wie Furmark etc. erreichen.

Mit einem normalem Spiel ist das nicht zu schaffen. Jedenfalls mit keinem welches es zur Zeit gibt.
In den meisten Fällen liegt man mit einem Spiel ca. 20-30 Watt unter dem max. Verbrauch der Hersteller-Angabe einer HighEnd-Grafikkarte.
 
Benchmarks ala Furmark. Die vollen 200W wirst du wohl nie erreichen aber so ziemlich knapp darunter mit so einem benchmark schon. Genauso bei der CPU, wenn du ein Becnh laufen lässt der für die CPU ausgelegt ist und die alle Kerne auf 100% bringt hast du auch hier volle last.
 
Diese werte erreichst du beim Spielen normalerweise nicht.
Die erreichst du tatsächlich nur unter Volllast, also Furmark und ähnliches.
 
https://www.computerbase.de/2010-02/kurztest-2x-ati-radeon-hd-5850/5/#abschnitt_sonstige_messungen
Hier wird beschrieben, dass der ganze PC im idle ca 174 Watt nimmt unter last werden es dann ca. 308 Watt

man muss dabei immer bedenken, der ganze Pc !

Damit ist gemeint, unter Last: sprich wenn alle koponenten des Pc richtig gefordert werden. Sowie du z.b. schon gesagt hast, bei benchmarks
Der verbrauch lässt sich nur als gesamt system ermitteln, indem du so ein steckdosen-verbrauchs zähler benutzt
 
Sagt für doch schon das Wort "Maximal". 170W ist der Stromverbrauch bei 100% Last (wie bei Benchmarks). Wieviel Last ein Spiel produziert, kann man nicht genau sagen, ich kann nur aus Erfahrung mit einer alten 8800GT sprechen. Dort war der Unterschied zwischen Mafia 2 und FIFA 11 locker mal 40W (bezogen aufs ganze System).
 
Der maximale Verbrauch wird dann erreicht, wenn

1. Die GPU maximal ausgelastet ist (100% GPU-Last in GPU-Z-Anzeige ist hier leider nicht ausschlaggend) und
2. Die Temperatur maximal ist

Der zweite Punkt wird gerne vergessen, aber je wärmer der Chip, desto größer die Leckströme.
Das kann man schön messen, wenn man sich die Verbrauchswerte im Verlauf eines Furmark-Durchlaufs anschaut.
Am Ende verbraucht meine Karte (HD5870) gut und gerne 10-20W mehr als am Anfang. Alleine durch diese Verlustströme!

(Was 100% GPU-Last bedeuten, ist dann wieder eine andere Frage. Ich stelle es mir so vor, dass jeder Stream-Prozessor "was zu tun" hat, habe aber keine wirkliche Ahnung davon)

EDIT:
Hier noch ein paar Beispiele zum "wann"
- BOINC per GPU, z.B. MilkyWay ist auf Furmark-Niveau (Anzeige: etwa 97%)
- Spielen ohne vsync: wenn die CPU schnell genug ist, versucht die Graka möglichst viele Bilder zu produzieren. Allerdings endet das trotz 100% GPU-Last meist nicht in Furmark-Niveau.

--> Die GPU-Auslastungsanzeige lässt leider keine direkten Rückschlüsse über die tatsächliche "Belastung" (die dann im Stromverbrauch messbar ist) zu.

Es ist ähnlich wie bei prime95 und anderen Programmen mit der CPU: Die CPU ist bei vielen Progs zwar zu 100% "belastet", aber nur bei prime95 (und Co.) sind das auch 100% Arbeitszyklen, statt teilweise Schnarchzyklen.
 
Zuletzt bearbeitet:
Die 170 Watt sind mehr oder weniger nur die TDP der Karte, nur dass sich irgendwie keine traut diese so zu nennen. Eine 6950 ist z.B. auch etwas sparsamer als eine 5870, obwohl sie laut TDP mit 200 gegen 188 Watt eigentlich darüber liegen würde.
Das interessante ist ja auch dass AMD neuerdings Angaben zum typischen und zum maximalen Verbrauch macht, das war vorher nicht so. Laut NV ist die GTX 580 mit 244Watt ja sogar sparsamer als eine 6970. Allerdings sehen die Messergebnisse irgendwie anders aus ;)
 
Hm, ich hatte mit meinem zu schwachen Netzteil (obwohl mit 550W angegeben) und der neuen GraKa (eine GTX 285) damals kein Problem mit Furmark, 3Dmark etc, aber jedesmal einen Crash bei Crysis Warhead and einer bestimmten Stelle (grosser Explosionskrater am Anfang), den erst ein neues Netzteil geloest hat ..... von daher duerften gewisse Games durchaus sehr Nahe ans Maximum kommen, und das mehr, als Furmark etc.
 
@voon
Hier ist vom maximalen Stromverbrauch der Grafikkarte die Rede und nicht vom maximalen Verbrauch des Gesamtsystems. 3DQuark und besonders Furmark lasten kaum die CPU und die GPU zusammen voll aus.

Abgesehen davon hast Du Recht, wenn Du sagst, dass man die Grenzen eines Rechners nicht alleine mit synthetischen Benchmarks ausloten kann.
 

Ähnliche Themen

Antworten
17
Aufrufe
1.182
Zurück
Oben