tatsächlicher Stromverbrauch neuer Grakas

Kenmeri

Ensign
Registriert
Feb. 2008
Beiträge
161
n abend Leute,

es gab doch mal vor kurzem einen Artikel, irgendwo, wo jemand den tatsächlichen Stromverbrauch aktueller Grafikkarten gemessen hat. Kann mir jemand bitte den Link schicken, ich find nix mehr dazu.

Danke.
 
Schau bei PCGH, HT4U oder Xbitlabs. Letztere messen zB aber hin und wieder crap bzw. etwas kurios anmutende Werte.
 
Also ich will ja nicht meckern, aber ich find die Werte teilweise schon irgendwie utopisch. 373Watt nur für eine HD4870X2?!? Ist das nicht ein bisschen arg viel? Also wenn man mal bedenkt, dass die Karte über die Anschlüsse ja nur maximal 300Watt bekommen kann (75W Mobo, 75W 6Pin und 150W 8Pin). Warum hat die dann denn eine TDP von unter 300W? Die TDP sind doch ein Richtwert für nen Kühler und für Netzteil und wenn die Karte dann mal 75W+ mehr braucht... Dann braucht ma ja auch gleich gar keine TDP angeben.
 
Zuletzt bearbeitet:
Papst_Benedikt schrieb:
Also ich will ja nicht meckern, aber ich find die Werte teilweise schon irgendwie utopisch. 373Watt nur für eine HD4870X2?!? Ist das nicht ein bisschen arg viel? Also wenn man mal bedenkt, dass die Karte über die Anschlüsse ja nur maximal 300Watt bekommen kann (75W Mobo, 75W 6Pin und 150W 8Pin)

da wunder ich mich auch
und wie soll man eigentlich eine 4890x2 betreiben ?....

ich meinte nicht wie viel pin , ich meinte nur dass die dann wohl so 400 bis 450 watt zieht ...
dann gibts so verrückte die sich davon 2 einbauen und dazu noch ne 4gh quad cpu da ist man bei 1000 watt realer verbrauch , um noch spielraum zu aben braucht man dann ja 1200 watt netzteil ?
 
Zuletzt bearbeitet:
Die Watt Angaben über die Stecker sind nur PCI-E Spezifikation. Die HD 4890x2 wird dann wohl mit 2x 8 Pin laufen. Wird aber noch gecheckt ob die Spezifikationen das zu lassen. Über die Stecker kann viel mehr Leistung fliessen. Die Werte bei ht4u sind nicht utopisch sondern die real Werte.

Die TDP Angabe ist die Wärmeabgabe für Kühler und nicht die Aufnahme der Karte.
 
Zuletzt bearbeitet:
Realwerte, schön und gut aber...
Wenn ich mir da teilweise den Stromverbrauch der Karten bei den tests da anguck, kommen mir die utopisch vor.
Kann irgendwie nicht stimmen.
 
Interessant ist auch, dass die 9800 GTX+ nur 128W schluckt, also mit einem PCIE 6pin eigentlich locker auskommen würde. Ausgestattet ist sie aber mit 2 PCIE 6pin.
 
@ Schaffe89

Die passen schon, c't und PCGH kommen aufs Gleiche und die Xbitlabs meist auch (die messen aber wohl anders, u.a. unter XP x86 statt Vista x64). Eine HD 4870 X2 vergeudet halt beispielsweise load sauviel, eine 8800 Ultra oder HD4870 dafür in 2D.
 
Hm trotzdem komisch, ich finds tweilweise doof dass die Furmark laufen haben und man meint dass die im normalen Betrieb, sprich Games uw.. soviel verbrauchen.
 
Melvin
es gibt auch 9800gtx+ mit einem 6 pin
 
Furmark halt.
Die HD4000er Karten haben verdammt viele Streamprozessoren, die in Spielen als 5D Shader in der Regel nicht alle ausgelastet werden.
Daher wird der Maximalverbrauch unter Realbedingungen nie erreicht, in Furmark schon. Deswegen kommt man da auch über die TDP hinaus.
 
@ Schaffe89

HT4U testen auch mit Bioshock, PCGH mit Race Driver GRID ;)
 
Daher wird der Maximalverbrauch unter Realbedingungen nie erreicht, in Furmark schon. Deswegen kommt man da auch über die TDP hinaus.

Aber nur weil ATI die TDP viel zu niedrig angibt, ATI testet ihre TDP auch unter 100% GPU Last. Sie können wenn sie nur wollten, sieht man an HD 4770 und 4830. Nur bei den High end Karten ist die TDP nach Marketing gewählt.

Warts mal ab mit Compute Shader werden die HD 5000 bestimmt ordentlich ausgelastet und dann wirds ihnen nicht gut bekommen wenn sie weiterhin die TDP so verfälschen. Außerdem kommt Bioshock recht nahe an Furmark ran.
 
TDP heißt ja meines Wissens nach nicht der Maximale Stromverbrauch, sondern die Maximale Wärmeentwicklung in Watt, die also das Kühlsystem schaffen muss.

Und die Referenzkühlung von ATI ist ebenso mieß, wie die von Nvidia. Eine GTX-280, die ich bald bekomme, dreht unter Last auf über 3000 Rpm auf, dass hört man im Stockwerk drunter noch. Sorry, aber das ist keine ausreichende Kühlung, auch wenn die Temperatur noch geradeso stimmt!
 
Noja, wenn sie der Meinung sind, dass man die Karte nicht auslasten kann, dann müssen sie auch keine TDP angeben, die es unter Vollauslastung zu kühlen gilt, sondern eine, die im normalen Betrieb maximal erreicht wird.
 
@ eXEC-XTX

Es ist ein Unterschied, ob eine Kühlung laut ist und dabei passable, wenngleich hohe Werte unter Volllast erzielt (GTX 280 @ Furmark) oder ob eine Kühlung laut ist und dabei Werte nahe der Spezifikationsgrenze unter Volllast erzielt (HD4870-SpaWas @ Furmark). Letzteres ist auf Dauer verdammt ungesund.

Im Falle der HD4870 ist die VRM-Kühlung am Limit (u.a. die Schuld der TDP-Angabe), bei der HD4890 hat man aus diesem Fehler gelernt und die Kühlung massiv verbessert.
 
Furmark ist einfach lächerlich unrealistisch. Klar - eine karte sollte eigentlich alle Aufgaben erfüllen, wäre ja so wie wenn Intel plötzlich sagt, dass ihre CPUs nicht mehr mit Prime95 genutzt werden dürfen. Aber die Werte sind einfach schwachsinnig, in keinem Game der Welt kommt eine HD4870 an ähnliche Verbrauchswerte, wie in Furmark. Ich würde sowas nicht überbewerten.

Meine GTX-280 bekomme ich voraussichtlich am Mittwoch und ich kann nur hoffen, dass ich sie stabil mit maximal 1,12v, eher noch 1,06v bei "guten" Taktraten zum laufen bekomme (XFX-OC-Version mit 640M).
Laut euren Tests von PCGH, wo unter anderem 2 Passivkühler getestet wurden, sind die Beschleuniger auf fast 90° gekommen - Bei 100%
Für mich steht eigentlich fest, dass mit dem GT200 und RV770 das Ende der Fahnenstange von normaler Kühlung erreicht ist.
 
Zuletzt bearbeitet:
Die HD4870 verbraucht deshalb so viel, weil die mit Furmark testen und bekanntermaßen ist die hd48xx Serie unter diesem Programm nicht sehr sparsam, wofür auch? Schließlich wirst du diesen Verbrauch beim Spielen eh niemals erreichen.;)#

@y33H und eXEC-XTX beide haben recht. Und bei der hd4890 wurde nicht nur die Kühlung verbessert?? sondern auch eine weitere Phase hinzugefügt, was bitter nötig war.
 
Zuletzt bearbeitet:
Zurück
Oben