Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
tatsächlicher Stromverbrauch neuer Grakas
- Ersteller Kenmeri
- Erstellt am
Zuletzt bearbeitet:
Papst_Benedikt
Captain
- Registriert
- Apr. 2007
- Beiträge
- 3.592
Also ich will ja nicht meckern, aber ich find die Werte teilweise schon irgendwie utopisch. 373Watt nur für eine HD4870X2?!? Ist das nicht ein bisschen arg viel? Also wenn man mal bedenkt, dass die Karte über die Anschlüsse ja nur maximal 300Watt bekommen kann (75W Mobo, 75W 6Pin und 150W 8Pin). Warum hat die dann denn eine TDP von unter 300W? Die TDP sind doch ein Richtwert für nen Kühler und für Netzteil und wenn die Karte dann mal 75W+ mehr braucht... Dann braucht ma ja auch gleich gar keine TDP angeben.
Zuletzt bearbeitet:
ich71092
Commander
- Registriert
- Dez. 2008
- Beiträge
- 2.127
Papst_Benedikt schrieb:Also ich will ja nicht meckern, aber ich find die Werte teilweise schon irgendwie utopisch. 373Watt nur für eine HD4870X2?!? Ist das nicht ein bisschen arg viel? Also wenn man mal bedenkt, dass die Karte über die Anschlüsse ja nur maximal 300Watt bekommen kann (75W Mobo, 75W 6Pin und 150W 8Pin)
da wunder ich mich auch
und wie soll man eigentlich eine 4890x2 betreiben ?....
ich meinte nicht wie viel pin , ich meinte nur dass die dann wohl so 400 bis 450 watt zieht ...
dann gibts so verrückte die sich davon 2 einbauen und dazu noch ne 4gh quad cpu da ist man bei 1000 watt realer verbrauch , um noch spielraum zu aben braucht man dann ja 1200 watt netzteil ?
Zuletzt bearbeitet:
KingPiranhas
Captain
- Registriert
- Jan. 2009
- Beiträge
- 3.500
Die Watt Angaben über die Stecker sind nur PCI-E Spezifikation. Die HD 4890x2 wird dann wohl mit 2x 8 Pin laufen. Wird aber noch gecheckt ob die Spezifikationen das zu lassen. Über die Stecker kann viel mehr Leistung fliessen. Die Werte bei ht4u sind nicht utopisch sondern die real Werte.
Die TDP Angabe ist die Wärmeabgabe für Kühler und nicht die Aufnahme der Karte.
Die TDP Angabe ist die Wärmeabgabe für Kühler und nicht die Aufnahme der Karte.
Zuletzt bearbeitet:
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.669
Korrekt. Die TDP ist Verarsche.Dann braucht ma ja auch gleich gar keine TDP angeben.
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.669
@ Schaffe89
Die passen schon, c't und PCGH kommen aufs Gleiche und die Xbitlabs meist auch (die messen aber wohl anders, u.a. unter XP x86 statt Vista x64). Eine HD 4870 X2 vergeudet halt beispielsweise load sauviel, eine 8800 Ultra oder HD4870 dafür in 2D.
Die passen schon, c't und PCGH kommen aufs Gleiche und die Xbitlabs meist auch (die messen aber wohl anders, u.a. unter XP x86 statt Vista x64). Eine HD 4870 X2 vergeudet halt beispielsweise load sauviel, eine 8800 Ultra oder HD4870 dafür in 2D.
Furmark halt.
Die HD4000er Karten haben verdammt viele Streamprozessoren, die in Spielen als 5D Shader in der Regel nicht alle ausgelastet werden.
Daher wird der Maximalverbrauch unter Realbedingungen nie erreicht, in Furmark schon. Deswegen kommt man da auch über die TDP hinaus.
Die HD4000er Karten haben verdammt viele Streamprozessoren, die in Spielen als 5D Shader in der Regel nicht alle ausgelastet werden.
Daher wird der Maximalverbrauch unter Realbedingungen nie erreicht, in Furmark schon. Deswegen kommt man da auch über die TDP hinaus.
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Daher wird der Maximalverbrauch unter Realbedingungen nie erreicht, in Furmark schon. Deswegen kommt man da auch über die TDP hinaus.
Aber nur weil ATI die TDP viel zu niedrig angibt, ATI testet ihre TDP auch unter 100% GPU Last. Sie können wenn sie nur wollten, sieht man an HD 4770 und 4830. Nur bei den High end Karten ist die TDP nach Marketing gewählt.
Warts mal ab mit Compute Shader werden die HD 5000 bestimmt ordentlich ausgelastet und dann wirds ihnen nicht gut bekommen wenn sie weiterhin die TDP so verfälschen. Außerdem kommt Bioshock recht nahe an Furmark ran.
S
Stuntmp02
Gast
TDP heißt ja meines Wissens nach nicht der Maximale Stromverbrauch, sondern die Maximale Wärmeentwicklung in Watt, die also das Kühlsystem schaffen muss.
Und die Referenzkühlung von ATI ist ebenso mieß, wie die von Nvidia. Eine GTX-280, die ich bald bekomme, dreht unter Last auf über 3000 Rpm auf, dass hört man im Stockwerk drunter noch. Sorry, aber das ist keine ausreichende Kühlung, auch wenn die Temperatur noch geradeso stimmt!
Und die Referenzkühlung von ATI ist ebenso mieß, wie die von Nvidia. Eine GTX-280, die ich bald bekomme, dreht unter Last auf über 3000 Rpm auf, dass hört man im Stockwerk drunter noch. Sorry, aber das ist keine ausreichende Kühlung, auch wenn die Temperatur noch geradeso stimmt!
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.669
@ eXEC-XTX
Es ist ein Unterschied, ob eine Kühlung laut ist und dabei passable, wenngleich hohe Werte unter Volllast erzielt (GTX 280 @ Furmark) oder ob eine Kühlung laut ist und dabei Werte nahe der Spezifikationsgrenze unter Volllast erzielt (HD4870-SpaWas @ Furmark). Letzteres ist auf Dauer verdammt ungesund.
Im Falle der HD4870 ist die VRM-Kühlung am Limit (u.a. die Schuld der TDP-Angabe), bei der HD4890 hat man aus diesem Fehler gelernt und die Kühlung massiv verbessert.
Es ist ein Unterschied, ob eine Kühlung laut ist und dabei passable, wenngleich hohe Werte unter Volllast erzielt (GTX 280 @ Furmark) oder ob eine Kühlung laut ist und dabei Werte nahe der Spezifikationsgrenze unter Volllast erzielt (HD4870-SpaWas @ Furmark). Letzteres ist auf Dauer verdammt ungesund.
Im Falle der HD4870 ist die VRM-Kühlung am Limit (u.a. die Schuld der TDP-Angabe), bei der HD4890 hat man aus diesem Fehler gelernt und die Kühlung massiv verbessert.
S
Stuntmp02
Gast
Furmark ist einfach lächerlich unrealistisch. Klar - eine karte sollte eigentlich alle Aufgaben erfüllen, wäre ja so wie wenn Intel plötzlich sagt, dass ihre CPUs nicht mehr mit Prime95 genutzt werden dürfen. Aber die Werte sind einfach schwachsinnig, in keinem Game der Welt kommt eine HD4870 an ähnliche Verbrauchswerte, wie in Furmark. Ich würde sowas nicht überbewerten.
Meine GTX-280 bekomme ich voraussichtlich am Mittwoch und ich kann nur hoffen, dass ich sie stabil mit maximal 1,12v, eher noch 1,06v bei "guten" Taktraten zum laufen bekomme (XFX-OC-Version mit 640M).
Laut euren Tests von PCGH, wo unter anderem 2 Passivkühler getestet wurden, sind die Beschleuniger auf fast 90° gekommen - Bei 100%
Für mich steht eigentlich fest, dass mit dem GT200 und RV770 das Ende der Fahnenstange von normaler Kühlung erreicht ist.
Meine GTX-280 bekomme ich voraussichtlich am Mittwoch und ich kann nur hoffen, dass ich sie stabil mit maximal 1,12v, eher noch 1,06v bei "guten" Taktraten zum laufen bekomme (XFX-OC-Version mit 640M).
Laut euren Tests von PCGH, wo unter anderem 2 Passivkühler getestet wurden, sind die Beschleuniger auf fast 90° gekommen - Bei 100%
Für mich steht eigentlich fest, dass mit dem GT200 und RV770 das Ende der Fahnenstange von normaler Kühlung erreicht ist.
Zuletzt bearbeitet:
And.!
Lt. Commander
- Registriert
- Apr. 2009
- Beiträge
- 1.862
Die HD4870 verbraucht deshalb so viel, weil die mit Furmark testen und bekanntermaßen ist die hd48xx Serie unter diesem Programm nicht sehr sparsam, wofür auch? Schließlich wirst du diesen Verbrauch beim Spielen eh niemals erreichen.#
@y33H und eXEC-XTX beide haben recht. Und bei der hd4890 wurde nicht nur die Kühlung verbessert?? sondern auch eine weitere Phase hinzugefügt, was bitter nötig war.
@y33H und eXEC-XTX beide haben recht. Und bei der hd4890 wurde nicht nur die Kühlung verbessert?? sondern auch eine weitere Phase hinzugefügt, was bitter nötig war.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 13
- Aufrufe
- 1.338
- Antworten
- 18
- Aufrufe
- 1.957
- Antworten
- 126
- Aufrufe
- 28.978
- Antworten
- 1.289
- Aufrufe
- 177.827
- Antworten
- 18
- Aufrufe
- 16.437