riDDi schrieb:
Auch ein 80%iger gt200 ist noch fast 80% größer als ein rv770.
Eine 4850 verbraucht Idle wesentlich weniger als eine 8800 GTX.
Warum vergleichst du im zweiten Satz nicht die Paare aus dem ersten Satz ? (
CB-Artikel als Bezugsgröße) Ist mir nur so aufgefallen.
Idle
HD4850 vs.
GTX 260 vs.
8800 GTX:
157 zu
154 zu
192 Watt
Last
HD4850 vs.
GTX 260 vs.
8800 GTX:
290 zu
320 zu
307 Watt
@FredKune
Die fehlenden Stromsparmechanismen der 8800GTX würde ich einfach mit der Situation im Herstellungsjahr begründen.
Die erste Erwähnung von Unterschieden in der Stromaufnahme bei Grafikkarten - aus Spiele-Perspektive, Artikel in Chip und c´t lasse ich aussen vor - war m.W. im PCGH-Heft 12/2004, S. 130ff., Artikel "100 Euro im Jahr sparen !", verglichen wurden dort u.a. Komponenten an Grafikkarten lediglich eine ATI 9800 Pro und eine nVidia FX 5900, Verbrauch beide 70 Watt, empf. Sparmaßnahme war "Runtertakten", Sparpotential 6-10 Watt, bei der ATI zusätzlich "Kein AF/AA", Sparpotential 3-7 Watt.
Heft 08/2005, S. 108ff., Artikel "Bis zu 250 Euro pro Jahr sparen" (sic !) umfaßte bereits
- (nVidia) alle Generationen von Geforce 2 MX-440 bis 2x 7800 GTX sowie
- (ATI) 8500 bis X850 XT-PE,
säuberlich getrennt nach AGP/PCIe. Von einer 8800GTX noch keine Rede. Diese beiden Artikel waren Ausgangspunkt meiner Recherchen in diesem Bereich, die Entscheidung fiel gegen die etwas effizientere X800 Pro für eine 6800 GT aus.
Wer sich noch erinnern kann, siehe die Kurven unten, das Verbrauchsniveau vor drei Jahren war dem heutigen vergleichbar, die Leistung hingegen ...