Der Mehrverbauch beträgt ca. 30 Watt bei 100% Vollast.
Dass der Mehrverbrauch gegenüber einer 8800er GTX völlig unerheblich ist, will ich beweisen.
Mal angenommen, man spielt jeden Tag ca. 3 Stunden und das ein ganzes Jahr lang.
Das wären 3 Stunden x 365 Tage = 1095 Stunden im Jahr in denen die 2900Xt bei Vollast läuft.
30Watt Mehrleistung 1095 Stunden lang.
Das wären also 30 x 1095 = 32850 Wh (Wattstunden), die die ATI-Karte mehr an Strom pro Jahr verbraucht.
Hört sich ja viel an 32850Wh.
Nun zu den Mehrkosten:
1 Kilowattstunde (kwh) kostet ca. 15 Cent.
Wie die Meisten bestimmt wissen ist 1kWh = 1000wh.
Das heisst man benötigt ca. 33 kwh mehr pro Jahr das wären 33x0,15 Cent = 4,95 Euro.
Für ca. 5,- Euro braucht die 2900er XT mehr Strom pro Jahr als die Nvidia 8800GTX. Wie viel!!
Dass heisst, das wenn die mittlere Lebensdauer einer Grafikkarte 2 Jahre beträgt, man Mehrkosten von ca. 10 Euro durch den etwas höheren Stromverbrauch hat, vorausgesetzt man spielt jeden Tag 3 Stunden.
Wenn die 2900XT vergleichbare Leistung unter 3D10D bringt, spart man also bei der 2900er XT richtig Geld, denn die 8800GTX ist ja 150,- Euro teurer. Man müsste also ca. 30,- Jahre mit der 8800er GTX spielen, dass man den höheren Anschaffungspreis durch den etwas besseren Strombedarf wieder wettmacht.
PS: Na dann viel Spass 30 Jahre mit der 8800er GTX
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
.
.