EngeldesHasses schrieb:
Strom wären wohl ~30-40€ mehr gewesen ... dachte es ist mehr (habs grade mal durchgerechnet)
Ist soweit richtig, daß AMD durchweg eine höhere, maximale Leistungsaufnahme hat, nur Frage ich mich wie Du gerechnet hast?
Maixmal Watt nach Anschlüssen?
TDP in Watt?
Maximale Leistungsaufnahme beim Stresstest (dürfte TDP mäßig sein)in Watt?
Maximal Leistungsaufnahme bei fordernden Benchmarkszenen (in Watt)?
Durchschnittliche Leistungsaufnahme bei fordernden Benchmarkszenen (in Watt)?
Oder hast Du so ein Schätzeisen von Steckdosenzähler für
Wattstunden verwendet, der doch tatsächlich den realen Verbrauch des PCs beim normalen Spielen mißt?
Ich habe den Verdacht, daß Du eigentlich nicht weißt, was genau Du da zusammengerechnet hast, bzw glaubst Du das nur..
Wenn man überhaupt nur Ansatzweise sowas berechnen will, braucht man mindestens die
Average-Werte, und diese von mehreren Spielen.
Dann hat eine Graka mit 250W max Leistungsaufnahme vielleicht noch 150W Average! Und diese 150W, die zwar nur in fordernden Szenen ermittelt wurde, über eine Stunde genutzt, ergeben dann 150 Wattstunden pro Benchmarkstunde. Eine halbe Benchmarkstunde 75 Wattstunden, 2 Benchmarkstunden 300 Wattstunden.
Dann kommt eine Konkurrenzkarte mit 300W max Leistungsaufnahme die beim Benchmark Average 180W zieht, dann verbrauch diese 180 Wattstunden pro Benchmarkstunde.
Dann kast Du mit den 30W Mehr average rechnen, pro Benchmarkstunde verbraucht die Konkurrenzkarte 0,03kWh mehr. Deine 1200 Stunden mit Ark hätten denmach 36kWh mehr verbraucht, bei
25Cent/kWh 9€, mit der max Leistungsaufnahme berechnet wärens
22,50€. Und weil Benchen mit fordernden Sequenzen mehr verbraucht als eine normale Spielsitutation ist es real noch etwas weniger!
Das ist jedoch nur eine fiktive Rechnung ohne Bezug auf irgendwelche Hersteller usw. und dient nur der Veranschaulichung!
Auf CB gibts nur max-Werte des gesamten Systems und dann nur von meist einem Spiel.
Das kann man niemals als Basis für den realen Verbrauch einer Graka hernehmen, aber der Grossteil der Leute hier tun das.
Und das finde ich sehr peinlich für ein Technik-Forum.
Eine Grafikkarte ist keine Glühbirne, wenn da 100W draufsteht, verbraucht die Glühbirne auch 150 Wattstunden pro Betriebsstunde! die Grafikkarte jedoch nicht]
Fazit: Es ist quasi unmöglich den realen Verbrauch einer Grafikkarte zu berechnen, es sei denn man erstellt aus einer großen Anzahl Spiele, Benchmarksequenzen in voller Levellänge und mißt die Average Leistungssaufnahme direkt an der Graka.
Die Gesamtdauer dieser Benchmarks, multipliziert mit der Average Leistungsaufnahme, heruntergerechnet auf eine Stunde, ergibt den durchschnittlichen Verbrauch der Grakas einer Spielstunde. Sowas hat bisher kein Tester - logischerweise wegen des Zeitaufwand - gemacht!
PS: Das ist eine Lesitungsmessung der 290X, man beachte die Schankungen, die über einen Zeitraum von
1 Sekunde(!) auftreten. Der eine Peak erreicht 433Watt. Average sinds nur 253 Watt. Beim Benchen.. beim zocken nochmals weniger.