Das Problem ist ja nicht die Zahl an sich, nur das was da reininterpretiert wird.
Verbrauch ist die Leistung (in W) über einen gewissen Zeitraum. Und eine Verbrauchsmessung hat noch kein Tester der Techseiten durchgeführt.
Der echte "Verbrauch" (eigentlich gehts mir über die Verwendung dieses Begriffes) eine Graka ist schwer bist garnicht zu ermitteln.
Ein PC läuft 12h am Tag, die Grak idled vor sich in und zieht kaum Leistung, also verbraucht sie wenig, bei zocken zieht sie mehr, also verbraucht sie mehr.
Ein Torture Test, wo die Graka zu 100% über den Benchzeitraum 100% ausgelastet ist, und selbst Average einen Wert in Grössenordnung der TDP ausgibt, kann man sagen: (Bsp.Nano) 175W TDP, 185W avg(!) beim Torture. Da kann man sagen: läst man 1 Stunde Furemark laufen, verbraucht die Graka 0.185kWh. Das ist beim zocken so gut wie nie der Fall, weswegen der tatsächliche Verbauch deutlich darunter liegt.
Selbst eine fordernde Benchmarkszene ist jedoch keine Grundlage um den realen Verbrauch zu berechnen.
Das geht nur, wenn man einen Stromzähler dranhängt, und einfach aufschreibt, wieviel kWh der komplette PC benötig wenn man 1 Stunde zockt.
Und da wird so manch einer erstaunt sein, das der gemessene Wert deutlich unterhalb der ganzen maxPeak/TDP Geschichte liegt.
Ich habe schon oft darum gebeten, wenigstzen einen Real-Verbrauchs Test durchzuführen. 3 Spiele, für jedes ein vollständiger mittlerer Level als Benchmarksequenz. 2Graka der selben Leistungsklasse unterschiedlicher Hersteller. Ein Stromzähler der mißt, wieviel elektrische Arbeit während der Sequenz verbraucht wird. Die Differenz beider Systeme wird weit unter den Werten liegen, die hier immer als "Verbauch" dargestellt wird, und Fanboys sich daran aufgeilen oder hochziehen.
Es ist einfach das Basisverständnis, welches schon in der 8. Klasse Mittelstufe Physik gelehrt wird. Leistung und Arbeit, wobei Leistung über Zeit = Arbeit ist. Das eine Graka so dynamisch in der Leistungsaufnahme schwankt, macht die Sache sehr kompliziert.
Aber es sich einfach zu machen, entspricht eben nicht der Realität.
Ps: Würde man den Benchmark von Polaris unter Battlefront hernehmen und den eine stunde lang laufen läßt, könnte man grob sagen, das die Graka 0.05kWh (50W Last) verbraucht hat. Das gilt aber nur für Battlefront und diese eine Szene pro Stunde. Ich wette, das die genutze Polariskarte für Battlefront während einer Spielstunde nur 0.035kWh verbraucht, weil nicht alle Szenen eine Graka zu 100% auslasten.
PS2: Wenn hier im Forum diverse Leute kreischen,: "Die verbraucht 300W", geht ein unbedarfter Leser hin und rechnet " 300W mal 1000 Betriebsstundenpro Jahr, also macht das 300.000Wh oder 300kWh aus. Bei 25Cent/kWh macht das 75€ stromkosten aus." Und das ist sowas von falsch!
PS3:Wo ich eben die Nano erwähnte, ist die ein Hinweis auf das deutlich verbesserte Power-Managment von AMD. Gleicher Prozess wie 970/980 und ebenso effizient. Und wenn man diese Verbesserung zusammen mit der neuen Architektur hernimmt, wird deutlich das AMD seine Hausafgaben genacht hat, und das werden die bei Polaris und Vega nicht wegwerfen.
Es ist fast schon in trockenen Tüchern, daß ich dieses Jahr meine erste AMD Graka in meinem Rechner verbaue.
Sorry für die edits, ist in so einem Monsterthread eigentlich schei$$e..