Microsoft schrieb:Also für mich bedeutet Fortschritt: Mehr Leistung durch geringere Leistungsaufnahme und wenn ich mir einige Partnerkarten anschaue die 3x8Pin (450watt) + PCI_E (75Watt) = 525Watt theoretisch nur für die GPU, dann ist das schon übelst grenzwertig was die dort entwickeld haben.
...
Die Karte ist im Stockzustand sowohl effizienter als die Vorgänger als auch das aktuell schnellste AMD Modell (ausgedrückt in fps/W). Besser sieht man das noch in dem Test, wo sie wie die 2080 Ti auf 270W gesetzt wird. Da sind es 25 % mehr Leistung bei gleicher Leistungsaufnahme.
Wer mit Vsync, Adaptive Sync oder Gsync spielt, hat es unter Umständen noch besser. Um den gleichen Output abzuliefern, benötigt sie fast halb so viel Energie. Da sieht man doch, dass der Vorgänger schon schwitzen muss. Ich denke, dass von solch einem Szenario Nvidia auf die 1,9x Effizienz in ihrer Präsentation kommt. Frag mal hier rum, wer alles mit FPS-Limit spielt. Wenn man die Karte an ihre Grenzen bringt, sinkt natürlich die Effizienz. Aber die ist immer noch höher als bei den Vorgängern.
Link zu PC-WELT
Bezüglich des "absichtlichen" Weglassens von Gesamtverbrauchsangaben kannst du hier mal schauen. Die geben u. a. den Gesamtverbrauch an: Techspot und Tweaktown
Vielleicht juckt das einfach kaum jemanden. Wer sich wie du wirklich dafür interessiert, wird den eigenen Verbrauch des Systems und der eigenen Karte kennen und muss nur noch die Differenz aufaddieren. Fertig.