In diesem Moment müsste man mir zusätzlich Geld Zahlen das ich so eine Dauerheizung ohne Ausstellknopf nutze !
Effizienz ist in der Tat ein Nachteil an der Strategie, wird aber komplett aufgewogen durch den Fakt das ich heute bereits Settings fahren kann die die Mittelklasse Fraktion erst in 1-2 Jahren so zu Gesicht bekommt. Und bei mir lohnt es sich grad mal wieder richtig zuzuschlagen um ordentlich aufdrehen zu können. 2 weitere Jahre werde ich Empire definitiv nicht links liegen lassen nur weil die FPS nicht stimmen.
Schnittstellenverbesserungen sind wohl in der Tat nicht zu erwarten, die nächsten Konsolen werden wohl auf DX11 setzen.
2014 zu Maxwell Zeiten und der nächsten Architektur erwarte ich schon DX 12, dazwischen bereits PCIe 3.0. Um sowas muss ich mir auch keine Gedanken machen, ich hab PCIe 2.0 mit meiner GTX 580 und da ich nicht aufrüsten muss ist zwar ein PCIe 3.0 Sockel geplant bei nächsten CPU Upgrade, aber unbedingt notwendig ist der nicht. Wieder ein Vorteil mehr. Ich bin einfach komplett risikofrei was die Entwicklung der nächsten Grafikkarten betrifft. Das allein ist mir viel wert.
Zu Absatz b) Shrinks sind eine verlässliche Performance Steigerung,
Sicher? HD 2900->3870
GF8 -> GF9
GTX 280 -> 285
Mit viel Glück gibts ordentlich Performance, ist aber eher die Ausnahme. Ohne Änderungen der Architektur kann das eben nur über den Takt/Kerne erfolgen. Und den kann man mit den alten Modellen auch einfach nur OC fast erreichen.
Wenn man den Kühler mal mit 50€ Wert berechnet
Knapp kalkuliert. 50€ kostet der mindestens wenn man den einzeln kaufen würde.
Und was ist daran zu ineffizient?
Das SI vergrößert immer auch den Chip mit, also mehr DIE Fläche, was wiederum zu höheren Produktionskosten und noch schlimmer mehr Leckstörmen führt. Fermi besonders schlimm, mit der Temp kann man ja da wahnwitzige Einsparungen in Sachen Stromverbrauch erreichen. Das Problem hätte man nicht so extrem mit 256bit -> 460/560
Und zu guter letzt braucht man bei einem 512SI auch noch mehr Layer im PCB, schon wieder höhere Produktionskosten eventuell mehr Stromverbrauch.
Also mit ineffizient meine ich die Performance per Watt. Ein großes SI kann man nur sehr schwer effizient umsetzten.
Nachteile beim GDDR Ram sind der Speed und die Datendichte. Die fahren quasi seit GDDR5 am Limit was die Hersteller raushauen können. Quasi das beste ist gerade gut genug bzw. schnell genug um ein 256SI auszugleichen. Klappt aber ganz gut bis jetzt. Bis auf HD 4000 die dadurch keinen Idle Mode hatte.
Also 22 Watt an Mehrverbrauch bei der 2GB-Version der GTX460 schauen für mich verdächtig zweistellig aus.
Kein Ram braucht so viel Spannung das da gleich 22Watt draus werden. Da wurde von Gainward irgend was anderes "gepimped"(VRMs, GPU). Am Vram liegt das sicher nicht. Die neuen 4GB DDR3 Riegel verbrauchen ja auch keinen Watt mehr, im Gegenteil man kann immer weniger Volt fahren und Ram wird immer sparsamer über Zeit. Vor allem Datendichte braucht nicht mehr Volt, Takt schon. Die Bedenken das mit 12GB Vram Grafikkarten dann der Verbrauch explodiert sind also unbegründet. GDDR6 müsste weniger brauchen, oder auch mehr, da können wir dann wieder anfangen zu diskutieren.