Hier noch mal ein Hinweis an alle, die sich nicht vorstellen können, das EIN Pci-Express 6-Pin Stecker mehr als 75W kann:
Mach mal eure Kiste auf und guckt euch mal die Kabel an die vom Netzteil kommen. Meistens ist das so, dass an einem Strang 2 Pci-Express Stecker hängen, von denen einer auch als 8er geht.
Ratter...Ratter.... Das heißt: Über das GLEICHE Kabel vom Neitzteil bis zur Verzweigung der Stecker können 1 * 75W oder 2 * 75W oder sogar 75W + was der 8er Stecker spezifiziert. Und das ganze plus Toleranzen.
Selbst wenn ich zwei GPUs im Crossfire an einem Kabel betreibe und beide über einen 6er Stecker 100W ziehen bin ich weit unter der Belastungsgrenze des Kabels.
Im Übrigen muss euer Strom für das OC ja auch irgendwo her kommen... Und wenn nicht vom PCIExpress kommt, dann geht da mehr über die Kabel, oder glaubt ihr aller ernstes, wenn eine GraKa statt 1.7 GHz auf 2 GHz läuft, dass die die Stecker-Specs einhält? Oder immer noch gleich viel Strom braucht?
Hier wird doch nur unnötig ein Fass aufgemacht, das bei allem Mehrverbrauch von NV über den Specs bisher ignoriert wurde. Da aber bei AMD außer der Effizienz, die in diesem Preisbereich quasi völlig egal ist (30W ca. 10€ im Jahr bei 5 Stunden Volllast spielen am Tag), nix zu finden ist, fasselt man von abrauchenden Boards und Specs. Selbst nachdem AMD zeitnah und professionel den Makel behoben hat (vgl. GTX970 Verhalten bei NV) kommen immer noch Leute ums Eck und suchen Haare in der Suppe.
Warum eigentlich? Was ist daran so schlimm, wenn AMD auch mal ein rundum gutes Produkt rausbringt?