Hopsekäse schrieb:Die Fury X schafft es (erst) in 4K leistungstechnisch zur 980Ti aufzuschließen, hat ~45% (!!!) mehr Recheneinheiten und eine neue sehr stromsparende Speichertechnik, verbraucht aber dennoch ~22% mehr Strom als eine 980Ti.
Dasselbe mit R9 390 und GTX970, auch wenn ich da selbst die 390 empfehle, hat diese ~54% mehr Recheneinheiten, liegt aber nicht annähernd in dieser Größenordnung vorn. Beim Stromverbrauch sind es ~62% zum Vorteil von Nvidia.
Es gibt nur einen einzigen Fall, wo die Mehrleistung unter höheren Auflösungen bezüglich der Effizienz einen nennenswerten Einfluss hat. Das ist das Duell zwischen GTX980 und R9 Nano, welche unter Full HD gleich schnell sind aber unter 4K dann etwas über 10% für die Nano stehen. Da verbraucht die Nano nur unwesentlich mehr und mit dem Vorsprung der hohen Auflösungen reicht es, um in der Effizienz minimal besser zu sein (allein unter FHD nicht). Das ist allerdings nur die Effizienz bezüglich des Stromverbrauchs, nicht bezüglich der Leistung/Recheneinheiten. Die 100% mehr Recheneinheiten kriegt man mit ~10% mehr Leistung wohl schlecht ausgeglichen.
Nochmal in kurz: Die Leistungsunterschiede in den Auflösungen von maximal 10-15% kannst du nicht hernehmen, um abzustreiten dass Nvidia die effizienteren Karten baut, wenn die in den Größenordnungen von 50-100% weniger Recheneinheiten und 20-60% weniger Strom verbrauchen. Das einzige, wo ich diesbezüglich noch mitgehen würde, wäre Leistung/Preis. Das ist aber kein Maß für die Effizienz.
Wow so viele Prozentangaben, die keinerlei Sinn ergeben...
Also erstens benötigt eine Referenz 980ti unwesentlich weniger Energie verglichen mit einer Fury X, ca. 20-30W, ausgehend von ca. 220W für eine 980ti wärens nur etwa 13% mehr. Custom 980ti's können auch mal mehr als eine Fury X ziehen, sind dann aber auch schneller.
Oh tatsächlich? Fiji hat 45%(!!!!!!11) mehr Shadereinheiten als 980ti? Tja, und ist dabei trotzdem ein wenig kleiner. Ob du glaubst oder nicht, CUDA Kerne kannst du mit GCN Kernen überhaupt nicht vergleichen. Du kannst sie nicht einmal markenintern vergleichen. 2048 Maxwell Kerne sind zB stärker als 2880 Kepler Kerne... oder wie du es ausdrücken würdest: "40%(!!!) mehr Kerne und trotzdem langsamer!"
Deine Prozentangaben zu 970/390 sind auch totaler Käse. 62% mehr Energiebedarf würde bedeuten, eine 390/290 zieht über 280W... ist klar. Nicht einmal hier auf CB, wo AMD beim Stromverbrauch immer besonders schlecht aussieht, verbraucht eine R9 390 62% mehr Energie.