scully1234 schrieb:
Wie man unweigerlich am Tesla Produkt K40 erkennen kann, hat der "GK180" das zusätzliche Cluster + 6GB zusätzlichen Ram@12GB in direkter Gegenüberstellung zu Titan/K20X bei gleichgebliebener TDP
TDP ist nicht gleich realer Verbrauch.
Ich gebe zu, ich habe keine Ahnung, bei welchen Taktraten die verschiedenen Teslas laufen, welchen realen Verbrauch sie dabei (in verschiedenen Lastzuständen) haben usw. Das müsste man sich erstmal alles genau anschauen, um zu beurteilen, ob die GK180 wirklich effizienter ist, als die GK110.
Gut möglich wäre z.B., dass die K40 bei erreichen des TDP-Targets einfach radikal runter taktet. Bei solche Profi-Karten wird eine hohe Priorität darauf gelegt, dass der Verbrauch in allen Situationen in einem bestimmten Rahmen bleibt, weil darauf das entsprechende Komplettsystem inklusive Kühlung und Stromversorgung ausgelegt wird und auch die Betriebskostenrostenrechnung der Nutzers usw.
(Mit höherer TDP käme die K40 z.B. nicht als Drop-in-Replacement für die K20(X) in Frage.)
Braucht es denn mehr wie GK110 um damit aufzuräumen im Feld?
Leiser, stromsparender, schneller,...
Die R9 290X mit ihrem grottigen Referenzkühler, der die GPU stark zurück hält, schafft es schon, leistungsmäßig auf Augenhöhe mit der Titan (mit ihrem wesentlich besseren Kühler) zu agieren. Gute Custom-290X werden kein Problem damit haben, die Titan deutlich hinter sich zu lassen.
Ich will nicht sagen, dass Nvidia nicht noch eine wesentlich schnellere GK110-Karte als die Titan rausbringen kann (vielleicht wird das ja die GTX780Ti), aber auch die wird nicht gerade Welten vor einer gut gekühlten 290X liegen (eher nur um die 10%) und das bei einem Verbrauch, der deutlich über der Titan und GTX780 liegt und damit näher an der 290X.
... Gsync, Physx, Cuda, 3D Vision Surround, Geforce Experience fehlt noch was?
DX 11.2, Mantle, TrueAudio, Eyefinity, ZeroCore, OpenCL usw. ...
Auch bei AMD kann man eine lange Stange Features aufführen, die entweder exklusiv sind, oder besser funktionieren (oder von Drittherstellern/Entwicklern besser unterstützt werden) als bei Nvidia. Da kommt es nur darauf an, wo man persönlich die Prioritäten setzt (z.B. eher 3D oder Multimonitor), aber ich sehe keinen der beiden unterm Strich wesentlich im Vorteil.
Wenn 20nm verfügbar ist steht Maxwell bereit u dann geht das Spiel beidseitig von neuen los
Und das ist noch sehr lange hin. Bis da hin heißt es Hawaii gegen GK110 und da sehe ich keinen großen Vorsprung für Nvidia.
Wobei ich wie gesagt stark befürchte, dass es bei Nvidia tatsächlich wieder so ein Spielchen geben wird, wie bei Kepler. Also dass die eigentliche High-End-GPU erstmal lange Zeit (für Consumer) zurückgehalten wird und dann auch nicht zu High-End-Preisen (ca. 500€), sondern zu Mondpreisen (>900€) verkauft wird.
Das wird nur AMD verhindern können, indem sie zeitnah ebenfalls eine neue Generation bringen. Darauf sollten alle potentiellen Käufer hoffen, auch ausgesprochene Nvidia-Fans. Man sieht ja gerade, wie viel weniger man plötzlich bezahlen muss, wenn erstmal Konkurrenz auf (oder über) Augenhöhe da ist.