Herdware schrieb:
Nvidia wäre mit dem Klammerbeutel gepudert, wenn sie das so beabsichtigt hätten. Es ist für sie alles schief gelaufen, was schief laufen konnte.
Glaubst du wirklich dass die bei Nvidia das nicht so beabsichtigt haben?
Die sind auch nicht blöd, dass die 970 so beschnitten wird war von Anfang an klar.
Herdware schrieb:
Die optimale Vorgehensweise wäre gewesen, diese erst mit Maxwell möglich gewordene Konfiguration des SI nicht nur von Anfang an offen zu kommunizieren, sondern offensiv als positives Feature zu verkaufen. Bei den vorherigen GPU-Architekturen wäre nur das komplette Abschalten eines Blocks des SI und damit 192Bit und 3GB VRAM möglich gewesen. Demgegenüber sind die 3,5GB mit 224Bit + 0,5GB "Supercache"
doch eine deutliche Verbesserung.
Eben nicht.
Wenn auf den letzten RAM zugegriffen wird, kann auf die anderen Daten nicht zugegriffen werden. Es muss also gewartet werden und dass macht sich dann in unrunden Frametimes und rucklern bemerkbar.
Ich sehe da beim besten willen keine Verbesserung, Nvidia tut im Moment alles um diesen Umstand klein zu reden bzw. die hüllen sich nach wie vor in schweigen. Aber es ändert nix daran dass die Karte für viele Käufer in der Praxis nicht zu gebrauchen.
Herdware schrieb:
Dass eine GTX970 überhaupt gegenüber einer GTX980 beschnitten ist, kann doch wohl keinen aufregen. Das wurde immer so gemacht (auch von AMD) und dafür kostet die 970 ja auch immerhin 200€ weniger, was ihr (auch mit dieser Einschränkung beim VRAM) zu einem wesentlich besseren P/L-Verhältnis verhilft. Das wäre mit einem vollen 256Bit-SI und entsprechender Preiserhöhung nur schlechter geworden.
Das eine 970 beschnitten ist, ist klar und auch normal.
Nur wie Nvidia die Karte beschnitten hat geht gar nicht, da die letzten 512 MB RAM faktisch nicht zu gebrauchen sind und Nvidia weiß das. Nicht umsonst versucht der Treiber alles um den Verbrauch unter 3,5GB zu halten.
Nvidia hat jeden betrogen, angefangen von den Boardpartnern, den Großhändlern bis hin zum Endkunden. Zudem hat Nvidia wenn man es ganz genau nimmt auch beim Verbrauch gelogen, denn so effizient wie Nvidia das gern darstellt sind die 970 / 980 Karten auch wieder nicht.
Herdware schrieb:
Wie gesagt, die Sache ist für Nvidia alles andere als positiv verlaufen. Es war ein PR-Desaster, das leicht vermeidbar gewesen wäre, wenn die Kommunikation zwischen Entwicklung und Marketing besser gelaufen wäre.
Tja
Das wäre leicht vermeidbar gewesen wenn die von Anfang mit offenen Karten gespielt hätten. Dann hätten sicher einige zu AMD gegriffen (wegen den tatsächlich nutzbaren 4GB) und AMD hätte sicher nach dem Launch die Preise gesenkt.
Das wollte man mit diesem BETRUG (sagen wir wie es ist) verhindern.
Herdware schrieb:
Das daran einzig "positive" für Nvidia ist, dass die realen Auswirkungen dieses Patzers längst nicht so extrem ausgefallen sind, wie der virtuelle Wasserglassturm, der in diversen Foren und Kommentarsektionen getobt hat. Wenn es darum geht, seine GTX970 tatsächlich wieder zurückzugeben, hat dann wohl doch bei den meisten der Verstand wieder eingesetzt und damit die Erkenntnis, dass sie trotz allem in ihrem Preissegment immer noch eine der besten (wenn nicht die beste) Grafikkarte ist.
Da es aktuell wenige Games gibt.
Skyrim mit genügend Mods, ruckelt nach einiger Zeit auf einer 970 (selbst schon im Freundeskreis getestet). Die 290(X) dagegen verhält sich so wie sie soll.
Watch Dogs mit dem HD Textur Mod zeigt auch unrunde Frametimes, auf einer 980 läuft es wesentlich besser.
Evolve zeigt schon unter Full HD der 970 ihre Grenzen auf, da hat man so große Aussetzer dass es fast schon Standbilder sind.
Und es kann die 970 nicht die beste Karte um 300€ sein, alleine schon nicht wenn Nvidia jedes mal den Treiber so programmieren muss dass der den VRAM Verbrauch unter 3,5GB halten muss.
Hätte es AMD so gemacht, wäre das Netz voll davon. Viele Redaktionen hätten das Fazit geändert, viele Händler hätten die Karte aus dem Programm genommen und der Shitstorm wäre um ein vielfaches größer gewesen.
Bei Nvidia ist die Aufregung groß aber am ende passiert wenig.
Als der Fermi kam, waren viele trotz des hohen Verbrauches begeistert von der Leistung und redeten diesen Umstand klein.
Als AMD mit der 290(X) kam, war die Aufregung über den Verbrauch riesengroß.
Damals war es OK, die Karte kam ja von Nvidia (AMD hatte da eine 5850 / 5870 die weniger brauchten und mithalten konnten). Jetzt bringt AMD eine Karte die mehr braucht als die Konkurrenz und jetzt müssen natürlich die High End Karten so wenig wie möglich brauchen.