Test Die GeForce GTX 970 und der limitierte Speicher

Danke Euch für Test,
ich wollte eine 4GB Ram Karte bei der die die volle angegebene Bandbreite geliefert wird
und zwar für jeden Speicherbaustein Punkt aus.
Ist nicht geliefert worden.
Ich wette die Verkaufszahlen hätten anders ausgesehen.
 
SchaGur schrieb:
Ich finde das hier beschönigt wird. NV selbst sollte das machen.
Natürlich sollte Nvidia selbst auch Ergebnisse liefern, aber wenn mehrere, voneinander unabhängige, Seiten die Karte nachträglich (auf dieses Problem hin) testen und alle zu diesem Ergebnis kommen, dann kann man Nvidia zumindest keine eigenmächtige Beschönigung des Problems vorwerfen.

Die, nennen wir es mal, Marketing-Lüge ist keine feine Sache, aber es zeigt sich, dass bei FullHD oder QHD keine Probleme auftauchen, erst ab WQXGA tauchen diese auf. Wer wirklich auf solch hohe Auflösungen setzt, der sollte eine stärkere Karte für Spiele nehmen. Einzig für GTX 970 SLI-Gespanne bei hohen Auflösungen ist dieses Problem wirklich eklatant, aber der "FullHD-Normalo-Gamer" kriegt davon nichts mit.
 
Jan schrieb:
Das gleich teuer bezieht sich auf die GTX 970. Geht aus dem Kontext doch hervor, oder?

Naja. Ich hab auch erst gedacht, dass es sich auf die 980 bezieht. ;-)
 
Leider wird ein eigentlich tolles Feature namens DSR dadurch auf der 970 wieder ein stückweit obsoleter...

Mit 3 Monitoren kann einem da in Verbindung mit SSAA/DSR auch jetzt schon auf der GTX 980 der VRAM ausgehen - auf der 970 braucht mans je nach Spiel garnciht erst versuchen.
 
Danke für den Test, allerdings sehe ich das wohl etwas kritischer.

Der VRAM-Konsum wird wohl durch die neuen Konsolen relativ schnell ansteigen, und eine neue Grafikkarte für das Geld sollte auch länger als wenige Monate ihre Leistung bringen. Und das es weit mehr als die "minimalen Leistungseinbrüche" sind, sieht man eindeutig.

Zudem entsprechen die beworbenen Daten nicht den tatsächlichen und die Ausrede von Nvidia klingt da schon mehr als peinlich.

Demnach kann ich es gut nachvollziehen, das viele GTX 970 zurückgehen. Wenn ich für die angepriesenen technische Daten bezahle, will ich die auch haben. Alles andere ist für mich Täuschung und Betrug.
 
Jetzt weiß ich auch endlich woher diese Ruckler kommen bei meinem triple screen setup mit der 970.
 
pampelmuse schrieb:
Leider wird ein eigentlich tolles Feature namens DSR dadurch auf der 970 wieder ein stückweit obsoleter...
Mit der Freischaltung für Kepler war DSR kein Aufrüstgrund mehr. SSAA/DSR braucht vor allem mehr Rechenleistung, willst du VRAM sinnlos vollknallen nimm MSAA.
 
izakstern schrieb:
Was für mich gänzlich neu war, dass ich soviel Speicher durch "ungenutzte" Bildschirme verschwende.

Gibt es eine Art Shortcut oder ähnl. bei dem ich mit einem klick auf den Desktop zwei überflüssige Bildschirme deaktivieren kann?
Bei zwei Bildschirmen kann man durch mehrfaches Drücken von "Windows" + "P" bequem zwischen 4 Möglichkeiten durchschalten:
"nur Bildschirm A" (Bildschirm B bekommt kein Signal und schaltet in den Stand-by),
"nur Bildschirm B" (Bildschirm A bekommt kein Signal und schaltet in den Stand-by),
"doppelt" (gleiche Anzeige auf Display A + B, also Klon-Modus) und
"erweitert" (Windows-Desktop erstreckt sich über beide Bildschirme).
 
Der Artikel dazu ist gut aber kein Wort, wie dreckig Nvidia da einem in die Fresse lügt! DAS kann es doch def. nicht sein!
 
tja, dann wird es wohl nicht die GTX970, zumindest nicht für den Preis.. für 100.- € weniger wäre ich allerdings bereit mit diesem Makel zu leben, da ich so oder so nur in FHD zocke. Dennoch, ein ungutes Gefühl bliebe, wo ich weiß, daß ggf. der nächste Grafikkracher dann zur Einzelbildschaltung verkommt.

Zum Glück habe ich noch nicht zugeschlagen, werde es nun vorerst mit meiner 770 bewenden lassen und abwarten wie NV und der Markt reagiert. Alles in allem aber echt ein starkes Stück, was NV da abliefert.

Danke @CB für die Analyse...
 
@unyu

Das ist nicht falsch, doch ändert es ncihts daran, dass man - falls man die GTX 970 gekauft hat - was das angeht nun das Nachsehen hat. Soll ja auch Leute geben die nicht von Kepler aufgerüstet haben...

Sinnlos vollknallen will den VRAM niemand - ein Grund weshalb man extra DSR/SSAA nutzt. Ob es mehr Rechenleistung als VRAM bruacht ist relativ egal, solang es noch soviel VRAM bruacht, dass der vorhandene nicht ausreicht...
 
Es wird zwar gesagt es die Probleme treten nur in extremen Einstellungen auf, aber man sollte beachten, dass diese Benchmarks höchsten 2 Minuten lang sind. Das ist ja bei allen Benchmarks so. Bei Benchmarks in FullHD bekommt man nicht so eine hohe Speicherbelegung, weil sie so kurz sind. Aber es gibt ja schon ein paar Spiele auf dem Markt die schon in FullHD, nach längerem Spielen die 4GB vollmachen (Ubisoft-Spiele, BF4, Dead Rising 3). Es wird in zukunft bestimmt noch mehr solche Konsolenports geben die sich sehr viel VRAM genehmingen und schlechtes Streaming haben. Theoretisch simulieren die kurzen und speicherfressenden Benchmarks, längeres Spielen bei "normalen" Settings. Also kann man es auch auf das normale Spielen beziehen oder irre ich mich?

Es ist außerdem unverschämt wie Nvidia einfach dreist gelogen hat, obwohl sie es nicht nötig hätten. Selbst mit angegebenen 3,5GB hätte sich die Karte super verkauft. Doch jetzt fühlen sich die kunden verarscht. Erschreckend sind auch manche Leute die jetzt zB meinen sich ne 980 zu kaufen oder von Nvidia Gutscheine fordern. Man schiebt doch einem Unternehmen, was einen veräppelt hat, nicht direkt wieder Geld in den Arsch. Und kosten die durch Gutscheine entstehen würden, würden auf den Preis der nächsten Generation draufgerrechnet werden.
 
Zuletzt bearbeitet:
Selas schrieb:
Die, nennen wir es mal, Marketing-Lüge ist keine feine Sache, aber es zeigt sich, dass bei FullHD oder QHD keine Probleme auftauchen, erst ab WQXGA tauchen diese auf. Wer wirklich auf solch hohe Auflösungen setzt, der sollte eine stärkere Karte für Spiele nehmen. Einzig für GTX 970 SLI-Gespanne bei hohen Auflösungen ist dieses Problem wirklich eklatant, aber der "FullHD-Normalo-Gamer" kriegt davon nichts mit.

Ich weiss nicht, mir gegenüber hat nVidia unter anderem mit DSR als feature geworben. Selbst wenn ich in Full-HD spiele, mit DSR rendert die Karte intern in bis zu 4k-Auflösung. Schon wäre dieses Szenario, welches ich nie erreichen würde, Realität.
Lustig finde ich auch immer dass ja jetzt kein Spiel soviel Speicher braucht etc pp.
Ach. Bin ich der einzige der seine Computerteile auch mal länger als ein halbes Jahr nutzt? unity und FC4 zeigen doch wo der Trend hingeht. Nachdem der Bremsklotz Konsolen für crossplatform-Titel erstmal weg ist, werden künftig viele Spiele auf solche Gegebenheiten ausgelegt werden. Es wäre das erste Mal in dreissig Jahren PC-gaming dass die Hardwareanforderungen mit der Zeit sinken. Und dann schaut es so aus wie derzeit mit einer GTX770 und 2GB VRAM: die GPU reicht eigentlich noch, aber der Speicher wird dünn. Tolle Wurst.

Aber so sichert sich nVidia natürlich schon wieder den nächsten Neukauf...
 
Cohen schrieb:
Bei zwei Bildschirmen kann man durch mehrfaches Drücken von "Windows" + "P" bequem zwischen 4 Möglichkeiten durchschalten:
"nur Bildschirm A" (Bildschirm B bekommt kein Signal und schaltet in den Stand-by),
"nur Bildschirm B" (Bildschirm A bekommt kein Signal und schaltet in den Stand-by),
"doppelt" (gleiche Anzeige auf Display A + B, also Klon-Modus) und
"erweitert" (Windows-Desktop erstreckt sich über beide Bildschirme).

krass danke ;D
 
Hallo,

ich habe mal eine Frage und hoffe, ihr könnt sie mir beantworten. Ich habe auch eine GTX 970 von MSI, bin so weit zufrieden.
Seit gestern habe ich meinen TV per HDMI als zweiten Bildschirm angeschlossen, nur um Filme zu gucken, nicht zum Zocken. Ich habe im Treiber eingestellt, dass der Bildschirm geclont werden soll, so dass beide das gleiche anzeigen.

Leider taktet die Grafikkarte im IDLE jetzt nicht mehr herunter, hat zwar eine GPU Last von unter 10% aber eine Power Consumption von 25% und dadurch auch eine erhöhte Temperatur von 56 Grad C im IDLE, sonst hat sie um die 40.

Auch im Spiel the Forest z.B. Macht sich das bemerkbar, von sonst konstanten 60fps ist sie jetzt auf ca. 40fps gesunken.

Woran liegt das? Ich habe doch nur das Bild geclont, es dürfte keine extra Leistung benötigen oder? Deaktivieren des TV im Treiber hat den Zustand auch nicht zurück gesetzt.

Hat jmd. einen Tipp bevor ich einen extra Thread öffnen muss? Beide haben 1920x1080x60Hz
 
Danke für den eindeutigen und ausführlichen Test! Sehr gute Arbeit!

Ich verfolge das ganze Thema seit eurem Artikel dazu und finde es extrem enttäuschend was NV hier mit der 970er abgezogen hat!!

Werde nun eher die Hoffnung auf Rot richten, da ich in der Zukunft auf >2560er Auflösung und spieletauglichkeit zum mittleren Preis hoffe und nutzen will. (Vorwigend für prof. Fotobearbeitung)

Jan schrieb:
Das gleich teuer bezieht sich auf die GTX 970. Geht aus dem Kontext doch hervor, oder?

Jap wird klar! Die "meisten" kenne die Preisspanne der beiden Karten ja auch (Vermute ich mal, sonst würde man sich gar nicht erst für das Thema hier interessieren).
 
Lord_X schrieb:
Der Artikel dazu ist gut aber kein Wort, wie dreckig Nvidia da einem in die Fresse lügt! DAS kann es doch def. nicht sein!


Naja. CB muss sich natürlich etwas zurückhalten. Ist doch logisch.

Zum Einen muss man rechtlich sehr vorsichtig sein, was man schreibt, zum Anderen wollen sie es sich ja nicht völlig mit Nvidia verscherzen, was man auch verstehen kann. Denke ich zumindest.

Man kann aber zwischen den Zeilen doch sehr deutliche Kritik herauslesen. :daumen:

Sie wurden ja schliesslich ebenfalls, wie sage ich es vorsichtig ? , "auf's Glatteis geführt". ;-) :D
 
Nilson schrieb:
Betätigt meine Annahme: Die GTX 970 ist gut, solange keine 3,5 GB gebraucht werden, danach fangen die Probleme an.
Was mich interessieren würde, wie sich die Karte verhalten würde, wenn nur 3,5 GB verbaut wären. Dann müssten die FPS zwar runter gehen, wenn der Speicher voll ist, aber das geruckel durch die langsamen Zugriffe aber ausbleiben, oder?

Naja, läuft der VRAM über wird auf den RAM zugegriffen. Dieser ist noch langsamer als die langsamen 500 MB VRAM der GTX 970, also hätte man wohl mindestens gleich viel Geruckel.
 
ChrisMK72 schrieb:
Zum Einen muss man rechtlich sehr vorsichtig sein, was man schreibt, zum Anderen wollen sie es sich ja nicht völlig mit Nvidia verscherzen, was man auch verstehen kann. Denke ich zumindest.

Sehe ich ähnlich. Wenn ich heute schreibe Hersteller XY hat mich damit betrogen, dann ist das eine Aussage die ich erst Mal beweisen muss. Sollte ich damit scheitern, kann XY im Umkehrschluss mich wegen Verleumdung bzw. übler Nachrede dran kriegen.

Nichts desto trotz bin ich aber dafür, das Verhalten von NVidia mal gesondert zu betrachten...

MfG tb
 
Zurück
Oben