Test Nvidia GeForce GTX 980 und GTX 970 im (SLI-)Test

@Thanok wir wollen ja nicht übertreiben. Es liegen etwa 80W dazwischen, keine 100.

Ich uberlege gerade warum Nvidia die 970 so günstig anbietet. Das ist ja total ungewöhnlich. Auch 400€ wären für die Leistung (auch pro Watt) für die heutigen Verhältnisse OK gewesen. Ich mein wann hat NV zuletzt die selbe Leistung wie AMD günstiger angeboten? Die 680, 770 waren und sind ja immer noch teurer als AMD's 7970 bzw 280X, und das bei 1GB weniger vram. Oder die 780er OC Karten, auch weniger Speicher, ähnliche Leistung und eher teurer als günstiger.
Nun bringt NV auf einmal quasi eine effizientere 290X für deutlich weniger Geld. Für 15% mehr Leistung werden aber gleichzeitig über 200€ mehr verlangt.
Zwei Möglichkeiten: entweder ist der GM200 schon fertig und wird in ein paar Monaten released, dann für den alten Ti Preis von 650€ oder mehr. Die 980 würde dann deutlich billiger werden. Wobei man auch dann die beiden Karten für 399€ bzw 499€ hätte anbieten können.
Oder Nvidia weiss, dass AMD bald kontern kann, und will mit der 970 und ihren aggressiven Preis viele der potentiellen AMD Käufer für sich gewinnen. Denn die Hersteller wissen viel mehr als wir. Sieht man zB auch daran, dass AMD noch vor dem Release der 900er Serie deutliche Preissenkungen der 290X "angekündigt" hat (es gab Gerüchte darüber).
Auf Twitter schreibt Roy Taylor "we have a whole response coming. Stand by."

Na hoffentlich hat AMD tatsächlich was tolles in der Pipeline.
 
Kenneth Coldy schrieb:
Deine Definition von "schlecht" ist schlicht eine andere als ich sie habe. Ich hatte mir 100W als Limit für meine GPU gesetzt und die Hoffnung, nun endlich eine GPU kaufen zu können die damit aktuelle Titel in HD spielt. Pustekuchen. Also habe ich mein Limit auf 150W erhöht. Für mich ist eine Karte "schlecht" wenn sie innerhalb dieses Limits kein FullHD (mit aktuellen Titeln - Elite Dangerous läßt grüßen) mehr schafft. Für mich ist die "bessere" Karte diejenige die innerhalb dieses Limits die beste Leistung bringt. Nach beiden Kriterien ist die 970 meine neue Ballkönigin (nachdem ich schon fest mit einer 285 geliebäugelt hatte). Korrigiere mich wenn ich falsch liege.
Das Kriterium "FPS pro Euro" ist mir lediglich innerhalb einer Leistungsklasse wichtig. Hier muss ich abwägen, zum Beispiel ob ich 50€ mehr für einen etwas leiseren Kühler ausgebe.

Ich wollte eigentlich lediglich darauf hingewiesen haben, dass letztlich jegliche Diskussion über neue Features und verringerte Leistungsaufnahme nichtig/hinfällig/sinnlos/überflüssig ist, solange eine Grafikkarte noch immer bestimmte Spiele (nämlich naheliegenderweise jene, die einem selbst am Herzen liegen/die man selbst besitzt/zockt) nicht ruckelfrei darstellen kann und das insbesondere vor dem Hintergrund/der Tatsache, dass Nvidia vor gut einem 3/4 (gab hier im Forum ja auch die passende News) angekündigt hatte, sich künftig verstärkt um die Performance in Auflösungen jenseits von Full-HD kümmern zu wollen.

Aber die Tatsache, dass selbst das neue Flaggschiff viele Titel - je nach Bildeinstellungen - noch immer nicht flüssig darstellen kann - z.T. noch nichtmal in Full-HD - und die wieder nur 4GB Vram mit 256bittiger Speicheranbindung) sprechen ja nun eine deutliche Sprache darüber, wie ernst es denen damit tatsächlich war. (bin mir eh sicher, dass in ca. einem halben Jahr die richtige GTX mit 12GB Vram, 384- oder 512bit Speicheranbindung und einer entsprechend "aufgemotzten" GPU kommen wird, die dann aber garantiert wieder Preise von ~1000 € einfordern wird. <- so war es ja damals mit der vorgeschobenen GTX 680 und der nachgereichten Titan auch.)

Ich bereue z.T. auch den Kauf der GTX 780 (vor knapp einem Jahr) da diese im Vergleich zu meiner alten 8800GTX (die ich über 4 Jahre im Hauptrechner in Betrieb hatte) z.B. "Diablo 3" in 2560x1600@60Hz noch immer nicht ruckelfrei darstellen kann.

Man investiert gut 400 € in eine neue Graka und hat dann noch immer kein flüssiges Spielerlebnis. (traurig aber wahr, wie man verarscht wird bzw. sich verarschen lässt.) Aber aus Fehlern lernt man ja bekanntlich...

Deine eigenen Kriterien zur Wahl der für dich richtigen Grafikkarte finde ich sehr vernüftig und kann sie gut nachvollziehen.
 
Zuletzt bearbeitet:
@JmGer: Ich würde die Karte allein schon wegen der fehlenden Herstellergarantie zurückgeben. Die GTX 970 ist auch 10-15% schneller in FHD als die R9 290. Aber warte vielleicht lieber noch auf Donnerstag was da seitens AMD noch kommt. :D Sonst fragst du am Ende vllt. wieder, ob du jetzt die GTX 970 abstoßen sollst. ;) :D
 
Zuletzt bearbeitet:
@GamingWiidesire

Und nun klick mal in dem Diagramm auf die 970. Da gibts das schöne Feature, dass die Linie dann bei der 970 gezogen wird ;)
Es ist nicht einmal knapp, die 290/280X sind ein gutes Stück oberhalb von der Linie entfernt. Die 280X weiter als die 290.
Ergo: besseres P/L-Verhältnis.

Ohne jene Linie könnte man jedoch denken wenn man nur kurz drüberlunzt, dass sie in etwa gleichgut sind (obwohl... ich find das sieht man auch deutlich ohne die Hilfslinie^^).

Edit: Masel for fun hat sowas auch schon angemerkt - hab ich übersehen :)
 
Zuletzt bearbeitet:
Tyrosh22 schrieb:
@JmGer: Ich würde die Karte allein schon wegen der fehlenden Herstellergarantie zurückgeben. Die GTX 970 ist auch 10-15% schneller in FHD als die R9 290. Aber warte vielleicht lieber noch auf Donnerstag was da seitens AMD noch kommt. :D Sonst fragst du am Ende vllt. wieder, ob du jetzt die GTX 970 abstoßen sollst. ;) :D
Oki, wird gemacht, danke für den Tipp! :)
 
Thanok schrieb:
Bei den OC-Versionen wird aber meist die Spannung von Haus aus angehoben obwohl dies gar nicht nötig ist. Dadurch steigt der Verbrauch unnötig an.

Im Falle der neuen Maxwell Karten scheint aber (im Gegensatz zu bisherigen Karten) eine Spannungserhöhung unabdingbar um (dauerhaft) höhere Taktraten zu erreichen.
CB schreibt im Test, dass die Leistung oftmals durch das Power Target begrenzt wird und auf Defaulttakt zurückgeschaltet wird:
Das Temperature Target macht der Grafikkarte in jedem Titel einen Strich durch die Rechnung und in Anno 2070, Bioshock, Company of Heroes 2 sowie Crysis limitiert ebenso auch das Power Target.
 
JmGer wobei man schon sagen muss,dass die VaporX eine sehr hochwertige Grafikkarte ist. Mit etwas OC, also ca. 1.1 GHz wird sie kaum langsamer sein als eine 970. Und in Mantle Spielen wahrscheinlich schneller. Ich finde man kann das Mantle Argument nicht ignorieren. Falls das für dich keine Rolle spielt, ganz klar die schicke EVGA.
 
Arno Nimus schrieb:
Ich bereue z.T. auch den Kauf der GTX 780 (vor knapp einem Jahr) da diese im Vergleich zu meiner alten 8800GTX (die ich über 4 Jahre im Hauptrechner in Betrieb hatte) z.B. "Diablo 3" in 2560x1600@60Hz noch immer nicht ruckelfrei darstellen kann.

Generell bin ich deiner Meinung, aber D3 ist ein mieses Beispiel. Da gibts genug Stellen im Spiel, die bei jeder Konfig ruckeln. Auf den Neuen Konsolen hingegen läufts prima, trotz vermeintlich viel schlechterer Hardware. Evtl. sollte Blizzard die überarbeite Engine, die ja nun Multicore-fähig scheint, auch auf den PC bringen.
 
Ich uberlege gerade warum Nvidia die 970 so günstig anbietet.
- weil es nur ein mittlerer Chip ist, der auch in der Vergangenheit nicht mehr gekostet hat
- weil er aufgrund der Größe auch günstig zu produzieren ist
- weil das Speicherinterface verkleinert wurde und RAM günstiger geworden ist
- weil es derzeit im 28nm Verfahren keine Engpässe bei der Lieferung der Rohkomponenten geben wird

Da ist jetzt noch nicht mal der Grund drin, dass nVidia AMD wieder einige Marktanteile zurück erobern will!

und finally, wir haben jetzt ja gesehen, dass wenn wir mal die grüne Brille absetzen und der GTX970 die echten Karten am Markt (GTX780 Custom) gegenüberstellen, dann ist die Leistung auch nicht mehr so berauschend!
https://geizhals.de/gainward-geforce-gtx-780-phantom-2982-a968049.html
genauso wenig wie beim Preisvergleich.......
Aber ich will die GTX970 jetzt auch nicht schlecht reden, sie ist effizient und für den Preis eine gute Wahl - aber eben auch keinen Aufpreis wert!
 
Zuletzt bearbeitet:
Arno Nimus schrieb:
Ich bereue z.T. auch den Kauf der GTX 780 (vor knapp einem Jahr) da diese im Vergleich zu meiner alten 8800GTX (die ich über 4 Jahre im Hauptrechner in Betrieb hatte) z.B. "Diablo 3" in 2560x1600@60Hz noch immer nicht ruckelfrei darstellen kann.


Diablo3 ist wahrlich ein schlechtes Beispiel dafür.
Das liegt nicht an der Karte,m sondern einfach an einer unguten Programmierung.

Mit einer HD6870 und einem Haswell @3,8 GHz kann ich das Spiel zu 98% bei 1200p immer wunderbar flüssig spielen (60fps VSYNC), höchste Einstellungen - nur wenn wirklich viel los ist steigt die GPU Auslastung aber mal >90%.

Es gibt aber 2-3 Karten(abschnitte) (die neue, die mit 2.1 gekommen ist und eine aus Akt3, Weg zum Siegebreaker), da habe ich derbe Ruckler, obwohl sowohl GPU als auch CPU bei Weitem nicht ausgelastet sind.
Das kann wohl kaum an einer schlechten GPU liegen.

Und selbst wenn du auf 1600p spielst - deine GPU hat mehr als die doppelte Leistung wie meine.
 
zeedy schrieb:
JmGer wobei man schon sagen muss,dass die VaporX eine sehr hochwertige Grafikkarte ist. Mit etwas OC, also ca. 1.1 GHz wird sie kaum langsamer sein als eine 970. Und in Mantle Spielen wahrscheinlich schneller. Ich finde man kann das Mantle Argument nicht ignorieren. Falls das für dich keine Rolle spielt, ganz klar die schicke EVGA.
Hey, ja, das ist ein Argument auch für mich, Geschwindigkeit hat AMD für mich subjektiv wahrgenommen immer irgendwie die Nase vorn und P/L ist auch kaum ein Unterschied, zumal die neversettle-Aktion noch eingepreist werden muss. ABER: Die Grafik scheint bei der 970er doch um einiges besser zu sein und das ist das Hauptargument, weswegen ich gerade überlege die Sapphire zurückzugeben.
 
SaarL schrieb:
@GamingWiidesire

Und nun klick mal in dem Diagramm auf die 970. Da gibts das schöne Feature, dass die Linie dann bei der 970 gezogen wird ;)
Ah super, danke. Ehrlich gesagt komische Tabelle. Man könnte ja einfach Performance pro Euro in % oder sowas angeben wie man hier in #895 sieht.
 
melemakar schrieb:
Diablo3 ist wahrlich ein schlechtes Beispiel dafür.
Das liegt nicht an der Karte,m sondern einfach an einer unguten Programmierung.

Mit einer HD6870 und einem Haswell @3,8 GHz kann ich das Spiel zu 98% bei 1200p immer wunderbar flüssig spielen (60fps VSYNC), höchste Einstellungen - nur wenn wirklich viel los ist steigt die GPU Auslastung aber mal >90%.

Es gibt aber 2-3 Karten(abschnitte) (die neue, die mit 2.1 gekommen ist und eine aus Akt3, Weg zum Siegebreaker), da habe ich derbe Ruckler, obwohl sowohl GPU als auch CPU bei Weitem nicht ausgelastet sind.
Das kann wohl kaum an einer schlechten GPU liegen.

Und selbst wenn du auf 1600p spielst - deine GPU hat mehr als die doppelte Leistung wie meine.

Du solltest mal die butterweiche, stets superflüssige Darstellung der "Ulitmalte Evil Edition" des Spiels auf der PS4 sehen. Und grafisch steht diese der PC-Fassung in rein garnichts nach (selbst die angeblich fehlende Kantenglättung fällt zu keiner Zeit auch nur ansatzweise auf.)

Überhauptkein Vergleich zum PC.

Die Ruckler an den von dir benannten/bekannten Stellen (auf der Rakis-Brücke etwa) hat man dabei übrigens auch nicht mehr, wie ich dir versichern kann, da ich das Spiel auf der Konsole schon einmal komplett bis Malthael durch habe.

Da das Spiel bei mir mit der GTX 780 im Grunde nicht weniger ruckelig läuft, als mit der alten 8800GTX, gehe ich mal davon aus, dass es an Latenzen liegt, die dadurch entstehen, dass die Chars und Items nicht auf der heimischen HDD resp. SSD, sondern auf deren Blizzard-Servern liegen. (daher rührt ja auch das Rubberbanding, auch wenn das mittlerweile sehr viel weniger geworden ist, als vor gut 2 Jahren.)

Aber das spielt für das Resultat natürlich keine Rolle, denn solange man stetige Ruckler hat, ist das Spielvergnügen getrübt.

Es gibt aber - um nicht ganz vom Thema abzuschweifen - abgesehen von D3 auch ettliche andere Spiele, die selbst bei nur 1920x mit einer in einem Referenzsystem betriebenen GTX 980 noch immer immer keine (durchgehend) flüssige Darstellung erreichen. (sieht man ja hier im Test bei den jeweiligen Benchmarks und anhand der Frameverläufe über die Spielzeit.)

Das 1,5 Jahre alte Tomb Raider z.B. liefert alles andere als berauschende Werte... (wobei aus dem Test noch nichtmal hervorgeht, ob bei diesen Benchmarks z.B. Tress-FX aktiviert war oder nicht.)

hrafnagaldr schrieb:
Generell bin ich deiner Meinung, aber D3 ist ein mieses Beispiel. Da gibts genug Stellen im Spiel, die bei jeder Konfig ruckeln. Auf den Neuen Konsolen hingegen läufts prima, trotz vermeintlich viel schlechterer Hardware. Evtl. sollte Blizzard die überarbeite Engine, die ja nun Multicore-fähig scheint, auch auf den PC bringen.

Falls die Konsolenfassungen tatsächlich Multi-Kern-Support bieten (was ja neheliegend ist) wäre das natürlich auch noch eine sehr gut nachvollziehbare Begründung, warum die Performance auf diesen Plattformen so viel besser/souveräner ist, als auf dem PC.

Wird ja immer genügend gelästert/gespottet über die ach so schwache Konsolen-Hardware. Aber in der Praxis zeigt sich dann, was für eine Ironie das ist (sprich wie es in Wahrheit aussieht.)
 
Zuletzt bearbeitet:
GamingWiidesire schrieb:
Ah super, danke. Ehrlich gesagt komische Tabelle. Man könnte ja einfach Performance pro Euro in % oder sowas angeben wie man hier in #895 sieht.

So hat CB früher auch bewertet. Die Grafik hilft aber, die Grafikkarten gleichzeitig auch nach Leistung und Preis zu unterscheiden, nicht nur nach dem Verhältnis aus beidem.

Eine Grafikkarte mit einer Leistung von z.B. 50% für 200€ hätte ja exakt die selbe P/L-Wertung wie eine mit einer Leistung von 100% für 400€. Aber es wird wohl kaum einer zwischen diesen beiden in Leistung und Preis so unterschiedlichen Alternativen schwanken, sondern sich schon vorab einen gewissen Rahmen gesteckt haben, wie viel Leistung er braucht und wie viel Geld er ausgeben kann/will.

Und genau dafür ist die P/L-Grafik von Computerbase gut geeignet. Man sieht die jeweiligen Grafikkarten auf einen Blick in ihrem Umfeld aus Karten mit ähnlich viel Leistung und ähnlichem Preis.
 
Lars_SHG schrieb:
- weil es nur ein mittlerer Chip ist, der auch in der Vergangenheit nicht mehr gekostet hat

Achso, du meinst wie damals die GTX670 für knapp 400€? Die btw auch noch über 100mm² kleiner war. Sicher, der 28nm Prozess ist heute günstiger als damals, aber nachdem Nvidia konstant die Preise erhöht hat und überall das schlechtere Preis-Leistungsverhältnis hatte, ist es doch sehr überraschend, dass dieses bei der GTX 970 plötzlich besser ist als bei der AMD Konkurrenz!

Ach, und kurz OT:
Nvidia wird angeblich FreeSync unterstützen bzw. den VESA Standard für die Technologie ^^
http://www.pcgameshardware.de/Nvidi...-verspricht-Support-von-AMD-Freesync-1136782/
Wofür dann die teuren G-Sync Monitore?

@JmGer, ein ordentliches ~450W Markennetzteil wird sicher reichen ;)
Die Hersteller gehen von Noname PSUs aus, und die sollen halt überdimensioniert sein, damit die minderwertigen Netzteile die Lastspitzen verkraften können.
Ach und kannst du vielleicht erklären, was du mit " Die Grafik scheint bei der 970er doch um einiges besser zu sein" meinst? :D
 
Zuletzt bearbeitet:
melemakar schrieb:
Es gibt aber 2-3 Karten(abschnitte) (die neue, die mit 2.1 gekommen ist und eine aus Akt3, Weg zum Siegebreaker), da habe ich derbe Ruckler, obwohl sowohl GPU als auch CPU bei Weitem nicht ausgelastet sind.
Das kann wohl kaum an einer schlechten GPU liegen.

Haha ja der Weg hat 2-3 derbe Ruckelstellen drin. Außerdem die Cesspools, die man nur in Rifts zu Gesicht bekommt. Da noch 2-3 Elitepacks und es geht garnix mehr. Legendär programmiert. Hatte da bei nem Run auch Leute mit Intel / nVidia Highend Hardware, haben genauso gemeckert wie ich.

Naja, das ist nun alles OT.
Bin nun mal auf AMD gespannt und dann kann ich schauen, welche Karte nächstes Jahr The Witcher 3 befeuern darf.

zeedy schrieb:
Ach, und kurz OT:
Nvidia wird angeblich FreeSync unterstützen bzw. den VESA Standard für die Technologie ^^
http://www.pcgameshardware.de/Nvidi...-verspricht-Support-von-AMD-Freesync-1136782/

Würde ich begrüßen, ich hab keine Lust auf die ganzen proprietären Geschichten.
 
Zuletzt bearbeitet:
zeedy schrieb:
Nvidia wird angeblich FreeSync unterstützen bzw. den VESA Standard für die Technologie ^^
http://www.pcgameshardware.de/Nvidi...-verspricht-Support-von-AMD-Freesync-1136782/
Wofür dann die teuren G-Sync Monitore?

Da bringt PCGH aber einiges arg durcheinander.

FreeSync ist kein Teil von Adaptive-Sync und ist auch kein Industriestandard.
Adaptive Sync, also das, was zusammen mit DisplayPort 1.2a standardisiert wurde, bietet nur eine Grundlage für AMDs eigenes, propritäres FreeSync. (FreeSync selbst ist in AMDs GPUs und den Treibern umgesetzt, wo sie sich auch von niemandem in die Karten schauen lassen wollen. AMD sprach in dem Zusammenhang von ihrer "Secret Sauce".)

Oder anders ausgedrückt: FreeSync braucht AdaptiveSync, um zu funktionieren. Aber Adaptive Sync allein bringt nichts.

Nvidia kann also gar nicht einfach mal so eben Freesync unterstützen. Sie könnten nur ihre eigene, neue, ebenfalls auf dem Standard Adaptive-Sync basierende Lösung entwickeln. Die Motivation dazu dürfte sich aber in Grenzen halten, da sie ja mit G-Sync schon eine solche, funktionierende und (im Gegensatz zu FreeSync) am Markt vorhandene Technologie haben.

Aus Verbrauchersicht wäre es natürlich toll, wenn Nvidia trotzdem auf einen neuen Standard umschwenken würde, der auf Seiten des Monitors zu AMDs Lösung kompatibel ist, bzw. wie dieser ohne propritäte Hardware abseits der Grafikkarte selbst auskommt. Ist halt nur unwahrscheinlich, weil Nvidia dafür die ganze in G-Sync investierte Arbeit (auch Überzeugungsarbeit bei den Monitorherstellern) in die Tonne kloppen und bei Null neu anfangen müssten.
 
Zuletzt bearbeitet:
Lars_SHG schrieb:
- weil es nur ein mittlerer Chip ist, der auch in der Vergangenheit nicht mehr gekostet hat
- weil er aufgrund der Größe auch günstig zu produzieren ist
- weil das Speicherinterface verkleinert wurde und RAM günstiger geworden ist
- weil es derzeit im 28nm Verfahren keine Engpässe bei der Lieferung der Rohkomponenten geben wird

Da ist jetzt noch nicht mal der Grund drin, dass nVidia AMD wieder einige Marktanteile zurück erobern will!

und finally, wir haben jetzt ja gesehen, dass wenn wir mal die grüne Brille absetzen und der GTX970 die echten Karten am Markt (GTX780 Custom) gegenüberstellen, dann ist die Leistung auch nicht mehr so berauschend!
https://geizhals.de/gainward-geforce-gtx-780-phantom-2982-a968049.html
genauso wenig wie beim Preisvergleich.......
Aber ich will die GTX970 jetzt auch nicht schlecht reden, sie ist effizient und für den Preis eine gute Wahl - aber eben auch keinen Aufpreis wert!

Lolwut? Das sind die Reste der GTX7xx Serie, die im Abverkauf sind.
Davon abgesehen ist eine GTX970 natürlich in jedem Belang besser als eine Custom GTX780 Karte. Wer bei gerademal 20€ eine GTX780 vorzieht...

zeedy schrieb:
JmGer wobei man schon sagen muss,dass die VaporX eine sehr hochwertige Grafikkarte ist. Mit etwas OC, also ca. 1.1 GHz wird sie kaum langsamer sein als eine 970. Und in Mantle Spielen wahrscheinlich schneller. Ich finde man kann das Mantle Argument nicht ignorieren. Falls das für dich keine Rolle spielt, ganz klar die schicke EVGA.

Richtig, als AMD Mitarbeiter kann man das Mantle Argument nicht ignorieren. Als neutraler Beobachter dagegen schon. Oder dürfen wir jetzt auch anfangen GPU-PhysX und Gameworks miteinzubeziehen? :evillol:

Und dann wird hier auch noch die 290X Karten empfohlen. Schon sehr bezeichnend, gell?
 
Zuletzt bearbeitet:
zeedy schrieb:
@JmGer, ein
Ach und kannst du vielleicht erklären, was du mit " Die Grafik scheint bei der 970er doch um einiges besser zu sein" meinst? :D
Ich meine, was hier im Test unter 3. und 13. als verbesserte Bildqualität erklärt wurde. Bei PCGH haben Sie auch Einzelbilder hochgeladen. Ich finde das recht überzeugend. Bisher dachte ich immer, dass besonders solche Kantenflimmereffekte an der Programmierung eines Spiels lagen. Scheint sich mit den neuen NV-Karten aber hardwareseitig komplett zu erledigen.
 
Zurück
Oben