Test GeForce GTX 980/970 im Test: Nvidia Maxwell 2.0 für High-End ist da

Jetzt lass ich mal auch ab was ich zu den neuen Karten denk.
Erstmal danke für den test @CB. Und respeckt an NV die sind ganz hüpsch geworden.
Ich Halt es für beeindruckend das NV eine Karte rausbringt deren Haubtmerkmal nicht mehr Leisung, sondern bessere Effizienz und niedriger Verbrauch ist.
Da zieh ich meinen Hut. Und ich find es gut. Da wird es jetzt Interresant ob AMD Dasselbe macht oder mehr performance bietet.
Aber das wird man dann ja hoffentlich im Dezember oder so sehen.
Was mich noch positiv überrascht ist die hohe leistung in OpenCL. (Wo NV bisjetzt immer AMD unterlegen war.
Das sind sie denk ich noch immer, oder auch wieder wenn die neue AMD generation draußen ist aber es ist ein sehr deutlicher Fortschritt.

Ich denk mal ich werd mir dann eine 960 oder 960Ti kaufen. Leider haben die dann laut gerüchteküche nur 2Gb RAM. Grund CUDA/Blender Cycles. Bis openCL nen Debugger hat und man damit schnell und leicht Programmieren kann wird es wohl noch brauchen.
Aber warscheinlich wart ich bis die gegenkarte von AMD da ist. (das wird wohl laut gerüchen mitte nächstes jahr).
Und ich hab die hoffnung das die 960 dann auf dem niveau der 280 liegt. (halt ich für realistisch.)

Zu 4k will ich noch loswerden das ich mal in nem Tim Sweeney interview gehört habe das für anständiges 4k Gaming ca. 13.000 GFLOPS nötig sind. Bis das auf einer Karte möglich ist muss man wohl noch eine weile warten.
Ich persönlich werde mich die nächsten jahre mit HD begnüden. (beim zocken)
Ich hab ein SLI system und will in zukunft keins mehr haben. Will nicht immer die heizung ausmachen müssen wenn ich zock ;)
Aber die 970 halt ich für eine echt gute karte. 980 ist natürlich recht teuer, aber das ist ja schon immer so wenn man das BESTE haben muss. Bitte!

Und an CB bitte testet mehr midrange karten. Die sind werden ja zumindest nachdem was ich gehört habe Das worum es geht. (Der mehrheit der käuferschaft.) Das ihr in dem test bei z.B. Dem computing die 970er nicht drinnen habt nervt mich. Was ist da los? Hat NV die driver noch nicht soeit oder wollen die aus irgend einem andern grund nicht das ihr die zahlen veröffentlicht? Das würde mich echt interresieren.
Der neue Artikel zu den low end karten gefällt mir auch recht gut. Leider haben die aber einfach nicht genug leistung IMHO. Aber wenn 960 960TI und 370 370X rauskommen nehmt die dinger bitte genau unter die lupe. Nicht nur so nen schnellen test.
 
Zuletzt bearbeitet:
Und ob CB unabhängig berichtet ist auch fraglich ... vielleicht hat NVIDIA CB dafür bezahlt (reine Fiktion, keine Unterstellung!), um eventuell besser dazustehen?!?

Würden wir NV alle Wünsche erfüllen wollen, hätten wir auf ComputerBase zuletzt x Mal über ihr #Game24-Event berichtet und im Test G-Sync, GameWorks und Nvidia Experience breitgetreten. Aus unserer Sicht hatte aber all das nichts mit dem eigentlichen Thema zu tun und wir haben es gelassen.
 
["Geblubber von wegen Preise ist [...] Unsinn"]

hrafnagaldr schrieb:
Ist es nicht. Bei meinem Nutzungsprofil (3,5h zocken am Tag) und einem durchschnittlichen Mehrverbrauch von sagen wir mal 80W(980 vs. R9 290X) bräuchte es gut 5 Jahre, bis sich die Preisdifferenz zu einer R9 290X / 780Ti amortisiert hat.

Du reduzierst das Preis- Leistungsverhältnis einzig auf FPS/€. In der Praxis sind jedoch andere Faktoren ebenfalls mit ein zu beziehen. Zum Beispiel falls Du Dein Gehör noch nicht völlig lobotomiert hast wirst Du den Unterschied zwischen 150W die per Lüfter abgeführt werden und 250W die per Lüfter abgeführt werden sehr wohl hören. Jeden Tag, sobald die Karte was zu tun hat.
Gegenprobe: NVIDIAs bisherigen DX11.0-Sondermüll hätte ich nicht einmal geschenkt genommen. (naja, geschenkt schon :-). Andere haben dieses oder jenes Spiel, Mantle oder CUDA das sie mit in die Rechnung einbeziehen.

Fanboy ist in meinen Augen wer immer nur das ihm gerade in den Kram passende Argument ein- und alle anderen ausblendet. Also einige hier. Vermutlich sogar jeder von uns immer wieder mal :-)
 
hrafnagaldr schrieb:
Ist es nicht. Bei meinem Nutzungsprofil (3,5h zocken am Tag) und einem durchschnittlichen Mehrverbrauch von sagen wir mal 80W(980 vs. R9 290X) bräuchte es gut 5 Jahre, bis sich die Preisdifferenz zu einer R9 290X / 780Ti amortisiert hat. Also ist die Karte fürs gebotene zu teuer. Auch wenn sie ein feines Stück Technik ist. Länger als 3 Jahre hatte ich noch keine Karte genutzt, zwei Jahre sind realistischer.

P/L passt einfach nicht. Und das muss man ansprechen dürfen. Die Rechnung gilt ebenso für die 780 statt der R9 290X. Gegenüber der 780TI hätt ich die 980er wohl so in zwei Jahren amotisiert, ausgehend von den aktuellen Preisen.

Ja aber wenn du so sehr auf ein gutes Preis-Leistungs Verhältnis wert legst frage ich mich schon, warum du dir gerade die Karten anschaust, die das schlechteste haben? Und da gehört die R9 290X dazu, denn gegenüber ner normalen R9 290 bekommst du vllt. 5% mehr Leistung darfst aber 100€ mehr hinblättern. Wo ist da der Gegenwert für die höheren Kosten?

Spitzen-Karten waren schon immer schlecht was das Preis-Leistungs Verhältnis betrifft. Die hersteller lassen es sich eben gerne vergolden auch noch das letzte Quäntchen Leistung zu bekommen und auch AMD lässt sich die Performance Krone teuer bezahlen, so sie es denn mal an der Konkurrenz vorbei schaffen. Ich kann mich noch an P4 Zeiten erinnern als wir alle über 600€ für ne gescheite DualCore-CPU zahlen durften.

Tatsache ist, dass die GTX 980 momentan die schnellste Karte ist und das lässt sich NVidia gut bezahlen. Tatsache ist auch, dass eine GTX 970 im Schnitt schneller als eine R9 290X ist und gleichzeitig weniger kostet. Wenn du das in Relation setzt, dann ist eine GTX 970 vom Preis-Leistungs Verhältnis her in etwa genau so gut bzw. schlecht wie eine R9 290.

Auch dass es sich bei den Karten nur um verkappte Mittelklasse Modelle handeln soll kann ich nicht mehr hören. Und dass das alles Betrug ist und Abzocke. Klar ist natürlich alles eine riesen Verschwörung von NVidia, der NSA und den Illuminaten. Eigentlich hätte NVidia nur den GM204 auf GM210 umlabeln müssen und alle wären glücklich gewesen. Denn dann ist es ja ne Highend Karte steht ja GM210 drauf und dann ist es auch in Ordnung wenn man so viel Geld dafür verlangt.
Kapiert ihr eigentlich, dass es nicht um den Namen geht, sondern darum was die Karten bieten? Meinetwegen dann nennt die Karte halt GTX 960 ... und? Wird sie deswegen besser oder schlechter?

Edit: Und nur weil einem die Ergebnisse nicht passen Computerbase und etlichen anderen Redaktionen Käuflichkeit vorzuwerfen ist eine Beleidigung für all die Leute, die sich viel Arbeit mit den Tests gemacht haben, um uns allen ein möglichst gutes objektives Bild von den Karten zu verschaffen. Da drängt sich mir immer die Frage auf, ob die Leute die solche Kritik äußern genauso selbstkritisch ihre eigenen Entscheidungen und Kommentare reflektieren können.
 
Zuletzt bearbeitet:
Intelio schrieb:

Was bist du denn für ein Kasper. Auf was sollte man sich denn sonst verlassen. Troll dich mal bitte wieder zurück in dein Loch aus dem du gekommen bist. Vor allem, wenn der Referenzkühler leiser ist warum sollte ich zu nem lauteren Modell greifen? Richtig weil du dich lieber von Marken blenden lässt. Wo hast du das denn mit den 0,7 Sone her? Hast es selbst gemessen? Sicher nicht. Die Info hast du bestimmt von dem PC-Games (jetzt kommts) ->Test<-

Solche Typen wie du sind herrlich und versüßen mir den Tag.

@hrafnagaldr

Lass die Wurst reden, mit seinen 14 Jahren kriegt er solche Rechnungen noch nicht hin ;)
 
Zuletzt bearbeitet:
hrafnagaldr schrieb:

Die R9 290X hatte zum Release auch eine UVP von 549,- USD.
http://ht4u.net/reviews/2013/amd_radeon_r9_290x_hawaii_review/index13.php
http://geizhals.at/de/?phist=1049898

Das man die 290X jetzt gut ein Jahr später und angesichts der erdrückenden Übermacht der neuen Maxwells,
sehr viel günstiger bekommt ist der normale Gang der Dinge.

Wie soll AMD auch sonst noch am Markt bestehen, wenn ihre Produkt mit nichts als über den Preis mithalten können?!
 
Jan schrieb:
Würden wir NV alle Wünsche erfüllen wollen, hätten wir auf ComputerBase zuletzt x Mal über ihr #Game24-Event berichtet und im Test G-Sync, GameWorks und Nvidia Experience breitgetreten. Aus unserer Sicht hatte aber all das nichts mit dem eigentlichen Thema zu tun und wir haben es gelassen.
Nicht nur das. Wenn Nvidia CB bazahlen würde, würde im Grafikkartentest keine AMD 295X2 mit weitem Abstand ganz oben stehen. Wenn Nvidia CB bezahlen würde, wo sind dann die letzten beiden Quartalszahlen News von Nvidia hier auf CB. Schließlich hat Nvidia wieder einmal gute Zahlen vorgelegt und die Aktie kennt seit Monaten nur den Weg nach oben.
Warum werden in dieser Fiktion der nicht Unterstellung, CB wäre gekauft, diese Punkte nicht mit berücksichtigt?
 
Ich muss sagen, dass die Wiederverwendung des Kühlers sehr zur Wertigkeit der Karte beiträgt. Das nun auch wieder eine Backplate aus Metall dabei ist und der DVI Port verkleidet ist, erinnert an die GT200 Generation, die imho, neben der 9800GX2, die Speerspitze war. Schade nur, dass die Vapor Chamber eingespart wurde. Die Chance auf eine extrem leise Karte wurde so vertan. Weiß jemand, ob der Kühlkörper der 780ti, Titan passt? Schade auch, dass nicht die 20nm Struktur hier genutzt wurde. Beim GM100, oder wie er heißen mag, lässt das auf 15-16 Milliarden Transistoren hoffen.

Edit:
Den DVI Port selbst hätten sie auch gleich ganz weglassen sollen. Kabelpeitsche mit Adapter dabei und gut.
Das würde den Gegendruck im Kühlsystem noch weiter reduzieren. Je offener das Slotblech desto besser.
 
Zuletzt bearbeitet:
In der Tabelle auf Seite 4 sind immer noch ein paar Fehler:

Die Gigabyte 970 ist niemals nur 27cm lang und wenn ich noch bis drei zählen kann, dann hat sie auch mehr als 2 Lüfter. ;)
 
Kenneth Coldy schrieb:
(...)geplante 970 bei Last 100 W mehr zieht als angegeben dann verläßt sie damit doch (?) die Spezifikation des PCIe für 2x6pin und überlastet eventuell mein 450W Netzteil. Als bisheriger AMD Nutzer rechne ich natürlich damit das OpenCL in den nächsten 6 Jahren groß durchstartet und dann wirklich und im Reallive mal die eine oder andere Aufgabe in die GPU verlagert wird.

Kurzum: Ich bin verunsichert weil ich keine Erfahrungswerte habe. Das ich nicht in Panik bin bzw. die 970 abschreibe liegt daran das ich Toms Lügenguide schlicht nicht vertraue.
Was soll das? Warum nennst du es andauernd Lügenguide? Dann vergiss halt den Test von TH und erfreue dich an den relativ kurzen Gamingaufnahmebalken....

Übrigens was ich ziemlich interessant finde, die 980 'max' ist laut CB nur 5% schneller als 980, zieht aber mal eben 50W mehr.

Wurden denn Thief und BF4 mit Mantle getestet? In Thief ist die 290X im Uber Mode langsamer als die ref 780, und das kann irgendwie nicht sein.
 
Kenneth Coldy schrieb:
["Geblubber von wegen Preise ist [...] Unsinn"]

Du reduzierst das Preis- Leistungsverhältnis einzig auf FPS/€. In der Praxis sind jedoch andere Faktoren ebenfalls mit ein zu beziehen. Zum Beispiel falls Du Dein Gehör noch nicht völlig lobotomiert hast wirst Du den Unterschied zwischen 150W die per Lüfter abgeführt werden und 250W die per Lüfter abgeführt werden sehr wohl hören. Jeden Tag, sobald die Karte was zu tun hat.

Für mich auch irrelevant. Entweder höre ich beim Zocken Metal aus meinen Behringer MS40 oder ich hab ein Headset auf. Zudem hab ich einen schallgedämmten Define XL R2. Die Lautstärke unter Last war für mich auch nie ein Kriterium. Meinen PC hab ich während ich zocke noch nie gehört, egal welche Grafikkarte drin war. Außerdem gibt es genug Custom Kühllösungen, die die Wärme auch so leise abführen können.
Ergänzung ()

Amok-Sepp schrieb:
Das man die 290X jetzt gut ein Jahr später und angesichts der erdrückenden Übermacht der neuen Maxwells,
sehr viel günstiger bekommt ist der normale Gang der Dinge.

Die Karten sind günstiger weil schon lange am Markt und waren das schon vor Maxwells Erscheinen. Die sind nicht erst exakt gestern im Preis gefallen, schon deren Einstiegspreis war vergleichsweise gering.
Und wenn ich zB die Furmark Werte bei Anandtech anschaue, liegen nur 30W zwischen GTX 980 und R 290X. Das amortisiert sich dann vllt. bis zu meinem 40. Geburtstag (bin 32).
 
Zuletzt bearbeitet:
Nochmals zum Performance Verlgleich zwischen 780 TI & 980.

http://www.pcgameshardware.de/Gefor...-Geforce-GTX-980-970-GM204-Maxwell-1136157/4/
http://www.overclock3d.net/reviews/gpu_displays/nvidia_gtx980_maxwell_review/11

Wenn ich mir diese beiden Tests anschaue, hier stehen nämlich auch die Taktraten bzw. Modelle, beschleicht mich das Gefühl, dass eine 780 TI doch nicht so schlecht in Bezug auf FPS aussieht?!

z.B. PCGamesHardware@Crysis 3: 780TI@928MHz = 32FPS; 980@1260MHz = 35,4
Takte ich jetzt die 780TI auf die Werte, für die sie auch zu kaufen gab (1150MHz) für 444€, ist die 780TI mit wahrscheinlich mindestens 37 FPS vorne?

Bei den anderen Benchmarks auf den beiden Seiten, ist es eigentlich unverändert! Also wo ist der Fehler? Immerhin sind die 1260MHz der 980er schon als "Gaming Ausgabe" beschriftet
 
Zuletzt bearbeitet:
Yein
- wobei DSR auch jetzt schon möglich ist und sobald es verbessert im neuem Treiber erscheint, wohl auch für ältere Karten?!
- Und MFAA macht auch nicht gleich bessere Bilder, kostet aber weniger Performance als MSAA. Ist natürlich trotzdem ein sehr guter Grund, aber (auch) das ist noch nicht erhältlich :)
 
Ich will jetzt ne AMD Karte mit 6gb Ram haben. Anfang 2015 muss es soweit sein.
Oder von mir aus die 990gtx...aber wann kommt die? Sommer? ...
 
Zuletzt bearbeitet:
Kenneth Coldy schrieb:
["Geblubber von wegen Preise ist [...] Unsinn"]

Du reduzierst das Preis- Leistungsverhältnis einzig auf FPS/€. In der Praxis sind jedoch andere Faktoren ebenfalls mit ein zu beziehen. Zum Beispiel falls Du Dein Gehör noch nicht völlig lobotomiert hast wirst Du den Unterschied zwischen 150W die per Lüfter abgeführt werden und 250W die per Lüfter abgeführt werden sehr wohl hören. Jeden Tag, sobald die Karte was zu tun hat.
Gegenprobe: NVIDIAs bisherigen DX11.0-Sondermüll hätte ich nicht einmal geschenkt genommen. (naja, geschenkt schon :-). Andere haben dieses oder jenes Spiel, Mantle oder CUDA das sie mit in die Rechnung einbeziehen.

Fanboy ist in meinen Augen wer immer nur das ihm gerade in den Kram passende Argument ein- und alle anderen ausblendet. Also einige hier. Vermutlich sogar jeder von uns immer wieder mal :-)

Auch wenn ich nicht hrafnagaldr bin, wollte ich mich hierzu aggA. doch noch mal äussern:

Das nutzt dir im Endeffekt aber alles nichts, wenn die Rohleistung einer Karte so schlecht ist, dass sie (je nach Bildeinstellungen/-Verbesserungen) z.T. 1,5 Jahre alte Spiele wie z.B. Tomb Raider (und auch andere, z.T. noch ältere Titel) nichtmal in Full-HD mit konstanten, sprich jederzeit flüssigen 60FPS befeuern/darstellen kann. Von Leistungsreserven für Verfahren wie Downsampling oder besser gleich echtem/nativen UHD in Verbindung mit High-Res-Texturen (die beiden Massnahmen die im Gegensatz dazu WIRKLICH eine signifikante, weil deutlich sichtbare Verbesserung der Bildqualität bewirken KÖNNTEN) braucht man da dann garnicht erst anzufangen, denn wo sollen denn die Leistungsreserven, um das dann noch stemmen zu können, bitteschön herkommen?! <- bei für die heutige Zeit/Anforderungen wiedermal lächerlich geringen 4GB Vram - wo bereits die Titan vor gut 1,5 Jahren immerhin 6GB bot - schon gleich garnicht <- zum Vergleich bieten selbst die beiden Next-Gen-Konsolen bereits 8GB shared Memory, im Gegensatz zu dem GTX 980-"Highend"-Speicherkastrat hier. <- seit der 8800GTX hat Nvidia nie wieder ein grosszügiges, üppiges Speicherpolster selbst bei ihren Flaggschiffen geboten. Anscheinend ist ihnen klar geworden, dass man die 8800GTX viel länger sinnvoll nutzen konnte, als ihnen im Sinne ihrer Gewinnmaximierung lieb war.)

Das Grundlegendste/Essentiellste, was ich persönlich von einer als "High-End"- und Performance-König in den Himmel gehypten und mit Auszeichnungen und Kaufempfehlungen überschütteten PC-Grafikkarte für über 500 € (eine Konsole kostet nichtmal 400 €) erwarte, sind Spiele, die mit hohen Bildeinstellungen, sprich optimaler Bildqualität jederzeit flüssig/ruckelfrei dargestellt werden können. (wozu selbstverständlich konstante 60fps nötig wären.)

Wenn das nicht gegeben ist, sind weitere Diskussionen über andere Features völlig sinnlos.... (das ist dann so, als würde ich über das schöne Geschrirr und die harmonische Tischdeko schwärmen, während darauf vergammeltes oder sonstwie qualitativ minderwertiges Essen serviert wird, um mal einen Vergleich zu bringen, wie lächerlich, weil verdreht das tatsächlich ist.)

Und um zu verdeutlichen, dass ich hier sehr wohl aus der Praxis berichte:

Ein technisch eigentlich anspruchsloses Spiel wie z.B. "Diablo 3" (micro)ruckelt und (je nach Bildeinstellungen) "teared" auf dem PC selbst mit einer GTX 780 und einem potenten, hochtaktigem 6-Kern-Prozessor immernoch munter vor sich hin, während z.B. die PS4-Fassung auf dieser gerade mal knapp 400 € teuren Konsole (die i.Ü. im 3D-Betrieb keineswegs störend/hörbar laut ist <- deutlich leiser als etwa eine GTX 780 im 3D-Betrieb.) mit jederzeit butterweichen, konstanten 60fps vor sich hinflutscht, dass es im Vergleich dazu eine wahre Freude ist, wo dann auch wirklich mal echter Spielspass aufkommen kann. Und das bei absolut identischer Bildqualität, welche der PC-Fassung in rein garnichts nachsteht (da ich sowohl die PC- als auch die PS4-Version bereits auf demselben TV unter denselben Bedingungen ausgegeben habe, kann ich das auch tatsächlich bewerten/einschätzen.)

Soviel also mal dazu!

Abgesehen von der im Vergleich zu einer GTX 780(i) oder Titan deutlich geringeren, lobenswerten TDP, somit sinkenden Stromkosten und Wärme - und in der Folge dadurch auch geringere Lautstärke-Entwicklung, kann ich angesicht der schwachen Rohleistung der GTX 980 sowie dem wieder mal mickrigen Vram-Polster weder den Jubel, der um diese Karte hier gemacht wird, noch die Auszeichnungen/Kaufempfehlungen, die sie erhält, in irgendeiner Art und Weise begründet sehen und nachvollziehen.

Performance-technisch ist diese Karte wieder mal eine volle Enttäuschung!
 
Schön das Nvidia mit der 970 mal wirklich ein P/L Wunder bringt und damit AMD auf einer Höhe steht.
Falls es jemanden interessiert, woher die wirklich exzellente Effizienz in Spielen herkommt, wird hier auf den Seiten 11-12 gut informiert. Das Maxwell unter konstanter Vollast so viel verbraucht wie Kepler erwartet man natürlich nicht. Fairerweise muss man natürlich sagen, dass diese Werte in Spielen sowieso nicht erreicht werden:

http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-11.html

Hoffe AMD wird in seine nächste GPU auch ein solch deutlich verbessertes Power Tune einbauen.
 
Zuletzt bearbeitet:
Killer3103 schrieb:
Schön das Nvidia mit der 970 mal wirklich ein P/L Wunder bringt und damit AMD auf einer Höhe steht.
Falls es jemanden interessiert, woher die wirklich exzellente Effizienz in Spielen herkommt, wird hier auf den Seiten 11-12 gut informiert. Das Maxwell unter konstanter Vollast so viel verbraucht wie Kepler erwartet man natürlich nicht. Fairerweise muss man natürlich sagen, dass diese Werte in Spielen sowieso nicht erreicht werden:

:confused_alt:
 
Zurück
Oben