Test Grafikkarten von Nvidia im Test: GeForce GTX 460, 560, 660, 760, 960 & 1060 im Vergleich

Precide schrieb:
Im Gegensatz zu früher bleiben meine Karten jetzt höchstens 1 Jahr im Rechner.
Bis da der VRAM knapp wird, habe ich schon 2x das Modell gewechselt. Heute interessiert mich nur noch Stromverbrauch und Wiederverkaufswert. Und beides ist bei AMD schlecht.

Da hat jmd zu viel Geld ...

Und schau mal nach aktuellen Tests ( Dez 16, Jan 17) nach dem Stromverbrauch der RX480 ... so viel mehr als die 1060 brauch die gar nimmer
 
@M4deman
Vielen Dank für die Zusammenfassung der Ergebnisse. Ich wäre dafür, dass Wolfgang das in einem extra Artikel vielleicht auch mal tut. Dann kann man die Diskussion, welche Karten besser altern dorthin verschieben.

Allerdings bringt diese auch nicht so viel. Ja, ich freue mich, dass die 7870 (GHz), für die ich mich damals entschieden habe, und minimal teurer war als die 660, dieser heute so weit davon eilt, dass ich mit weniger Abstrichen auch aktuelle Spiele spielen könnte. Allerdings spiele ich keine aktuellen Spiele, da ich in der wenigen Zeit, in der ich mal spiele eher meinen Pile of Shame bei Steam runterspiele, für die die Karte reicht, und überlege, wenn ich mich dann doch mal RoTR oder DE:MD zuwende ein Upgrade mache. Und das heutige Ergebnis war vor 4 Jahren wohl eher nicht abzusehen. Fast niemand muss sich HEUTE mehr zwischen einer 660 oder 7870 entscheiden, allenfalls interessiert es jemanden, der gerne 4-5 Jahre alte Karten gebraucht kauft.

Die spannende Frage ist, wie die aktuellen Karten altern werden? Die AMD Karten haben davon profitiert, dass GCN in den Grundzügen gleich geblieben ist, d.h. Anpassungen bei den Spieleentwicklern und in den Treibern kamen allen Karten zu gute. Vega ist eine grundlegendere Überarbeitung der Architektur, daher könnte man vermuten, dass, wenn man einen gleichen Test in 4-5 Jahren, die gesammelte GCN-Riege Federn lässt. Was aber nicht heißt, dass das bei aktuellen NVidia-Karten nicht auch so sein kann.
 
Ich habe die tabellarische Zusammenfassung noch mal überarbeitet:

Alle Werte sind Computerbase.de entnommen

Anhang anzeigen 603322

Mein vorläufiger Schluss daraus:

Ab GCN holt AMD dann doch mit der Zeit noch einiges aus ihren Karten heraus und kann aufholen (RX480 zu GTX 1060), überholen (R9 270x zu GTX 760) oder den Vorsprung ausbauen (HD7870 zu GTX 660). Zum Teil ist die Leistungssteigerung schon beeindruckend. Allerdings fragt man sich, warum nicht gleich so? So ein wenig kauft man da doch die Katze im Sack.

Mit der GTX 460 hat NVIDIA den Vorsprung zur HD 5770 gehalten, mit der GTX 560 auf die HD6870 aufgeholt.

Ein wirkliches Fazit daraus fällt mir schwer. NVidia hat von Beginn eine gute Leistung mit ihren Produkten und bewegen sich ab Release scheinbar hart am Limit. AMD bietet auch gute Leistung zu Beginn und kann aber meist drauflegen, wodurch die Karten eventuell etwas langlebiger sind (zudem oft mehr VRAM). Die Zuwächse sind zwar zum Teil prozentual beeindruckend, in Einzelfällen macht das auch den Unterschied zwischen flüssig und mäßig spielbar aus. Aber in absoluten Zahlen gesehen ist das meist dann doch nichts, was mich vom Neukauf längere Zeit abhalten würde. Ein, zwei Regler weiter nach links beheben den Missstand erstmal.
 
Steff456 schrieb:
.. da das Einkommen mehr als die Inflation gestiegen ist und sich damit das Realeinkommen erhöht hat. Daran denkt aber wieder keiner.

ähm...auf welchem planeten?
die inflation war in den letzten beiden jahren und 2009 sehr moderat - dafür '07, '08, '11, '12 sehr deutlich über 2, bzw. 2,5%
dagegen ist z.b. bei den löhnen in der industrie/maschinenbaubranche _seit_ '09 eine lohnerhöhung um 4,2% (insgesammt!!) erfolgt; dazu noch vor allem bei den führungskräften/gutverdienern mit ca. 4,7% überdurchnittlich gut. das ganze stand mitte 2016 - also ca. 0,6% per anno.
wer rechnen kann merkt dass die reallohnentwicklung mit sicherheit kein wachstum erfahren hat - und das bereits ohne effekte wie die kalte progression...
(wenn man das ganze noch im niedriglohnsektor durchspielt ist es geradezu ein witz von reallohnsteigerungen zu sprechen.. ;) )

ich weiss dass das offtopic ist - aber die entsprechenden daten und zahlen kann man alle mit minimalem aufwand alle ergoogeln..z.b. bei statista.de - insofern kann ich das märchen kaum unkomentiert lassen..

zum tehema selbst. ja..der euro hat gegenüber dem dollar in den vergangenen jahren ordentlich federn lassen - und zusammen mit der inflation ist der effekt in der tat nicht unerheblich. allein die inflation macht seit 2010 rund 7,5% aus - wechselkursbereinigt wohlgemerkt!
auch bedenke man dass der euro mitte märz 2014 noch bei knapp unter 1,40 dollar stand! (im april 2008 waren es sogar knapp unter 1,60!!) - und heute irgendwo um 1,05-1,08. ich merke es bei meiner firma wenn wir entsprechende halbleiter und arm-soc's einkaufen....

hinzu kommen dann noch die höheren produktionskosten für finfet 16nm und ausbleibede konkurenz im bereich über der rx480 und gtx1060- und schon hat man den aufschrei ob der gier bei einem auf gewinn ausgerichtetem unternehmen...

ich veteidige nvidia hier keinesfalls, aber es ist angebracht mal einen schritt zurückzutreten und du verstehen wie der markt funktioniert...

den vergleich finde ich sehr interessant...eine leistungssteigerung um faktor 4,5-5 in rund 6-7 jahren ist schon beeindruckend.
 
Waren 2010 nicht mehr 22 Zoller vertreten ? Und 1GB Vram hat damals gereicht. Dass die Entwicklung mit dem Vram Verbrauch mit den Jahren so stark nach oben geht, ohne im selben Masse sichtbare grafische Verbesserung, konnte damals auch wohl kaum einer ahnen.
Das allerschlimmste war ein plötzlicher Umstieg auf DX11, ohne DX9 oder zumindest DX10 anzubieten.

Die propagandierte niedrige Preise der RX 480 und GTX 1060, sind nicht eingetreten. War mir zu teuer, also habe ich eine gebrauchte GTX 780 gekauft. Von dem viel zu knappen Vram (3GB), spüre ich nichts. Fallout 4, Crysis 3 oder der neuste Skyrim, verbrauchen 1,7-2,2gb.
 
"Stromverbrauch mehrfach gesenkt" zwar soweit korrekt (2x), aber er wurde auch 3x erhöht. Bei zwar angesprochener Leistungssteigerung um 450%, aber absolut ist es halt doch "mehr Verbrauch".

Was würde eine Nvidia oder AMD aktueller Generation jeweils leisten, wenn sie nur die Leistung einer GTX460 oder 5770 verbrauchen dürften?
 
Sind auch keine so aktuellen Titel mehr. Spiel mal Rise of the Tomb Raider mit sehr hohen Texturen... :P
 
kleinstblauwal schrieb:
@M4deman
Die spannende Frage ist, wie die aktuellen Karten altern werden? Die AMD Karten haben davon profitiert, dass GCN in den Grundzügen gleich geblieben ist, d.h. Anpassungen bei den Spieleentwicklern und in den Treibern kamen allen Karten zu gute. Vega ist eine grundlegendere Überarbeitung der Architektur, daher könnte man vermuten, dass, wenn man einen gleichen Test in 4-5 Jahren, die gesammelte GCN-Riege Federn lässt. Was aber nicht heißt, dass das bei aktuellen NVidia-Karten nicht auch so sein kann.

Das könnte passieren, aber nur eines - ganz sicher wird der große Vega eine gute Entscheidung sein, wenn du 4-5 Jahre die Karte nutzen willst. Denn Vega wird wieder so viel theoretische Rohleistung bringen dass da die 10-15% Zuwachs über die Zeit realistisch erscheinen.
 
Zuletzt bearbeitet:
Tach,

Schön mal die Entwicklung von beiden zu sehen...

Frag mich gerade wann hier Stagnation Eintritt.
So wie quasi von Intel seit sandy.
Oder ob hier immer so große Sprünge durch neue Technologien geschafft werden.
Taktsteigerungen werden irgendwann in einer Technologie sicherlich nicht mehr gehen, ohne wieder massiv den Energie verbrauch in die Höhe zu treiben.


Mfg
 
Gorby schrieb:
Die GTX 460 werkelt bei mir immer noch :)

Naja, jetzt ist sie aber wirklich nur noch eine bessere HTPC/Office-Karte, spielen macht damit keinen Spaß mehr.

Also ich finde nicht das die 460 für einen HTPC/Office PC Sinn macht. Das war die letzte Generation ohne jegliche Stromsparmechanismen und läuft immer mit vollem Takt
 
Edelhamster schrieb:
Voll gut, im Vergleich zwischen dem heutigen Nvidia-Mittelklasse und dem gestrigen Radeon-Mittelklasse Test, liegen die Radeon ja durchgehend vor den Nvidia-Karten.
Guckt euch mal an wie eine GTX660 gegenüber einer HD7870 abloost. Beide von 2012. Die 660 ist 50-60% hinter der Radeon.
Die GTX960 liegt auch schon deutlich hinter einer Radeon 380.
Defintiv wieder mal ein Beleg dafür, dass AMD-Karten bedeutend besser altern.

Wenn ich mir die heutigen Benchergebnisse beider Test´s ansehe, dann aber in Erinnerung rufe wie Nvidia die letzten Jahre von Medien wie Computerbase oder PCGH gepusht wurde, verlier ich ein Stück mehr den Glauben an eine neutrale Berichterstattung.
In 9 von 10 Benchmarktest´s zu neuen Games hat/hatte Nvidia die Nase vorn, heute kriegt man von CB dann solche Ergebnisse vorgesetzt wo die Radeon ganz klar als Sieger vom Platz gehen.

Macht euch mal beide Artikel nebeneinander auf und vergleicht selbst, wurden ja die gleichen Games getestet. Ich fühle mich über Jahre hinweg fehlinformiert!
@CB: Fangt endlich mal an und testet Games mit vernünftigen Settings und/oder leistungsoptimierenden Setting-Empfehlungen, was für uns Leser wirklich eine bereichernde Information darstellen würde.
Ihr seit diejenigen die am meisten dafür mit verantwortlich sind, dass Nvidia uns Gamern immer mehr Kohle aus der Tasche zieht. Really Bad!

Das ist der Grund wieso ich nach meiner 660 als nächstes mit Sicherheit keine NV Karte kaufen werde.
 
Hannibal Smith schrieb:
Und schau mal nach aktuellen Tests ( Dez 16, Jan 17) nach dem Stromverbrauch der RX480 ... so viel mehr als die 1060 brauch die gar nimmer

Wenn man die Vergleiche von Heute NVidea und gestern AMD als Referenzpunkt nimmt (sofern bei beiden Tests der selbe Unterbau verwendet wurde), sind es ziemlich genau 50w Unterschied. Das finde ich gar nicht "so" wenig. Damit kann man immer hin einen 2 Monitor befeuern.
 
PCTüftler schrieb:
Also ich finde nicht das die 460 für einen HTPC/Office PC Sinn macht. Das war die letzte Generation ohne jegliche Stromsparmechanismen und läuft immer mit vollem Takt
Nö,stimmt so nicht.Meine 460 taktet im Idle wunderbar runter auf:50/100/135
 
So und jetzt das ganze bitte nochmal mit allen jeweils erwerbbaren 3dfx Voodoo Karten. :D
 
tomasvittek schrieb:
kurzer fakten check: CB (oder war das PCGH?) postet vor ein paar tagen einen ausführlichen Test in dem ganz klar vom Redakteur das Fazit gezogen wird das nvidia die Treiber NICHT extra schlechter macht. ein paar tage später posten schon wieder die selben "AMD-Fans" das nvidia die Treiber schlechter macht...

ist das die Definition von "alternativen fakten"?

Sie werden aber auch nicht besser gemacht ;)

Zu deiner ERguss von wegen AMD Trolle etc...schau mal in die AMD News, da ist es doch immer genau anders herum.
Ist egal in welcher GPU News man sich die Kommentare anschaut, es sind immer Trolle von beiden Lagern unterwegs. Und das ist halt auch nicht erst seit heute so.

Mir ist grundsätzlich egal was für eine Karte ich im Rechner habe, Hauptsache das P/L stimmt. In den letzten Jahren war es halt AMD (HD 5770, 6870, R9 280X und R9 290x bis heute). Vor der 5770 hatte ich eine 8800GTS 640MB und davor..keine Ahnung. Auch Nvidia meine ich.
Aktuell finde ich AMD halt Sympatischer, vor allem weil auf open Source gesetzt wird, es keine Krüppelspeicher gibt die verschwiegen werden und auch die Freesyncmonitore günstiger sind, da kein proprietäres Modul verbaut werden muss für G-Sync.
Die Leistung bei Nvidia ist natürlich aktuell deutlich höher weil AMD die Vega Karten noch nicht auf dem Markt hat. Eine Aufrüstung würde sich aktuell nur auf eine 1080 lohnen die natürlich auch verdammt gut performt. Bislang reicht meine 290x aber noch aus und ich will abwarten was AMD noch so bringt.
Evtl. wird Vega ja auch scheiße, dann würde ich auch überlegen mal wieder auf Nvidia zu setzen.
Bei Spielen wie BF1 ist aber aktuell eh mein i5 3570k @ 4,2Ghz der Flaschenhals.
 
Maddiner schrieb:
Das sind doch meistens nur AMD Anhänger die aus dem Grund weil Nvidia meilenweit vorne ist, stänkern wollen, nichts anderes, daher erzählen sie aus Missgunst dass Nvidia ihre Treiber nicht updatet und erfinden das und verbreitet es.

Postfaktisch.

Wer hat bitte wo behauptet, dass Nv seine Treiber nicht updated? :lol::freaky:
 
M4deman

Danke für deine Zusammenfassung.


Edelhamster schrieb:
Guckt euch mal an wie eine GTX660 gegenüber einer HD7870 abloost. Beide von 2012. Die 660 ist 50-60% hinter der Radeon.
@CB: Fangt endlich mal an und testet Games mit vernünftigen Settings und/oder leistungsoptimierenden Setting-Empfehlungen, was für uns Leser wirklich eine bereichernde Information darstellen würde.

Das hat mich auch erstaunt, das mit der GTX660 zur HD7870.

Settings: Das stört mich schon seit langem. Ist ja nicht nur bei CB so. PCGH ist da noch schlimmer. Da wird oft über FullHD+ Ultra Settings getestet, was laut Steam nur 2% benutzen (FullHD).
Einerseits gibt es diese Ultra Settings und man muss diese auch testen. Aber nicht jede Grafikkarte ist dafür ausgelegt. Sieht man sehr gut bei der AMD RX 460, wo AMD im Vorfeld schon gesagt hat "ist für E-Sport" etc.

Einsteiger- Karten sollte man generell nur mit reduzierten Settings testen (mittel- hoch)+ Tipps geben was man am besten einstellen sollte im Menü. Bei der Mittelklasse könnte man alles beides anbieten (Hoch- Ultra), darüber alles auf Ultra.
Der Witz ist, das die Einsteigerkarten deutlich an Leistung gewinnen! Bei fast keinen optischen Einbußen. Komme eh viele Ports/ Multigames raus. Wird meistens eh alles soweit runtergedödelt das es auf der Konsole läuft und dann ein wenig angepasst für PC. Zumindest ist das bei der Masse so.
Aber so zu testen würde noch mehr Zeit in Anspruch nehmen. Das will man aus verschiedenen Gründen nicht. So wie andere Tester argumentieren, glaube ich die werden nach Stunden bezahlt.
Sei es drum, man möchte sich auch einfach nicht die Arbeit machen, bin ich mir sicher. Das sich da manche User "fehlinformiert sich fühlen" wie du sagst, dürfte die wenig interessieren.
Dann kommt auch so was raus (durch die Tests mit Ultra Einstellungen) das in den Kommentaren steht "ey, kommt nicht über 60 fps die Karte ist Schrott".
Das mit den 60fps ist auch ein Vermächtnis eines Testes vor sehr langer Zeit, wo gezeigt wurde, wieviel Fps man in einem sehr schnellen Shooter braucht um flüssig spielen zu können.
Seit dem liest man oft in den Foren von den fatanstischen "60fps" Gedöns. Differenzierung das man das nicht bei allen Games das brauch? Fehlanzeige.
Viele von diesen Usern wissen gar nicht was nicht High End Hardware alles so leisten kann.
 
Zuletzt bearbeitet:
tomasvittek schrieb:
kurzer fakten check: CB (oder war das PCGH?) postet vor ein paar tagen einen ausführlichen Test in dem ganz klar vom Redakteur das Fazit gezogen wird das nvidia die Treiber NICHT extra schlechter macht.

Fakten check: der Artikel betrachtete 1,5 Jahre der Treibergeschichte, mehr nicht. Heißt faktisch, dass das Fazit sich auf die letzten 1,5 Jahre bezog. Viele baten in den Kommentaren darum, die Betrachtung auszuweiten, sodass diese über einen längeren Zeitraum nachvollziehbar ist. Das würde noch mehr bestätigen, das Nv nicht absichtlich ältere Karten mit neuen Treibern ausbremst oder eben das Gegenteil beweisen.

Aber das waren ja alles nur AMD Fanbyokommentare, die Nvidia unterstellen, gar keine Treiberupdates mehr zu fahren...

Edith: der Artikel den du meinst: https://www.computerbase.de/2017-01/geforce-treiber-test/
 
Zurück
Oben