Test Grafikkarten von Nvidia im Test: GeForce GTX 460, 560, 660, 760, 960 & 1060 im Vergleich

...mal am Rande. Unlängst hatte sich mal Jemand lustig gemacht, das ich noch mit einer R9 270X 4 GB zocke und in f. HD bei max Einstellungen zwischen 34 und 43 FPS zocke(The Witcher 3). Das würde nicht ausreichen um wirklich flüssig zu sein.
Nun viele Hardcore Gamer zocken mit wahnsinnig teurer Hardware auf 4 K auch mit kaum mehr als 35 FPS- komisch da ist diese lahme Bildrate plötzlich ganz ok und wird als flüssig empfunden. Aber MS war ja bei den neunen Konsolen genauso flott mit Sprüchen und bewarb das neue Teil mit garantiert 60FPS - ja als dann die neue Konsole bei vielen neuen Spielen kaum noch 35 FPS schaffte- dann waren plötzlich 30FPS auch noch als flüssig anzusehen und uneingeschränkt spielbar....Da ich nicht mehr wie 150 Euro für eine GPU ausgeben werde, würde mir auch ein Aufrüsten nichts bringen. Eine zweite 270X mit 4 GB wäre dann sinnvoller. Die bekomme ich für ca. 75 Euro bei Ebay.
 
Ap2000 schrieb:
In Sachen Durchschnitts-FPS vielleicht.
Aber meine Krüppelspeicherkarte hat leider immer wieder Probleme mit min. FPS und v.a. den Frametimes. Auch bei 50+ FPS. Hät ich sie nicht zu einem guten Angebot vor über einem Jahr bekommen, würde ich mich so richtig, richtig, richtig angeschissen fühlen.
Deshalb kann ich auch kaum mehr auf Vega warten.

Ich habe mein 970 nur verkauft, weil ich sie SEHR gut wegbekommen habe auf Kleinanzeigen.

Hatte eigentlich keine Probleme damit, immer einfach irgendetwas runtergeschraubt und dann hatte es gepasst.. ^^
 
Black&White schrieb:
Nicht wirklich, die RX 480 wäre auf jeden Fall eher zu empfehlen, es sei denn jemand stören 15 Watt mehr Verbrauch....

Wenn es nur 15 wären, aber selbst der CB Vergleich sagt schon, dass es 50 sind. Wobei 50 nicht mehr so irrelevant sind. Das kann bei Viel-Zockern schon 20€ im Jahr ausmachen. Die man betriebswirtschaftlich gesehen, dann auf den Anschaffungspreis im Vergleich zur GTX1060 aufschlagen muss. Erschreckend fand ich den Test in dem eine msi rx480 gaming 100w mehr als eine gtx1060 verbraucht haben soll. Was ich mir allerdings nicht vorstellen kann.
 
tensai_zoo schrieb:
Wenn es nur 15 wären, aber selbst der CB Vergleich sagt schon, dass es 50 sind. Wobei 50 nicht mehr so irrelevant sind. Das kann bei Viel-Zockern schon 20€ im Jahr ausmachen. Die man betriebswirtschaftlich gesehen, dann auf den Anschaffungspreis im Vergleich zur GTX1060 aufschlagen muss. Erschreckend fand ich den Test in dem eine msi rx480 gaming 100w mehr als eine gtx1060 verbraucht haben soll. Was ich mir allerdings nicht vorstellen kann.

Dann lieber 20 Euro im Jahr mehr ausgeben und sicher sein das die Karte zukunftsfähig ist. Wenn man Pech hat muss man mit Nvidia eine Generation früher wechseln um sein lieblingsspiel spielen zu können. 20% können sehr deutlich zwischen gut spielbar und gar nicht spielbar entscheiden. Da zahlt man die 20 Euro doch gern und hat ein ruhiges Gewissen.

Die Kosten früher Update zu müssen holt man nicht mehr rein, ganz zu schweigen vom Ökologischen Schäden der der Updatewahn mit sich bringt!
 
Zuletzt bearbeitet:
Wobei 50 nicht mehr so irrelevant sind. Das kann bei Viel-Zockern schon 20€ im Jahr ausmachen.
Um das in zahlen zu fassen wer täglich 5 Stunden Zockt der kann im Jahr ganze 20€ Sparen.

Eben beim Stromverbrauch geht es nicht um Geldsparen sondern eher um die Einstellung zur Umwelt
:lol: Der war gut.
Natürlich geht es dabei um die Umwelt, so verbrennt man immerhin etwas weniger Energie bei einer Beschäftigung die alleine der eigenen Unterhaltung dient.
 
Zuletzt bearbeitet:
Eben beim Stromverbrauch geht es nicht um Geldsparen sondern eher um die Einstellung zur Umwelt. selbt 100 € sind im Jahr nichts. Wenn man dafür Spaß hat.
 
Zuletzt bearbeitet: (Hätten 100 € statt 10 € sein sollen ;))
Ich schätze meine Umwelt auch aber bei 30/40 Watt für mein Hobby, ist für mich der Stromverbrauch eher unwichtig. Gibt bestimmt viele noch mit Glühbirnen da draußen, die ballern deutlich mehr weg als meine Graka. Man kann woanders deutlich mehr Geld sparen & umweltfreundlich leben (Auto/Essen/Urlaub)
 
Black&White schrieb:
Ich schätze meine Umwelt auch aber bei 30/40 Watt für mein Hobby, ist für mich der Stromverbrauch eher unwichtig.
Nach ja eine GPU mit ihren seltenen Erden und der Waverproduktion die Unmengen an Energie kostet ist man auch vorne mit dabei wenn es um Umweltsünden geht, darum ist es umweltfreundlicher eher später upzudaten. Deshalb ist hier Nvidia eindeutig der größere Umweltsünder.
 
Zuletzt bearbeitet:
Die Herstellungsenergie ist vernachlässigbar. Es wird hier nicht nur eine Karte hergestellt sondern tausende. Dazu kommt große Chips welche Fehler haben werden idR zu kleineren. So ist jeder i3 z.B. mal ein i7 gewesen. Nach der Qualitätsicherung aber hat sich herausgestellt das etwas nicht stimmt und er wurde zu etwas kleinerem ergo ist die Energie nicht umsonst gewesen.

Die "seltenen" Erden sind auch gar nicht so selten. Daher auch vernachlässigbar.

Selbst wenn, wie gesgat das System 100 € mehr wegen der GPU nutzt ist es immer noch Umweltschonender als ein Rennwochende einer beliebigen Motorsportserie.
 
Computerspielen ist noch ein relativ billiges Hobby. Beim Stromverbrauch interessiert doch eigentlich die im selben Maße produzierte Abwärme mehr. Je mehr Stromverbrauch, desto aufwändiger die Kühlung, oder bei gleichem Aufwand, desto lauter.
 
ampre schrieb:
Ich glaub du bist nicht auf dem laufenden was seltene Erden angeht:

http://future.arte.tv/de/seltene-erden?language=de
Was die Häufigkeit / die Vorkommen der seltenen Erden angeht hat Cool Master recht. Sie sind nicht so selten, nur weil sie so heissen. Allerdings wird das Angebot überwiegend künstlich verknappt. China und auch Australien machen das immer wieder ganz gerne, aber vor allem die entsprechenden Rohstoff gewinnenden und weiterverarbeitenden Unternehmen, um die Preise oben zu halten (überwiegend indem der Abbau / die Weiterverarbeitung nicht weiter ausgebaut wird).

Natürlich können diese Stoffe, die in den Elektronik Bauteilen verbaut werden, auch ohne weiteres recycelt werden.

Allerdings ist der Anteil der Energiekosten sowie der Beitrag der Umweltverschmutzung pro Produkteinheit bei solchen Elektronik Bauteilen nicht gering, hier liegt Cooler Master falsch Alleine der Energie und Wasserbedarf ist beim Abbau und der weiteren Verarbeitung im Rahmen der regulären Rohstoffgewinnung sehr erheblich, von der damit einhergehenden Umweltverschmutzung und den einhergehenden Folgen des Aushubs aus dem Bergbau (Unterirdisch / Tagebau) ganz zu schweigen. Je nach Rohstoff werden nur einige Gramm pro Tonne "Erde" gewonnen.

Sollte z.b. demnächst auch der Abbau der Magmaknollen losgehen, dann wird das noch richtig lustig, da gar nicht abzusehen ist, was für Folgen das Abernten dieser einiger weniger Kilo schweren Klumpen haben werden.
 
tensai_zoo schrieb:
Wenn es nur 15 wären, aber selbst der CB Vergleich sagt schon, dass es 50 sind. Wobei 50 nicht mehr so irrelevant sind. Das kann bei Viel-Zockern schon 20€ im Jahr ausmachen. Die man betriebswirtschaftlich gesehen, dann auf den Anschaffungspreis im Vergleich zur GTX1060 aufschlagen muss. Erschreckend fand ich den Test in dem eine msi rx480 gaming 100w mehr als eine gtx1060 verbraucht haben soll. Was ich mir allerdings nicht vorstellen kann.
Bei 30 Cent/kWh bekommst Du ~67kWh. Bei 50W mehr an Leistungsaufnahme (was auch hier wieder nur der Punkt der höchsten Leistungsaufmahme darstellt) sind es gut 1330 Spielstunden. Wer in EINEM JAhr soviel zockt, also fast 4 Stunden/365 Tage im Jahr, der hat m.M.n. ganz andere Probleme als seine Stromrechnung. ;)
Wenn man den aktuellen Preisunterschiedd von 65€ im Fall MSI RX480 8G Gaming und GTX1060 6G Gaming hernimmt. Wird die RX480 erst ab dem vierten Nutzungsjahr teurer. Aber auch nur für den (kranken) 1330 Stunden/Jahr Dauerzocker, der dann sowieso schon nach ner neuen Karte schielt.
In der Realität im normalen Spielbetrieb sind es aber keine 0,050kWh/Stunde mehr.
MacPeak Leistungsaufnahme ungleich Verbrauch. Eine Grafikkarte ist keine Glühbirne..!


xxx W = Leistungsaufnahme ohne Zeitwert
xxxWh = (Energie-)Verbrauch


PS: BOBderBagger schrieb was von 5Stunden täglich/365Tage. Das käme bei einem Preis von 22Cent/kWh heraus..
 
Zuletzt bearbeitet:
KTelwood schrieb:
b) Die GTX970 gibts seit 2014 und ist doch auch nicht wirklich viel langsamer als eine RX480, der Abverkaufspreis der GTX970 war sogar ähnlich hoch wie der Releaspreis bei der RX480.


Der Abverkaufspreis (Bestpreis-Betrachtung!) der 970 war ~350EUR . Das heißt im Laden nochmal nen Zwanni mehr.

https://geizhals.de/?phist=1167952
https://geizhals.de/?phist=1167954

Die 480 mit 8GB kostete bei Erscheinen knapp 300 und ein paar Tage später schon 280 EUR.

https://geizhals.de/?phist=1466983

Wenn man jetzt noch berücksichtigt, dass die 970 3,5GB VRAM hat und man sie schön brav mit der 480 4GB Version vergleichen kann. Da letztere FPS-technisch kaum Unterschiede zur 8GB Version aufweist - abgesehen von Spielen in denen man wirklich Ultrahohe texturdichte hat! (Oder einstellt, siehe "Hyper" mode von Mirror Edge Catalyst, )
Dann kommen wir auf zwischen 230-250 EUR Releasepreis, ebenfalls nach wenigen Tagen sinkend:

https://geizhals.de/?phist=1523979
https://geizhals.de/?phist=1477762

Also egal welche der beiden Modelle man nimmt. Deine Aussage ist komplett erlogen.
 
Häh ?

Selbst die sehr Brauchbare und verhältnismäßig teure Asus Strix Version kostet 70€ weniger.

https://geizhals.de/?phist=1167954

Ab Mitte Letzten Jahres hat man eine davon für 270€ bekommen. Minimalpreis 238€.
 
@Redundanz
Unsere Händler haben sich bei Polaris auch einen saftigen Aufschlag gegönnt. Die RX480 8G Referenz hatte eine UVP von 255€ (219€ f. 4G) incl. MwSt, die GTX1060 299€. Trotzdem wars im Laden ein Kopf-an-Kopf-Rennen.

@KTelwood
Wer sich nach Release vonGTX1060 und RX480 noch ne neue GTX970 gekauft hat, ist jedoch selber Schuld. Gebrauch, ohne Garantie für 150€ noch ok.. aber NEU für ~240€ oder mehr?
 
ampre schrieb:
Genau so wie du allen eine GTX 970 empfohlen hast :evillol:

Die GTX 970 ist ja nach wie vor eine super Karte und nicht gerade viel schlechter als eine RX480, obwohl die von 2014 ist.
Und gegen die GTX 970 hatte AMD keine gleichwertige Karten, nur Karten mit hoher Stromaufnahme und hoher Lautstärke.
Man kann wenn der V-ram mal ans Limit geht auch eine Stufe runterschalten, ist ja kein Beinbruch. Lautstärke und Stromaufnahme kann man hingegen nicht so einfach bekämpfen.

Also warum sollte man damals GTX 970 und jetzt GTX 1060 dann nicht empfehlen? Die GTX 1060 ist nach wie vor die sparsamere, leisere sowie kühlere Gaming Lösung. AMD hat doch nur deutlich lautere Karten im Angebot.

ampre schrieb:
Dann lieber 20 Euro im Jahr mehr ausgeben und sicher sein das die Karte zukunftsfähig ist.

Wie kannst du dir denn da sicher sein? Weil alte Nvidia Karten mit Kepler Architektur und beschnittenem V-ram Boden gegenüber AMD´s GCN Karten vor 5 Jahren verloren haben? Wieso muss man das ohne Grundlage verbreiten?
Erst vor kurzem zeigte ein Test auf Computerbase dass Nvidia genauso Treiberzugewinne erzielt, demnach also Nvidia ihre Karten ebenso pflegt.

Davon abgesehen erzielt man keine Zukunftssicherheit wenn jetzt beispielsweise die GTX 1060 über die Jahre 15% zulegen sollte. Solche Klecker% Beträge lassen sich doch nicht mit Zukunftsfähigkeit beschreiben. Du wirst deine Grafikkarte genauso wechseln, es ist nicht entscheidend ob eine Karte nun 10% schneller oder langsamer ist.

Eine 280x ist ja auch nur gleichschnell wie ein Modell der GTX 770 mit 4GB Speicher. Die GTX 660 stirbt im Test hier den Speichertot, also benötigt man andere Settings und dann ist die Karte deutlich näher dort wo sie früher auch war.

Mit 6GB vs 8GB sieht man allerdings deutlich weniger Problematisch. 99% der Spiele kommen problemlos auch mit 3 oder 4GB aus, da ist also noch lange Zeit.

EchoeZ;19710039@KTelwood Wer sich nach Release vonGTX1060 und RX480 noch ne [B schrieb:
neue[/B] GTX970 gekauft hat, ist jedoch selber Schuld. Gebrauch, ohne Garantie für 150€ noch ok.. aber NEU für ~240€ oder mehr?

Das wird den Braten auch nicht besonders fett machen.
Ob jemand eine GTX 970 kauft oder eine RX480, letzten Endes wird das auch nicht den großen Unterschied machen und sich um Bereich von 5 bis 10% abspielen und Textursettings wird man hier und da nicht auf dem Maximum betreiben können.
GTX 970 Karten gab es immer wieder für 240, teils für 199 Euro, so schlecht ist der Deal nun auch nicht.

Rdundanz schrieb:
Also egal welche der beiden Modelle man nimmt. Deine Aussage ist komplett erlogen.

350 Euro im Abverkauf. Dafür bekam man eine GTX 980, eine GTX 970 ging bis auf 199 runter, zu RX480 Release auf 229 desöfteren, wurde auch gekauft.
Man sollte schon eine Preisvergleichmaschine bedienen können.
 
Zuletzt bearbeitet:
Cool Master schrieb:
sondern eher um die Einstellung zur Umwelt.

Du darfst das vielleicht noch sagen, so alt wie deine GPU ist. Aber schau dich mal bei den "Stromsparern" um, die jedes Jahr die Grafikkarte wechseln. Die Produktion is auch nich so gut für die Umwelt. :)
 
Ap2000 schrieb:
Aber meine Krüppelspeicherkarte hat leider immer wieder Probleme mit min. FPS und v.a. den Frametimes.

Nvidia halt. The Way It's Meant to ruckel ;-)

Bei meiner Karte mit VRAM-Ermangelungshintergrund hat AMD wenigstens sauber kommuniziert das die Fury X nur 4GB hat. Da wusst ich vorher auf was ich mich einlass. Blöd halt das es mich ausgerechnet mit Deus Ex getroffen hat, das ich nicht mit Max Detail zocken kann.
 
aivazi schrieb:
... von Heute auf morgen ist der Stromverbrauch wieder relevant geworden und AMD durfte nicht empfohlen werden, weil man die 2 GB der GTX 680 sicher nicht vollbekommt und die HD 7970 langsamer als eine GTX 670 war und mehr verbraucht hat.
... bei der GTX 680 läuft der RAM voll und Besitzer ärgern sich bei mittel Texturen mit schlimmer Grafik oder High Texturen mit Mikrorucklern herum ( Ich habe die Karte damals selber einem Freund empfohlen und werde mit ziemlicher Sicherheit niemandem mehr eine Nvidia Karte empfehlen) und die mit der HD 7970 weisen eine höhere Leistung als die GTX 680 auf und ratet mal, bei welcher noch die Rohleistung ausreicht um vom Speicher gefüttert zu werden :D

Dass die Nvidia 500 € und die AMD 360 € gekostet hat muss nicht hinzufügen.

Das ist doch unsachlicher Quark, wenn Du für den deutlich (paar Hunderte Dollar) geringeren Preis einer GTX 670OC (noch unterhalb einer HD 7950) ähnliche Leistung wie bei damaligen Chip-Vollausbau-Karten (HD 7970 und GTX 680) bekommen hast (genau, vom Verbrauch bzw. eingesparten Betriebskosten brauchen wir erst gar nicht zu reden, da sehen über 4 Jahre hinweg die Vollausbau-GPUs auch oft alt aus im direkten Vergleich, aber dieser ist für mich beim GPU-Kauf auch i.d.R. nebensächlich, es sei denn er artet aufgrund der erzeugten Wärme aus), war das natürlich eine eindeutige Sache, da gibt es absolut nichts daran auszusetzen bzw. zu deuteln.

Natürlich hätte ich mir niemals eine Fermi/Thermi "Heizkraftwerk"-GPU geholt, soviel war ja durch die Tests bekannt, aber in Sachen Preis-Leistung war die GTX 670 (erste Kepler-Generation) damals unschlagbar und hat sich bis heute - trotz zeitweise fragwürdigem Treibersupport - tapfer geschlagen.

Die Gegenüberstellung von GTX 660 und HD 7870 ist wegen des Krüppelspeichers ersterer auch überhaupt nicht repräsentativ für die Leistungsdifferenzen insgesamt zwischen Kepler zu GCN1, sondern vermutlich seitens nVidia das "worst case" Vergleichsszenario gewesen.

Also ich habe bisher überhaupt noch keine Probleme mit meiner 2 GB GTX 670OC bekommen, mit Ausnahme von Star Citizen, bin aber auch eher ein genügsamer Spieler, der nicht immer die neuesten Titel spielen muss und eben hauptsächlich in Genres unterwegs ist, die eben nicht Maximalleistung der GPUs beanspruchen (seit einigen Jahren keine Rennspiele mehr, wenig Ego-Shooter, kein Open-World und meist ältere Spiele oder evt. Crowdfunding, da mir die neuesten Spiele meist die verlangten Neupreise nicht wert sind), immer eine Frage der Ansprüche.

Ob die Leute mit exorbitant teuren Titan-Karten da glücklicher sind oder mehr Spaß haben, nur weil sie früher auf maximalen Settings/höheren Auflösungen ein paar läppische Spieletitel spielen können, ist dann auch fragwürdig, ich denke eher nicht (selbst wenn Geld bei diesen Herrschaften keine Rolle spielen sollte).

Was die höhere Leistung angeht, mag das im Schnitt mittlerweile so sein, aber es gibt immer noch bestimmte Titel/Genres, in denen eine GTX 680 besser oder gleichauf liegt, Blizzard Titel wären da wohl ein Beispiel, auf denen nVidia traditionell immer etwas besser läuft als AMD und wo Dir der 1 GB größere Speicher überhaupt nichts nutzt.

Dazu kommt, dass Du bei den aktuellen Spieletiteln, die jetzt 4 oder gar 8 GB für höchste Details voraus setzen (siehe Call of Duty - Infinite Warfare), siehst Du mit einer HD 7970 genauso alt aus wie jemand der mit den o.g. 2 GB Oberklasse-Kepler-GPUs da kein Land mehr sieht. Da hilft Dir auch keine GCN-Romantik mehr, die Zeiten sind mittlerweile leider vorbei.

Mit Aussagen wie "niemandem mehr eine nVidia Karte empfehlen" qualifizierst Du Dich auch klar als AMD Fanboy und disqualifizierst Dich ebenso für eine sachliche Diskussion, vielleicht beim nächsten Mal nachdenken, bevor man solch absolute Aussagen tätigt, zumal man in einigen Bereichen momentan (noch) gar keine brauchbare Alternative im AMD Angebot hat (etwa Mobil-GPUs, wo nVidia derzeit (leider) immer noch klar überlegen ist und es wohl noch eine Weile dauern wird, es sei denn ebenbürtige Vega-Mobil-GPUs kommen schneller auf den Markt als erwartet).
 
Zuletzt bearbeitet:
Zurück
Oben