Test Grafikkarten: 17 × AMD Radeon und Nvidia GeForce im Vergleich

Tom_1 schrieb:
Sehr guter test.
Da sieht man mal wieder das die gtx 970 eine günstige und schnelle Karte ist. (3.5gb hin oder her)

Hast du einen anderen Test gelesen als ich? Eine R9 290 OC ist nur 4% hinter einer GTX 970 OC kostet aber geschmeidige 50 bis knapp 100€ weniger als eine GTX 970.
 
Man darf auch nicht vergessen, dass das OC bei AMD wesentlich geringer ausfällt als bei den Nvidias:

z.B:

AMD Radeon R9 290X Ref: 1.000 MHz OC: 1.030 MHz
Nvidia GeForce GTX 970 Ref: 1.050 MHz OC: 1.266 MHz

Hier sieht man recht gut wie sehr bei Hawaii alleine an der Kühlung hängt die dann eben den Takt halten kann im Gegensatz zum Referenzdesign. 3% Mehrtakt ist ja zu vernachlässigen.
 
Yay Neue Grafikkarten(Wenn ich richtig liege... denn bis jetzt gabs immer so nen Sammeltest bevor eine neue große Graka getestet wurde)

An die Leute die hier WOW vermissen. WoW hat noch nie was in einem Grafikkartentest zu suchen gehabt. Ab der R7 260X(schwächste Grafikkarte im Test(im Bezug auf WoW)) schaffen alle Grafikkarten mehr als 40fps bei max quality und Full HD.

Viel eher interessant ist warum man keinen einzigen Ableger der Battlefield-Reihe finden kann. Mit der Frostbite Engine die ja nun doch irgendwo eine der eindrucksvollsten ist wird hier einfach eine weggelassen die für einige(mich zumindest) für einen kompletten Vergleich dazugehört.
 
BlauX schrieb:
...Wer sich die Stromkosten nicht leisten kann, soll sich aus dem PC-Bereich verpissen ( sorry wenns zu hart klingt )...
Stromkosten ist relativ & was ich bspw. bei Kiste/Config 1 oder 2 wieder einspare, verpulver ich wieder bei der Waschmaschine, Sauger, Trockner & was es noch so alles gibt.^^
Ich pers. denke da eher an die "Wärmeabfuhr" als auch ggf. das Aufheizen anderer Komponenten. Eventuell benötigt man auch "ein stärkeres Netzteil" oder ein hochwertige Kühlung etc.

@meckswell
Schau dir mal die Taktraten von der 970er & 980er nochmals genau an. Nutze dafür nochmals den Link "von88" ... :-)


edit:
MujamiVice schrieb:
Leider sind die 2560×1440 ergebnisse bei beiden Herstellern noch immer enttäuschend...
Wenn man keine Praxiswerte hat & NUR die nackten Zahlen sieht, dann kann das schon "abschrecken" ...
Wenn man dann aber mal Praxiswerte hat & auch diverse Regler nutzen kann, ist man je nach Leistungsklasse ggf. dennoch positiv überrascht ...^^
 
Zuletzt bearbeitet:
Staubsauger dürfen nur noch 1600Watt haben. Wieso wird etwas vergleichbares nicht generell eingeführt, z.B. für Grafikkarten. Die Leistungsaufnahme einiger Karten ist echt unverschämt.
Sowas sollte nicht in den deutschen Handel gelangen dürfen.
 
meckswell schrieb:
Trotzdem wirft sich immernoch die Frage auf, wieso der Mittelwert der OC-Modelle bei den 980er um 6 % mehr zulegt, als bei den 970er?
Weil die "Referenz"-Karten praktisch gleich getaktet getestet wurden, bei den "OC-Modelle" die 980 aber 50 MHz mehr spendiert bekam?
 
Also habe ich alles richtig gemacht. Habe meine GTX 970 MSI bei caseking zurückgegeben knapp 370€ zurück bekommen und mir dafür eine R9 290 + raijintek morpheus + 2x120mm für 310€ gekagekauf.
 
KainerM schrieb:
ich habe beispielsweise noch KEINEN Test gesehen, der mir sagt ob sich ein Upgrade auf die GPU x lohnt, wqenn ich in 4K Spielen will. Bei FullHD lohnt es jedenfalls nicht.

Ansichtssache. Während Du mit mittleren Settings und 30 FPS zufrieden bist, möchte ich so viel auf maximalen Einstellungen wie möglich und min. 60 FPS zocken. Und schon kann ein Upgrade auf GPU x auch bei FullHD lohnen... Erst recht, wenn man einen 120/144Hz Monitor hat...
 
Zum Takt:

Getesteter Takt 970 .. 1184Mhz
Takt OC-Modell 970 ...1266Mhz.

1266 kann unmöglich der Schnitt der erhältlichen Karten sein, der muss höher liegen.
 
Schade, daß absichtlich 290X Referenz weggelassen wurde. Deren Stromverbrauch ist natürlich deutlich besser und näher an der 970 dran...und ein viel besseres PLverhältnis...
 
Dai6oro schrieb:
Man darf auch nicht vergessen, dass das OC bei AMD wesentlich geringer ausfällt als bei den Nvidias:

z.B:

AMD Radeon R9 290X Ref: 1.000 MHz OC: 1.030 MHz
Nvidia GeForce GTX 970 Ref: 1.050 MHz OC: 1.266 MHz

Hier sieht man recht gut wie sehr bei Hawaii alleine an der Kühlung hängt die dann eben den Takt halten kann im Gegensatz zum Referenzdesign. 3% Mehrtakt ist ja zu vernachlässigen.
Aufpassen, für diesen Test gilt nämlich:

AMD Radeon R9 290X Referenz: 1.000 MHz - getestet mit: 838-871 MHz OC: 1.030 MHz
Nvidia GeForce GTX 970 Referenz: 1.050 MHz - getestet mit: 1.184 MHz OC: 1.266 MHz
 
frkazid schrieb:
Differenz OC GTX980 vs OC 290X ca. 100 Watt im Gesamtsystem.

Ich nehme mal an, dass man in einer Woche ca. 15h unter Volllast am PC sitzt.

(15h x 100 Watt x 52 Wochen) / 1000 = 78 kWh.

Bei einem derzeiten Preis von (hoch angesetzen) 40Cent/kWh sind das ca. 32€ im Jahr Mehrverbrauch.

MSI 4G GTX980 = 583,36 EUR
290X Tri-X OC (8GB) = 387,90 EUR

Den Rest kann man sich ja nun selbst denken. ^^

Ist sogar nen ganzen Tacken weniger, ich zahle 32,02cent pro kWh und das ist oller 100% Wasserkraftstrom, der teurer ist.

Ansonsten schöner Test, hat dann auch nochmal meine Kaufentscheidung zur R9 290 bestätigt. Wenn man max. 300€ ausgeben will steht die wirklich absolut alleine da. Und mit dem i5-2500k auch gezeigt, dass auch mein FX-8350 noch ne Weile werkeln darf :D

Was aber hat es damit auf sich:
Auch die AMD-Karten belegen in Assassin's Creed Unity maximal 3,5 Gigabyte und werfen Daten wieder aus dem Speicher, obwohl dies gar nicht nötig wäre.

Greift da ein nVidia "Feature" auch bei AMD oder wie?
 
Aufpassen, für diesen Test gilt nämlich:

AMD Radeon R9 290X Referenz: 1.000 MHz - Getestet mit: 838-871 MHz OC: 1.030 MHz
Nvidia GeForce GTX 970 Referenz: 1.050 MHz - Getestet mit: 1.184 MHz OC: 1.266 MHz

Stimmt was eben meine Aussage über die Kühlung nur noch untermalt. Keine Customkarte kommt unter die 1000MHZ Referenz. Auf gut Deutsch: Die Referenzkühlung bei Hawaii hat sich den Hohn und den Spott redlich verdient.
 
Laggy.NET schrieb:
Ich finde es absolut richtig, dass ihr den 2500er ohne OC getestet habt. Wie gesagt, ist der Performance unterschied zwischen "Volks CPU" und "Maximal möglich" sehr viel informativer, als wenn man den i5 auch übertaktet hätte. Der Unterschied ist sowieso nicht groß. Dass der i5 schneller wird wenn man OC nutzt kann sich ja jeder denken. Das sie dann in der Praxis meist fast gleichauf liegen auch...

was spricht dagegen beides zu testen?
 
psYcho-edgE schrieb:
Ähm, gibt es einen Grund dafür, dass BF4 aus dem Parcours raus ist? Das Spiel braucht nach wie vor viel Leistung und ist aktuell. O.o

DAS wüsste ich allerdings auch gerne. Und wird ja auch von ein "paar" Leuten auf der Welt gespielt.
 
Na endlich wurde das Testverfahren aktualisiert. Danke dafür.

Also verstehe ich das richtig, dass die 290 und die 290X bisher immer mit 862-901 MHz bzw 838-871 MHz getestet wurden? :lol:

Die Messungen der Leistungsaufnahme bleiben für mich leider nach wie vor völlig unbrauchbar.
R9 290 mit bis zu 901 MHz DEUTLICH stromhungriger als R9 290X mit 256 Shadern mehr und fast dem selben Takt? Aber es wird noch besser: R9 290X OC (1030 MHz) zieht also 85(!)W mehr als die selbe Karte mit ca. 160MHz geringerem Takt? Das ist ja wohl nicht euer Ernst. Während die GTX980, die dafür bekannt ist, dass sich ihre Effizienz mit OC stark verschlechtert, bei 134MHz höherem Takt nur 35W mehr zieht...
12-Power-Consumption-R9-290X-Default.png
Eine um gut 150MHz übertaktete R9 290 vebraucht gerade einmal 15-25W mehr.
00-Power-Consumption-R9-290-Accelero-XIII-OC.png06-Power-Consumption-Gigabyte-R9-290-Windforce-OC.png01-Power-Consumption-Sapphire-R9-290-Tri-X.png
02-Power-Consumption-Asus-R9-290X-DirectCU-II.png03-Power-Consumption-Sapphire-R9-290X-Tri-X.png

Wie man sieht, kommen Partnermodelle der R9 290 im Gaming Loop auf 215W, die der R9 290X auf etwa 250W.

Custom GTX970 verbrauchen im Loop etwa 180W, Custom 980er ziehen durchschnittlich knapp 200W.
http://www.tomshardware.de/nvidia-g...up-vergleichstest,testberichte-241658-20.html
Damit ergeben sich Verbrauchsunterschiede von 35 bis 50W zw. R9 290X/GTX980 und R9 290/GTX970. Laut eurem Test benötigt eine OC 290X/290 über 90W mehr als eine OC 980. Und über 140W mehr als eine OC 970. :freak:



Dass eine GTX970 so viel Energie verbraucht wie eine 270X, könnt ihr mir auch nicht erzählen :lol: Da liegen locker 40W zwischen ihnen. 45W mehr als eine GTX770 verbraucht aber angeblich eine 280X, während genaue Messungen eine Differenz von etwa 14W ergeben.
24-PC-Gaming.png

http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-11.html

Wenn die Ergebnisse so unterschiedlich sind, der eine Reviewer aber sehr teure Messhardware verwendet und direkt am PCI Slot misst und ihr Gesamtsystemmessungen an der Steckdose durchführt, dann ist das denke ich legitim zu sagen, dass eure Ergebnisse ziemlich unbrauchbar sind ;)

Und sie sind auch deshalb unbrauchbar, weil ihr anscheinend die 94°C heißen Referenzmodelle verwendet habt, was die Energieaufnahme nochmal um 20-30W erhöht im Vergleich zu den Partnermodellen der R9 290, die 10-20°C kühler sind. Die Temp- und Lautstärkemessungen hättet ihr euch daher auch sparen können, da eben kaum jemand Referenzkarten im Rechner hat.

Wenn also eine Custom R9 290 deutlich günstiger ist als eine GTX970, dabei aber nur minimal langsamer, dann ist der 35W Verbrauchsunterschied im Gaming Loop zwar erwähnenswert, aber dabei von "effizient vs. sehr hohe Leistungsuafnahme" zu sprechen, finde ich ganz schön albern.

Fazit: der Effizienznachteil von AMD's High End Karten beim Gaming ist bei weitem nicht so groß wie immer wieder behauptet wird ;)

PS: in Metro LL soll die GTX780 langsamer sein als die GTX770 ?
 
Zuletzt bearbeitet:
hrafnagaldr schrieb:
...Und mit dem i5-2500k auch gezeigt, dass auch mein FX-8350 noch ne Weile werkeln darf :D...
Ich bitte Dich! So etwas überprüft man selber & dann weiß man auch ganz genau, was zwickt ... :D
 
SoilentGruen schrieb:
Also ich finde die 970er ist trotz der 3,5-GB-Verarsche immernoch die beste Karte in P/L/Strom-Verhältnis. Ein Spiele-PC sollte nicht über 250W verbrauchen... maximal 300W. Alles darüber ist unangebracht und bringt auch kaum mehr FPS.

Nö, eine R9 290 OC kostet zB bei der MSI Gaming 70€ weniger als die MSI Gaming GTX 970. Das sind im aktuellen Strompreis 220 kWh, bis sich die amortisieren würden. Das sind selbst bei 100W Differenz 2200 Stunden, in denen man unter Volllast zocken muss. Bei drei Stunden täglich dann ziemlich genau zwei Jahre. Da ist die Karte dann aus der Garantie und es wird in der Leistungsklasse meist eh ne neue gekauft. Auf die übliche Nutzungsdauer gerechnet liegen die Karten ziemlich gleich auf, was die TCO betrifft.

Warum ein Spiele-PC nicht mehr als 300W brauchen sollte, bleibt dein Geheimnis bzw. dein subjektives Maximum. Mir ist relativ egal, was mein PC und Staubsauger brauchen.

Durch einen neuen Kühlschrank (15 Jahre alt gg A++) hab ich mit der Ablesung vorgestern übrigens im ersten Jahr schon knapp 100€ gespart, sowas rentiert sich dann eher.
Ergänzung ()

SuddenDeathStgt schrieb:
Ich bitte Dich! So etwas überprüft man selber & dann weiß man auch ganz genau, was zwickt ... :D

Keine Sorge, ich wusste es auch so.
 
Zuletzt bearbeitet:
Das sogenannte WoW - World of Warcraft - Warlords of Draenor
hat es leider wieder nicht geschafft, es ist wahrscheinlich einfach viel zu unbekannt und erfolgslos, schade...!

Auch mit gefühlten hundert Addons und tausend Patches ist das eigentliche Spiel ur alt. Ist das eurer Meinung nach wirklich noch so interessant für einen Grafikkartentest?

Garbage in, garbage out. Schade um die viele Arbeitszeit.
Aha. Und was soll mir das jetzt sagen? Was ist denn Garbage?

Wie wärs eigentlich mal damit, nicht nur das absolute high-End auf 4K los zu lassen? Ich hab hier einen 4K-Monitor, und eine R9 270X. Und das erreicht durchaus Spielbare Frameraten! Meiner Meinung nach wär das deutlich näher an der Praxis als nur die Spitzenmodelle bei vollen Details zu testen - ich habe beispielsweise noch KEINEN Test gesehen, der mir sagt ob sich ein Upgrade auf die GPU x lohnt, wqenn ich in 4K Spielen will. Bei FullHD lohnt es jedenfalls nicht.
Der Haken daran ist, dass wir dann noch eine dritte Qualitätsstufe einführen müssten, damit die langsameren Grafikkarten auch noch irgendwie flüssige Frameraten erreichen können. Ich denke, das ganze ist eher für einen Sonderartikel abseits des klassischen TEstparcours interessant. Gibt es Meinungen dazu?

Der 2500K Test ist ja 'ne gute Idee doch die Umsetzung leider etwas unglücklich, in der Form zeigt euer Test eigentlich nur, dass ein vier Jahre alter, unübertakteter i5 langsamer als ein übertakteter, aktueller i7 ist.
Hast du (oder andere) denn Ideen für eine bessere Umsetzung? Wenn ja, immer her damit. Ist unser erster Versuch, optimal ist da sicher vieles noch nicht. Der Ziel des Test ist es nicht zu zeigen, wie viel besser Haswell als Sandy Bridge geworden ist. Es soll darum gehen zu klären, wenn ich eine CPU wie den 2500K habe (den eben viele haben), ob es eine neue Grafikkarte dann überhaupt noch bringt oder nicht. Die Taktraten sind daher absichtlich auf default (auch wenn per OC natürlich noch gut was geht).

naja ein weiterer aufgebohrter grafikkarten test für technophile mit 1500 euro pc und 3 monitoren dran. für gewöhnliche pc spieler ziemlich nutzlos.
Warum das denn? Es ist ja nicht nur eine Titan X und eine GTX 980 mit drin.

Ähm, gibt es einen Grund dafür, dass BF4 aus dem Parcours raus ist? Das Spiel braucht nach wie vor viel Leistung und ist aktuell. O.o
Ich habe auch lange überlegt und (nachdem es erst noch drin war) mich dann dafür entschieden. Es gibt so viele neue Spiele, viele alten mussten einfach raus. Und zudem ist halt auch Dragon Age: Inquisition drin, was dieselbe Engine nutzt.

Was mich allerdings etwas fragend zurück lässt, ist das P/L-Verhältnis bei den OC Karten, nehmt ihr dort auch einen Durchschnittspreis, oder den niedrigsten, oder habe ich diese Informationen nur übersehen?
Danke für den hinweis, das fehlt tatsächlich. Also wir schauen dort, was die günstigste GRafikkarte ist, die diesen durchschnittstakt halten kann. Das können wir machen, da wir ja zahlreiche Modelle getestet haben.


Oben steht "Rating 3.840 × 2.160 – normale Qualität". Im Benchmark ist nur noch von "GTA V - 3.840 × 2.160" die Rede. Mit normalen Settings aus dem Leistungsrating oder mit was für Einstellungen?
Alle Ultra-HD-Benchmarks sind nur mit normaler Qualität, GTA V auch. Sprich, MSAA ist in dem Fall aus.
Aber warum sollten die Werte nicht stimmen?

Wieso verbraucht das Gesamtsystem mit der 290X weniger als mit der 290 non-X ohne dass darüber ein Wort verloren wird?[/QUOTE9
Das ist eine Eigenheit der Referenzkarten. Da AMD bei der 290 die Lüfter höher drehen lässt als bei der 290X, taktet die 290 durchweg höher als die 290X - und hat zugleich eine höhere Leistungsaufnahme. Die 290X kann den Taktunterschied dann durch die zusätzlichen Einheiten kompensieren.

Und wenn hier im Test die Taktraten stehen würden, könnten sie Fragen provozieren, z.B. warum 10 von 15 Karten von Hand umgetaktet wurden. (und damit den ganzen Test ad absurdum führen)
Hö? DIe Taktraten stehen indirekt zig mal im Test, weil wir den "So testen Wir"-Artikel zig mal verlinkt haben. Das das System nicht jedem gefallen kann ist klar, aber deine extreme Haltung und auch einfach nur falsche Kritik kann ich nicht nachvollziehen.

Aber dann müssten man den anderen 3 bis 5 Herstellern erklären, warum genau diese Karte ausgewählt wurde und entsprechend mehr Außenwirkung bekommt.
Glaub mir, das ist überhaupt nicht der Grund für das ausgewählte System.

Bei euch schafft eine GTX780 in FHD mit MSAA4x und FXAA und 16x AA mal eben so zwischen 38 und 42 FPS? Das entspricht in keinster Weise der Realität. Ich habe noch nicht einmal so schlechte min Frames. Da stimmt irgendwas nicht.
Assetto Corsa hat zig Regler, und manche schmecken den GeForce-Karten nicht (und manche den AMDs nicht). Bei volle Details ist Motion Blur aktiv, was den GeForce-Karten zum Beispiel gar nicht schmeckt (um erlich zu sein, vielleicht warens auch die Reflektionen. Eins schmeckt AMD nicht, das andere Nvidia nicht; weiß ncht mehr genau wie rum).

Zwischen den OC-Modellen ist doch ebenfalls nur 4% Differenz. Die sollten ja bessere Customkühler besitzen, oder nicht?
Das PRoblem ist, dass das Hawaii Front-End offenbar die zusätzlichen Einheiten nicht schnell genug mit Daten füttern kann, sodass die zusätzlichen Einheiten nicht so viel bringen wie sie könnten. Das ist z.B. eine Herausforderung, die sie bei Fiji angehen müssen.

Das Spiel hätte ich hier auch gerne gesehen. Gerade auch noch in Bezug auf die Mantle-Performance.
Es sind ja zwei Mantle-Spiele drin - ich finde, das ist genug Vorteil für die API :)

Ja, bitte! OC ist eben relativ. Meine Asus 290er sollen laut AMD mit 947MHz laufen, Asus mit ein Werks-OC auf glatte 1.000MHz und ich kann sie locker auf 1.100 ohne Vcore-Erhöhung bringen, mit mehr Voltage sind 1.200 MHz drin. Was ist nun OC?
Wie schon mehrmals im Thread verlinkt: Hier steht genau, was das OC-Modell ist.
https://www.computerbase.de/2015-05/grafikkarten-testverfahren-testsystem/

Das Lob fällt aber spätestens gegen Ende des Berichts wieder ins Nirvana: Wieso wird die Temp/Lautstärke nicht an die CB-Empfehlung gekoppelt? Du sagst selber die Serien-290 sind nicht mehr zu Marktpreisen erhältlich und führst diese trotzdem als Referenz im Vergleich an. Ich finde , da gehört ebenfalls eine OC/Partnerkarte rein, alleine um der Sache einen roten Faden zu verteilen. Sicherlich haben die Kapazitäten nicht gereicht, aber ein wenig Gemeinwohl hätte nicht geschadet an dieser Stelle ;-) VG
Um ehrlich zu sein, verstehe ich dich gerade nicht. Was meinst du genau?

In welchem Setting von Ryse wurde die Leistungsaufnahme ermittelt? Mit oder ohne SSAA?
3.840x2.160, maximale Detils, SMAA, kein SSAA
Die hohe Auflösung deswegen, um bei zukünftigen High-End-Karten nicht ins CPU-Limit zu geraten.

Zum Takt:
Getesteter Takt 970 .. 1184Mhz
Takt OC-Modell 970 ...1266Mhz.
1266 kann unmöglich der Schnitt der erhältlichen Karten sein, der muss höher liegen.
Schau mal hier :) Mit den Daten haben wir auch gearbeitet.
https://www.computerbase.de/2014-10...p-vergleich/3/#abschnitt_taktraten_unter_last

Schade, daß absichtlich 290X Referenz weggelassen wurde. Deren Stromverbrauch ist natürlich deutlich besser und näher an der 970 dran...und ein viel besseres PLverhältnis...
mhm? Schaue dir bitte nochmal die Diagramme an :)
 
Zurück
Oben