Test Grafikkarten: 17 × AMD Radeon und Nvidia GeForce im Vergleich

hrafnagaldr schrieb:
Also die Stromrechnung hab ich im Vergleich der MSI Gaming R9 290 und GTX 970 ja schonmal durchgerechnet, selbst beim teureren Ökostrom muss man täglich 3h auf Volllast sein, damit sich das Ganze in zwei Jahren amortisiert.
Wird die Karte etwas nach einem Jahr weggeworfen?
hrafnagaldr schrieb:
Abgesehen davon hab ich noch niemanden gesehen, der dann wegen einer nVidia Karte ein günstigeres Netzteil geholt hat. Effiziente Netzteile sind immer teuer. Das ist mal absolut gar kein Argument. Vor allem da viele Leute noch übertakten und man dann auch zuverlässige Netzteil benötigt.
Du nicht - hier im Forum kommt es öfter vor, dass jemand von einer GTX970 auf eine R9-290X wegen Fehlberaung umsteigt - und nachdem das geschehen ist, dann noch das Netzteil später erhöht werden muss, weil es jetzt nicht mehr reicht. Zu den Standards gehört doch ein i5 oder Xeon mit GTX970. Da reicht ein beQuiet E10 400W. Wenn Du dann zur R9 wechselst ...
hrafnagaldr schrieb:
Vor allem da viele Leute noch übertakten und man dann auch zuverlässige Netzteil benötigt.
Auch dann musst Du für AMD mehr einplanen.
hrafnagaldr schrieb:
Lautstärke is Wumpe, meine Musik ist lauter oder ich trag Kopfhörer beim Zocken.
Für Dich vielleicht - für viele die hier anfragen nicht, für mich auch nicht.
hrafnagaldr schrieb:
ich muss mich beim Speicher nicht bescheissen lassen.
Nö, nur die Umwelt stärker belasten als nötig. Moralisch/Ethisch sehe ich bei AMD nun wirklich keinen Vorteil.
 
Jeppo schrieb:
Bis man VR-4K Hardware mit einer Single-GPU bei 100fps befeuern kann

Das wird nicht Realität werden. Nicht umsonst spekuliert man beispielsweise darüber, dass AMD speziell für VR eine eigene Dual-Gpu-Karte entwickelt.
 
Leider muss ich mich der Kritik anschließen, denn diese 'simulierten' Partnerkarten und ihre entsprechenden Werte sind natürlich absolut realitätsfern. Wie kommt man auf so einen Versuchsaufbau und -methodik? Schade.

Lob möchte ich dennoch für die zweifellos langwierige Arbeit hinter diesem 'Vergleich' aussprechen, auch wenn die Ergebnisse zu großen Teilen leider unbrauchbar sind.
 
Danke für den Test, mir hat er sehr gut gefallen! Ich fands insbesondere schön, dass ihr auch den 2500k mit einer neueren CPU verglichen habt.

Weshalb jetzt hier die Umweltkeule geschwungen wird, verstehe ich nicht. Fakt ist, dass der Stromverbrauch von Geräten im Haushalt tendenziell sinkt, aber die Strompreise immer teurer werden. Vielleicht könnten die Umweltaktivisten des Forums den Fehler selbst entdecken - richtig es kommt durch dieses unüberlegte "wie retten die Welt"-Geschrei. Leider sind die meisten Reformen nicht durchdacht, sonst hätte ich nicht einmal etwas dagegen einzuwenden ;)
Bitte nicht falsch verstehen, aber manches geht eben doch zu weit. Wer spielt, weiß dass mit einem höheren Stromverbrauch zu rechnen ist. Gerade im Idle hat sich meiner Meinung nach über die letzten JAhre hinweg viel getan und die meisten GPUs laufen nun mal die meiste Zeit über im Leerlauf...
 
Ist doch immer so wenn es keine Argumente mehr gibt muss man dann über die Umwelt kommen. Am besten wir verklagen AMD weil sie so unverantwortlich sind und Grafikkarten zu bauen die etwas mehr strom verbrauchen. Und dann schieben wir noch ne Klage gegen NV hinterer wegen Arglistige Täuschung.

Edit: Da schwimmt aber einer ganz schön auf der grünen Welle. Jetzt sag nur du fährst nen Prius, wohnst in nem passiv Haus, strickst all deine Klamotten selbst, kaufst nur fairtrade und bio Lebensmittel.....
Ich könnte noch ne ganze weile so weiter machen. Jeder sollte sich verantwortungsvoll gegenüber der Umwelt verhalten aber irgendwo muss man einfach eine grenze Ziehen. Da nehm ich die 120W mehr gern in Kauf lass mich dafür aber nicht verarschen.
 
Zuletzt bearbeitet:
Noch ist die Titan kompromisslos aber schon sehr bald wird sie von gleich 2 günstigeren Karten vom Thron gestoßen^^

Sehr schöner Test. Ich finde es immer noch schockierend, dass die Highend Karten nicht auch die besten video codecs bekommen.
 
Bei drei Monitoren hat AMD die Nase jedoch knapp vor Nvidia, weil keine einzige Grafikkarte mehr vollständig die Frequenzen verringern kann.

Ja weil ihr nach mehrmaligen Hinweisen immernoch keine Lust habt 3 baugleiche Monitore zu verwenden, wo AMD deutlich Vorteile hat, oder es wenigstenszu erwähnen.
Eine Referenzkarte auf Customwerte anzuheben, ist auch nicht gut, dann lieber das OC lassen.

Ansonsten guter Test.
 
Finde es super, dass der i5-2500k mit getestet wurde. Schade nur, dass man hier nicht auch mit OC (~4,5Ghz?) getestet hat. Man kauft sich ja schließlich nicht extra nen 2500k, um ihn dann @ stock laufen zu lassen.
 
Sahit schrieb:
Ist doch immer so wenn es keine Argumente mehr gibt muss man dann über die Umwelt kommen. Am besten wir verklagen AMD weil sie so unverantwortlich sind und Grafikkarten zu bauen die etwas mehr strom verbrauchen. Und dann schieben wir noch ne Klage gegen NV hinterer wegen Arglistige Täuschung.

Blödsinn. Es gab genug Argumente. Das P/L-Verhältnis steht zugunsten nVidia. Dann wurde der Blödsinn mit der "Speicherverarschung" angebracht - und das Umweltargument war nur eine moralisch Replik.
 
slsHyde schrieb:
Ergänzung ()

Hmmm - ob sich da auch was dran getan hätte, wenn es den Leuten scheiß egal wäre?

Das ist schwer zu sagen. Ich denke eher, dass mindestens noch zwei weitere Faktoren eine Rolle gespielt haben:

1. Konkurrenz zwischen AMD und Nvidia und das Performance/Watt-Verhältnis
2. Die Lautstärke der Komponenten

Ich kann nur für mich sprechen, aber ich sage beispielweise, dass eine GPU unter Volllast gerne 20 Watt mehr brauchen darf als es heute der Fall ist, wenn sie im Idle dafür 5 Watt weniger braucht, sofern es die Lautstärke nicht negativ beeinflusst. Nicht weil ich gerne mehr Strom verbrat, sondern weil ich unterm Strich Strom einspare (läuft zu 90% im Idle...). Daher würde ich die Idle-Aufnahme in den Vordergrund rücken.
 
Ist mal wieder sehr interessant hier. CB macht einen Grafikkartentest und provoziert damit (unabsichtlich?) die nächste Schlacht im Krieg der Fanboys.

Positiv bewerten kann ich nur den Umstand, dass mit den (fast) aktuellsten Treibern für beide Hersteller verglichen wurde.
Dies hatte ich bereits in einem anderen Thread beanstandet.

Denjenigen die hier bemängeln, dass die AMD Referenzkarten mit herabgesetzten Takt getestet wurde, kann ich zwar großenteils zustimmen, jedoch dafür hat man auch die Vergleichswerte der OC-Karten.
Die Testmethodik ist zumindest fragwürdig. Ich hätte lieber einen Vergleich zwischen Referenztakt und dem höchsten vom Hersteller vorgegebenen Takt einer OC-Karte gesehen.
Das die AMD-Referenzkarten ihren Takt nicht halten, sollte man gesondert und ausdrücklich drauf hinweisen. Dies jedoch als Merkmal für alle 290(X) Karten zu definieren ist realitätsfern.

Die Tests zur Leistungsaufnahme wären der nächste Punkt.
Zwar ist AMD als Stromschleuder bekannt, die Werte sind aber schon sehr hoch. Auch im vergleich zu anderen Seiten die nur die reine Grafikkarte gemessen haben. Mit meiner R 290 hab ich persönlich noch nicht die 350W überschritten. Es kann natürlich sein, dass Ryse eine deutlich höhere Auslastung erzeugt.
Auch beachtlich, eine 970 verbraucht weniger als eine 270X.

Durch diese Merkmale empfinde ich den Test insgesamt wieder etwas zum Nachteil von AMD ausgelegt.
Falls es das Ziel ist, Nvidia möglichst positiv gegenüber AMD darzustellen hätte es gereicht die positiven Merkmale der 9X0 Serie aufzugreifen (z.B. Effizienz, wenig Abwärme, sehr leise Custom-Kühler, gute Übertaktbarkeit).

Stattdessen wird seit fast 2 Jahren auf AMD's Refenzkarten rumgeritten, welche für keinen halbwegs informierten Konsumenten von Bewandtnis sind.
 
Das P/L Verhältnis steht sicherlich nicht zugunsten Nvidias. Eine r9 290 bekomme ich schon für 270 Euro, eine GTX 970 für 330.
DAs sind 60 Euro bei gleicher Performance.
 
slsHyde schrieb:
Nö, nur die Umwelt stärker belasten als nötig. Moralisch/Ethisch sehe ich bei AMD nun wirklich keinen Vorteil.

Stimmt, nVidia belügt beim Speicher und Du kommst mit Ethik. Außerdem sagt meine Rechnung, dass die Karten nach etwas über zwei Jahren identische Kosten verursacht haben, warum redest Du von einem Jahr?
P/L ist nVidia bei R9 290 gg GTX970 bei normaler Nutzung eben nicht besser, dafür muss man wirklich den ganzen Tag zocken.

Umstieg von GTX970 auf R9 290X? Ja täglich mindestens einer. Davon abgesehen hben die meisten Leute hier irgendwie doch Netzteile in der 550W Klasse. Die reichen in jedem Falle aus.
 
smilefaker schrieb:
Das P/L Verhältnis steht sicherlich nicht zugunsten Nvidias. Eine r9 290 bekomme ich schon für 270 Euro, eine GTX 970 für 330.
Das sind 60 Euro bei gleicher Performance.

Das ist schon diskutiert worden und stimmt nun mal nicht. Da fällt mir aber Goethe ein: "Gegner meinen uns zu wiederlegen, indem sie ihre Argumente wiederholen und die unseren nicht achten." Ein kluger Mann.

Ich freue mich darauf, wenn AMD sowohl gegenüber nVidia als auch Intel wieder konkurrenzfähiger wird. Davon würden wir alle profitieren. Ansonsten fehlt mir hier das Sendungsbewusstsein, die Argumente sind ausgetauscht, wir drehen uns im Kreis. Damit bin ich raus und wünsche viel Spass.
 
Krautmaster schrieb:
+ CyberdyneSystem
Die Tri X braucht doch im Einzeltest genauso viel. 411W Gesamtsystem Last https://www.computerbase.de/artikel...test.2369/seite-4#abschnitt_leistungsaufnahme

Oder was hab ich übersehen? Andere Karten brauchen teils noch mehr.
Mir persönlich geht es weniger um die Leistungsaufnahme
Im CB Test wurden Referenzmodelle genommen obwohl man bereits seid Jahren weiß das diese zu nichts zu gebrauchen sind (zumindest die von AMD). Auch geht es mir nicht nur um AMD, sondern auch um die Partnerkarten von Nvidia.
Denn sind wir doch mal ehrlich, wer kauft wirklich Referenzmodelle? In diversen Kaufberatungsthreads werden Hauptsächlich Partnerkarten empfohlen und das nicht ohne Grund und daher bin ich der Meinung das man die meist empfohlene&beliebtesten Partnerkarten mit in den Test einfließen lassen sollte. Denn immerhin liest man Hauptsächlich in solche Testberichte um seine Kaufentscheidung zu erleichtern.

Andere Onlinemagazine schaffen es ja zum teil auch nicht nur Referenzmodelle zu testen, sondern auch die Partnerkarten und daraus ergibt sich eine deutlich bessere Kaufberatung
PS: Mich würde aber auch interessieren warum einer der beliebtesten Shooter gestrichen wurde? Immerhin wird ständig gefragt "welche CPU/GPU benötige ich für BF4"
 
Zuletzt bearbeitet:
Und ich muss dir sagen das ich immer noch nicht sehe wo NV die bessere P/L bieten soll. Ich hatte beide Karten sowohl eine GTX970 also meine jetzige R9 290.

Nochmal zum speicher. Ich habe es nicht als Argument herangezogen das man dadurch eventuell Leistung verliert. Nein ich lasse nicht nur alles mit mir machen. Wenn Nvidia eingelenkt hätte eventuell mit einem Game Key oder mit einem Rabatt wenn man seine GTX970 gegen eine GTX980 hätte Tauschen wollen. Abr nichts da. Soweit ich weiß sind die kosten für Umtausch an den Einzelhändlern hängen geblieben. Für mich war es daher eine Prinzip Entscheidung von GTX970 auf R9 290 zu wechseln.

@slsHyde sag mal du bist des Lesen aber mächtig. Bitte vergleiche doch nochmal in der Tabelle Performance Rating 1.920 × 1.080 – hohe Qualität da trennen GTX970 OC und R9 290 OC nur 2%

Wo ist das bitte so viel mehr Leistung und nochmal ES KOMMT IMMER GANZ AUF DAS GAME AN OB DIE GTX970 VOR DER R9 290 LIEGT!
 
Zuletzt bearbeitet:
Daedal schrieb:
Was daran schlecht ist? Es ist einfach und schlicht falsch - dafür kann man wohl kaum dankbar sein, doch du scheinst es zu mögen falsch informiert zu werden...
Was ist an dem Test bitte einfach & schlicht falsch? Der Test ist transparent, vielseitig & umfangreich u. entspricht (wohl auch)den Tatsachen.

Daedal schrieb:
Richtig. Alleine Aufgrund dieser Methodik sind sämtliche Testresultate als fragwürdig einzustufen und eigentlich wertlos.
Lächerlich, dass Du die Testresultate als wertlos deklarierst/einstufst. Ich stimme übrigens Krautmaster zu bezüglich...
Nicht irgendwelche was wäre wenn und was könnte 2016 sein Krams. Das kann man gesondert testen.
...und da kommt das Prognosengeschwafel wieder voll zur Geltung.^^
Übrigens, schaut euch mal den letzten, aktuellsten Beitrag von Wolfgang nochmals genau an ... ;)
 
White_Eagle schrieb:
Bei AMD hab ich da einfach nur das Gefühl, die Graka saugt jeden Moment doch glatt die Steckdose mit aus der Wand :eek: ,
so gierig ist deren Hartware (dies auch bei CPU). :rolleyes:

Ich hoffe du musst in deinem Leben niemals einen Staubsauger, Föhn oder Wasserkocher benutzen. :rolleyes:
 
Ist richtig wer ne R9 290X kauft ist selber schuld. Die ist wirklich zu Teuer dafür das sie nur geringfügig mehr Leistung bringt als die R9 290.
 
Zurück
Oben