Test Grafikkarten: 17 × AMD Radeon und Nvidia GeForce im Vergleich

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.971
ComputerBase hat den Grafikkarten-Testparcours umgestellt: Viele neue Spiele, Frametime-Messungen, ein Vergleich mit dem alten Core-i5-2500K-Prozessor und noch einiges mehr. Insgesamt 17 verschiedene 3D-Beschleuniger von AMD und Nvidia wurden erneut miteinander verglichen.

Zum Test: Grafikkarten: 17 × AMD Radeon und Nvidia GeForce im Vergleich
 
Das sogenannte WoW - World of Warcraft - Warlords of Draenor


hat es leider wieder nicht geschafft, es ist wahrscheinlich einfach viel zu unbekannt und erfolgslos, schade...!
 
Ja, schade dass WOW nicht getestet wird. Bei 8-11 Millionen Spielern sollte es drin sein.
 
Danke für diesen tollen Test! Gerade die Differenzen im 300€-Bereich verschwinden oder kehren sich um.
Die Spiele sind gut gewählt und zeigen ebenfalls Optimierungsbedarf bei den Spielen selbst. Wobei seltsamerweise das Pendel immer eher in eine Richtung zeigt ;-)

So bin ich mal sehr gespannt auf die kommenden Grafikkartengenerationen.

Edit: Da ihr ja auch die Vorstellung der 300er-Serie ansprecht. Wann findet sie denn nun statt? ;-)
 
Zuletzt bearbeitet:
290X OC ~50% mehr Stromverbrauch als die leistungsgleiche 970 OC. Ich hoffe, AMD hat inzwischen bei der 300er Serie an diesem Punkt gearbeitet, Zeit hatten sie ja genug (bzw. haben sie immer noch).
 
Garbage in, garbage out. Schade um die viele Arbeitszeit.
 
Mittelerde: Mordors Schatten u.a. zeigt doch das mehr als die standardmäßigen 4 GB VRAM genutzt werden. Das wäre doch ein Ansatzpunkt für Modelle mit mehr als 4 GB, wie z.B. eine PowerColor Radeon R9 290X PCS+, 8GB.
Welches Leistungsplus ist damit zu erwarten, erst recht in einem Crossfire-Verbund?
 
Wie wärs eigentlich mal damit, nicht nur das absolute high-End auf 4K los zu lassen? Ich hab hier einen 4K-Monitor, und eine R9 270X. Und das erreicht durchaus Spielbare Frameraten! Meiner Meinung nach wär das deutlich näher an der Praxis als nur die Spitzenmodelle bei vollen Details zu testen - ich habe beispielsweise noch KEINEN Test gesehen, der mir sagt ob sich ein Upgrade auf die GPU x lohnt, wqenn ich in 4K Spielen will. Bei FullHD lohnt es jedenfalls nicht.

Mfg
 
Der 2500K Test ist ja 'ne gute Idee doch die Umsetzung leider etwas unglücklich, in der Form zeigt euer Test eigentlich nur, dass ein vier Jahre alter, unübertakteter i5 langsamer als ein übertakteter, aktueller i7 ist.

Wobei grade Besitzer einer älteren CPU eher die Möglichkeit der Übertaktung nutzen werden als Besitzer nagelneuer CPUs.
 
Ich hab hier einen 4K-Monitor, und eine R9 270X. Und das erreicht durchaus Spielbare Frameraten!
Das ist ja vollkommen nichtssagend, wenn du das Szenario nicht nennst. Quake 3? Ich habe vor einiger Zeit meine 270X gewechselt, weil sie mir in FullHD zu langsam war.

Den Unterschied in 4K kannst du doch anhand der Unterschiede in FullHD ungefähr abschätzen, wenn du die 270X mit den Top Karten vergleichst.

@der_henk
es zeigt auch, ob eher die CPU oder eher die GPU in dem jeweiligen Szenario limitiert.
 
KainerM schrieb:
Wie wärs eigentlich mal damit, nicht nur das absolute high-End auf 4K los zu lassen? Ich hab hier einen 4K-Monitor, und eine R9 270X. Und das erreicht durchaus Spielbare Frameraten![...]

Was heißt spielbar, 20 FPS? Das ist vielleicht spielbar, aber Spaß macht das nicht. Die Mehrheit möchte nun einmal ein flüssiges Erlebnis in 4K (50+ FPS). Das schaffen die High-End-Modelle schon nicht, schwächere Karten zu testen kann man sich dann auch sparen.

Natürlich kommt es auch auf's Spiel und Settings an. Für Tetris reicht reicht da auch ne Midrange Karte.
 
Gerade mal den Testbericht überflogen. Zwei Eindrücke vorneweg: es ist gut, dass nun auch OC-Modelle getestet werden und nicht nur das Referenzdesign. Das war doch etwas praxisfern bisher.

der_henk schrieb:
Der 2500K Test ist ja 'ne gute Idee doch die Umsetzung leider etwas unglücklich [...] Wobei grade Besitzer einer älteren CPU eher die Möglichkeit der Übertaktung nutzen werden als Besitzer nagelneuer CPUs.

Volle Zustimmung. Hier hätte man einen 2500k mit mindestens 4.1GHz ansetzen können.
 
Der Vergleich zu einem normalen i5-2500 hätte als Generationsüberblick sinnvoll sein können. Aber die eine K-CPU mit Standardtakt laufen zu lassen und die zweite zu übertakten... Äpfel und Birnen.
Also entweder beide CPUs mit Standardtaktung oder beide auf den gleichen Takt heben (4,0 oder 4,4 GHz meinetwegen) - alles andere ist Augenwischerei.
Wobei man dann auch fragen darf, warum keine übertaktete 2011-3-Plattform eingesetzt wird um den CPU-Flaschenhals zu vermeiden. *mal so am Rande bemerkt*
Gibt ja genügend Tests, die die Limitierung selbst durch einen 4790K aufzeigen.

Aber mal ganz, ganz am Rande:
Sollte nicht der Hinweis gegeben werden das jeder Karte, die unter Last hörbar ist, nicht empfehlenswert ist und einen Punktabzug in der Wertung bekommt?
Kühler von Drittanbietern, beispielsweise AC, zeigen doch die technische Machbarkeit eines leisen und kühlen Betriebs.
Und das mir die Geräuschentwicklung bei Einsatz einer Wakü nahezu egal sein kann... ok, dann würde wohl eventuelles Spulenfiepen signifikant Bedeutung erlangen. Aber das hören die Staubsaugervertreter nicht, was für ein Glück.
 
Zuletzt bearbeitet: (ergänzende Gedanken)
naja ein weiterer aufgebohrter grafikkarten test für technophile mit 1500 euro pc und 3 monitoren dran. für gewöhnliche pc spieler ziemlich nutzlos.
 
Crax schrieb:
Was heißt spielbar, 20 FPS? Das ist vielleicht spielbar, aber Spaß macht das nicht. Die Mehrheit möchte nun einmal ein flüssiges Erlebnis in 4K (50+ FPS).

Je nach Spiel und Einstellungen auch jenseits der 60FPS. Das ist eben der Schmäh - Tests wie diese sollen uns suggerieren dass man 4K mit so einer Karte vergessen kann. Und trotzdem reicht es in der Realität manchmal ganz, manchmal fast. Klar, auf extreme Kantenglättung und solchen Schmafu muss man verzichten - aber ganz ehrlich: Dafür habe ich 4K. Vergiss Dinge wie FXAA in diesen Auflösungen, die kosten nur extrem Leistung und man sieht quasi keinen Unterschied!
Der echte Witz ist aber der: Die GTX 970 oder R9 290X erreichen ca. 50-70% mehr FPS als meine R9 270X (je nach Spiel) - sprich, wo eine 970er 60 FPS macht, macht die R9 270X ca. 40. Ein bisschen an der Qualität gespielt und schon hast du was absolut Spielbares, ohne deine linke Niere verkaufen zu müssen. Nur leider weigern sich sämtliche Review-Seiten, mal REALISTISCHE Einstellungen zu testen. Klar, alle Regler auf Max ist leichter, da muss man sein Hirn nicht nutzen.

Klar, in BFBC2 bin ich wieder auf 2560*1440 zurück um 100% gelockte 60 FPS zu haben, in solchen Spielen ist die Framerate wichtiger als in anderen. Aber bei Spintires zum Beispiel reicht die R9 270X völlig aus (und zwar für höchste Einstellungen in 4K), weil in dem Spiel auch 40 FPS gut aussehen.

Nai schrieb:
M.E. ist bei den GPGPU-Benchmarks immer noch etwas im argen, wenn man sich die relativ stark "chaotische" performance zwischen AMD und NVIDIA anguckt.

Naja, immer wenn es um doppelte Genauigkeit geht, dann stinken die nVidia-Karten ab. AMD hat hier den gleichen Fehler gemacht wie nVidia bei Fermi (GTX 400) - sie haben einen Chip für Spielekarten UND für Profikarten entwickelt. Nur leider spielt DP bei Spielen keinerlei Rolle, und das Resultat ist ein großer, teurer, stromverschwendender Chip, der in Spielen keine besonders tolle Leistung liefert.

mfg
 
Zuletzt bearbeitet:
Sharky99 schrieb:
Ja, schade dass WOW nicht getestet wird. Bei 8-11 Millionen Spielern sollte es drin sein.

Ja und LoL sollte man auch testen. Bei ~30Mio Spielern täglich.

Nein, hauptsächlich CPU-limitierte Spiele braucht es nicht in einem Grafikkartentest.
 
Zuletzt bearbeitet:
Mohd.Rafi schrieb:
naja ein weiterer aufgebohrter grafikkarten test für technophile mit 1500 euro pc und 3 monitoren dran. für gewöhnliche pc spieler ziemlich nutzlos.

Was ist ein "gewöhnlicher PC Spieler"? Was wäre für diesen theoretischen Menschen nützlich?
 
Ich find den Test klasse, bin selbst am überlegen, wie ich mein System demnächst überholen will und in welchem Umfang. Mein i5 2500 kann meines Erachtens bleiben (ich betreibe kein OC, ein Test der mir gut schmeckt). Eine Gtx 960 oder 970 wird meine Wahl werden.
Ich finde es gut, das der 2500 mit gebencht worden iist, so wie er ist. OC unterscheidet sich doch schon in kleinsten Variablen, sei es ein anderes Board etc. Wirkt alles mit rein, daher empfinde ich den Test als unvoreingenommen. Gut.
 
Danke für den umfangreichen & sehr ausführlichen Test. Top u. DAS war bestimmt äußerst zeitfressend ...:daumen:
Eigentlich nichts überraschendes & wie bereits bekannt, sind "diverse Verbrauchswerte weiterhin abtörnend" ... :evillol:
 
Zurück
Oben