Test Grafikkarten: 17 × AMD Radeon und Nvidia GeForce im Vergleich

Erst mal Danke für den ausführlichen Test - auch wenn manches nicht notwendig war.

Schön zu sehen ist das immer wieder Games eben besser auf Nvidia oder eben AMD laufen - meine GTX 970 schlägt sich ganz gut - es bestätigt mir den richtigen Kauf gemacht zu haben

Sooo ... jetzt einige Kritikpunkte :

550 € für ne GTX 980 ist alles andere als vernünftig

Das sind immer diese falschen Einschätzungen der Hardware-Tester

Genauso wird in einem extra gedämmten Raum die Läutstärke jeder Graka getestet.

Und weil man den Vergleich zieht, das man bei einem professionellen Test nicht macht, ist man der Annahme dass manche Customkühler wirklich leise sind.

Holt man sich das Ding nachhause - steckt die Graka in den Rechner in ein ungedämmtes Zimmer mit Nebengeräuschen der Außenwelt.
Bekommt man nen Schreck und denkt sich "was stimmt mit dem Gehör der Tester nicht"

Genauso wie "was stimmt mit der Vorstellung von Kosten bei den Testern nicht"

UHD & Zocken finde ich persönlich komplett sinnfrei.

Erst erscheinen 120/144Hz Bildschirme - jeder will suuuper flüssiges Bild haben

Dann kommen 4K Monitore raus und die Menschen freuen sich über 30 FPS

Ob jetzt die eine Graka 26 FPS und die andere 28 FPS schafft ist da mal wirklich uninteressant
 
Absolut unverständlich wie Einige hier versuchen die 20-30€ Unterschied Einkaufspreis großzureden aber gleichzeitig den deutlichen Stromhunger kleinzureden bzw. sogar zu ignorieren a la "interessiert mich nicht".

Naja, Fanbrillen und so
 
Zuletzt bearbeitet:
SSJ schrieb:
Das bezog sich auf Endverbraucherkarten, sollte klar sein.
Du schreibt AMD schafft es nicht eine effiziente Architektur zu entwerfen, deren 1,5 Jahre alte Top GPU steckt aber im effizientesten Supercomputer der Welt und ist bei doppelter Genauigkeit/Watt jeder Nvidia hoch überlegen. -> you failed.
 
@SSJ,

und welcher Endverbraucher tut sich freiwillig eine Referenz 290/x an, außer sie umzubauen (WaKü) etc?
Die Daten von Geizhals z.B. geben dir da Auskunft, welche wirklich beim Endverbraucher landet. Du tust ja gerade so, als sei die Referenz 290/x eine Mogelpackung, wo der Endverbraucher erst im Betrieb feststellt, wie Heiß und Hungrig sie ist, im Gegensatz zu ihren Custom-Modellen.
Nun, der Endverbraucher weiß das aber schon vorher und greift zur Custom...
Ist das jetzt für dich zu schwer nach Reviews zu sehen, die diese Customs dann entsprechend messen @Gesamtsystem? ... Oder willst du einfach nur provozieren?
 
Zuletzt bearbeitet:
SSJ schrieb:
Absolut unverständlich wie Einige hier versuchen die 20-30€ Unterschied Einkaufspreis großzureden aber gleichzeitig den deutlichen Stromhunger kleinzureden bzw. sogar zu ignorieren a la "interessiert mich nicht".

Naja, Fanbrillen und so
ja das mit den fanbrillen ist auch so witzig wenn sich einer die 3,5 gb version der 970er schön redet.
 
Habe nicht alles in den Kommentaren gelesen und es wurde sicher vielfach erwähnt aber ich muss es auch nochmal los werden:
Den i5-2500K mit Standardtakt gegen den i7-4770K mit 4,4Ghz antreten zu lassen ist irgendwie witzlos. Wenn überhaupt hätte man den 2500K ebenfalls auf 4,4 takten müssen (was bei den meisten CPUs ohne Probleme möglich ist) um die Auswirkungen der neuen Architektur und PCIe 3.0 herauszustellen.
Ich habe selbst noch einen 2500K im Rechner der mit 4,3Ghz läuft und ein Test wie weit dieser in aktuellen Spielen hinten dran liegt würde mich echt interessieren.
 
Wieso hab ich bei sämtlichen test hier und spielen real mehr fps
beimeinen phenom2 x6 1090t 3,8ghz 2,4ghz NB
DDr3 1600
gtx760 (vergleichbar mit gtx960)

Assetto corsa ~60fps normal einstellung ohne msaa
farcry 4 ~40-75fps
gta 5 35-75fps je nach ort und tageszeit
metro ll ~45-100fps (ohne tesselation) ohne msaa
crysis 3 ~30-60fps
bioshock infinnte ~60-120fps einige sachen wie blur aus (Das spiel allgemein ist was unscharf)
watch dogs ~45-75fps je nach dem was los ist
battlefield 4 ~40-90fps (singleplayer)
Wolfenstein tno ~60-100fps

Vsync immer aus

mal als groben überblick
Win 8,1 pro 64bit
SSd als OS Platte
Standard system einstellung

Grundlast
Steam
Internet security
anvir task manager (alte games Kerne zuweisen)
Glary utilities
Online webdav
OO defrag
msi afterburner (damit messe ich die leistung)
creative sound
tv karte fernbedienung
O&O disk image
bei bedarf
origin
Uplay
battlenet
Rockstar social club

Spiele generell nicht auf OS Platte (Platzmangel)

nun Warum ist so eine Diskrepanz
 
Zuletzt bearbeitet:
Masamune2 schrieb:
Den i5-2500K mit Standardtakt gegen den i7-4770K mit 4,4Ghz antreten zu lassen ist irgendwie witzlos. Wenn überhaupt hätte man den 2500K ebenfalls auf 4,4 takten müssen (was bei den meisten CPUs ohne Probleme möglich ist) um die Auswirkungen der neuen Architektur und PCIe 3.0 herauszustellen.

Das ist doch gar nicht Sinn und Zweck dieses Teiltests... - sondern einfach die FPS-Zahlen mit schwächeren (oder älteren) CPUs aufzeigen.
 
Finde ich auch schade, dass man den extra dafür ausgelegten 2500k nicht übertaktet hat. Mit zB 4,3GHz hätte man vielen Usern geholfen. Ein 2500k @default ist dagegen ziemlich sinnfrei. Das macht Arbeit, bringt aber kaum jemand was.
 
Toller, durchdachter Test!
Ich habe trotzdem ein paar Kritikpunkte
1. Warum wurde nicht mit aktuellen Treibern getestet. Laut Gamestar sollte der GTAV Treiber von AMD (15.4) für ein großes Plus sorgen. Der NVIDIA Treiber ist anscheinend auch schon älter.
2. Warum kein Battlefield 4/Hardline?
3. Es wäre schön gewesen, wenn man von allen GPUs OC-Modelle hätte machen können. Der Aufwand ist aber wahrscheinlich zu groß.
 
Was ich nicht ganz verstehe. Warum nimmt man denn nicht einfach Custom Modelle sondern taktet die Refenrezdesigns auf einen entsprechenden Wert. Was bringt das?
 
Und ich habe schon daran gedacht mir mit Skylake ein neues System aufzusetzen ,werde ich wohl meinen 2600k noch 1-2 Jahre behalten und mir nur ne 980 ti zulegen.
Ich denke mal der Test zwichen einem 2500 k stock gegen einen aktuellen oc Prozzi ist den Herstellern geschuldet (Sponsoren von CB) ,wie sieht es den aus wenn eine mehr als 3 Jhre alte Cpu mit der Aktuellen Generation Schlitten fährt ^^
 
slsHyde schrieb:
Bei der Preis/Leistungsbewertung fehlt der Unterschied im Stromverbrauch, der zum Beispiel bei der GTX970@OC vs R9 290X@OC eine deutlich höhere Netzteilklasse mit sich bringt sowie höhere Ansprüche an die Gehäusebelüftung stellt. Damit dreht sich das P/L-Verhältnis.

Habe ich auch mal geschrieben: P/L bezieht sich hier leider immer nur auf dem Kaufpreis. Die zusätzlichen Anschaffungskosten sowie die Folgekosten werden dabei ignoriert.
Die Custom-Karte bei AMD verbraucht 150W mehr als die vergleichbare GTX970. Bedeutet also höhere Kosten für das Netzteil, wahrscheinlich auch mehr Kosten beim Gehäuse und Kühlung sowieso deutlich höhere Stromkosten.
Alleine durch die Stromkosten (0,27€ *2h*7Tage*52Wochen) erhöhen sich die Kosten um 29€ im ersten Jahr. Wer die Karte zwei Jahre verwendet, bezahlt schon 58€ mehr.
 
ich hoffe die wechseln auch die kühlung
Ich würde tippen Zeiteinsparung, weniger GPU samples der gleichen gpu umbauen.
 
Zumal ja dann hier im Forum dieses falsche P/L-Verhältnis als Grundlage dient, zu AMD zu raten - was dann eine Fehlberatung ist.
 
@Flatan
Vermutlich hat CB keinen riesigen Bestand an Custom-Karten. Die Dinger müssen oft nach den Tests zurückgegeben werden und alle Karten zu Kaufen, würde wohl den finanziellen Rahmen sprengen. Deswegen wird wohl simuliert.
Schade, dass eine 780 OC nicht wenigstens noch eingebracht wurde.
 
Flatan schrieb:
Was ich nicht ganz verstehe. Warum nimmt man denn nicht einfach Custom Modelle sondern taktet die Refenrezdesigns auf einen entsprechenden Wert. Was bringt das?

Verschiedene TDPs, verschiedene Kühlungen haben wenn auch kleine Auswirkungen auf das Ergebnis und die Verbräuche. Am Ende muss man sich nur auf eine Vorgehensweise einigen und dann auch durchziehen.
 
Zurück
Oben