Test Grafikkarten: 17 × AMD Radeon und Nvidia GeForce im Vergleich

warum läuft der i5 2500k wohl auf stock :freak: - vielleicht weil der Test sonst hinfällig wäre und der i7 genauso auf stock läuft.

Es geht ja darum dass man eine CPU mittleren Alters testet, so wie man sie kauft. Dass der Unterschied bei OC selbiger CPU noch kleiner wird ist doch klar.

Man hätte auch mit einem FX 8350 testen können, da wäre der Unterschied aber schon default viel größer ausgefallen. Im Prinzip testet der Test des i5 nicht den i5 sondern den Grafikkarten Treiber.
 
@Krautmaster
zeedy schrieb:
Fazit: der Effizienznachteil von AMD's High End Karten beim Gaming ist bei weitem nicht so groß wie immer wieder behauptet wird ;)
Nix 100W Unterscheid. Wie gesagt, in der Realität kann eine 290X bis zu 70W mehr verbrauchen als eine Custom 970, eine kaum langsamere 290 aber nur 35W mehr.
Aber glaub ruhig was du willst, ich verlasse mich lieber auf professionelle Messungen. Die 145 W TDP Angabe von Nvidia ist wohl eher was für dich :D
 
BlauX schrieb:
Krautmaster,

du weißt genau auf was es bezogen war, und worin sich deine Aussage, die sich Allgemein Formuliert bezieht... es ist stets das selbe bei dir. Du ignorierst das Kaufverhalten und die Praxis beim Kunden...

ne sorry weiß ich nicht genau. Auf den von mir angeführten Unterschied bei Leistungsaufnahme OC Modell vs OC Modell?

@zeedy

ich sage auch nicht dass es 150W auf Seite GPU sind, der Test testet ja das Gesamtsystem. Es wird ständig argumentiert "Es kauft keiner Referenz" - schon richtig, aber wie weit entfernt liegt "Custom R9 290X" und die "R9 290X OC" vom Test - ich ging jetzt davon aus das die OC Karte hier recht sprechend für viele Custom Karten steht oder stehen die bei AMD und Leistungs-Aufnahme viel besser da?

Auf TDP Angaben geb ich auch nichts - aber was Stimmt am Extremvergleich R9 290X OC vs GTX 970 OC bezogen auf den Test hier nicht? Worin unterschiedet es sich zu den Custom Karten?

Edit:

https://www.computerbase.de/artikel...test.2369/seite-4#abschnitt_leistungsaufnahme

-> 411W @ Last, Custom R9 290X, genau dieselbe Aufname wie eine R9 290X OC im aktuellen Test hier.

GTX 970 OC

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-970-test.46742/seite-5

So, Last bei etwa 253-295W .. hier im Test is die GTX 970 OC mit 268W angegeben also genau im Mittelfeld der Custom Karten.

Gesamtsystem Last sind also 100W sogar eher noch wenig zwischen Custom und Custom Modell. Aber es ist Gesamtsystem. Nicht GPU Only.
THG usw testen nur GPU. Richtig, da sind die Unterschiede kleiner. Wenn die CPU aber dank AMD Treiber mehr rechnen darf schlägt sich das eben genauso im Verbrauch wieder, und das zeigt der CB Test.
 
Zuletzt bearbeitet:
Also, erstmal Kompliment für den Test und die Arbeit die da drin steckt.
Dennoch wäre ein i5-2500K@OC zusätzlich sehr hilfreich um zu sehen
in wieweit er davon profitieren kann um den Vergleich zum i7@OC besser
einzuschätzen.

Und diese Vermutung wüsste ich gerne genauer untersucht, weil das bisher
nie irgendwo eine größere Auswirkung zeigte.

"Dafür gibt es in Assassin's Creed Unity den interessanten Effekt, dass sämtliche
Zwei- und Drei-Gigabyte-Grafikkarten auf dem Core i5-2500K zwar hohe Frameraten
erzeugen, jedoch ab und zu kurze Hänger aufweisen, die den Spielspaß stören. Der Grund ist
wahrscheinlich an dem großen VRAM-Hunger des Spiels (vier Gigabyte werden bereits in Full
HD belegt) und dem PCIe-2.0-Interface des Sandy-Bridge-Prozessors zu suchen. Während
PCIe 3.0 anscheinend schnell genug ist, auch den Speicher der Grafikkarte mit neuen Daten
zu versorgen, ist es der ältere PCIe-2.0-Standard offenbar nicht."
 
@Wolfgang
Was du bei deinem Fazit noch erwähnen solltest, dass sich aktuell immer wieder alte GPUs z.b. die GTX 780 im Abverkauf befinden und daher sehr günstig zu erwerben sind.
Meiner Ansicht nach wäre für unter 300€ die Asus ROG Posseidon GTX 780 gerade das empfehlenswerteste Modell. Das kann sich zwar schnell wieder ändern, aber man sollte es denke ich doch erwähnt haben, dass man auch einen Blick auf die beiden Karten werft.

Und dann finde ich es noch schade, dass du bei deinem kleinen CPU Test nicht auch noch einen FX genommen hast, muss ja nicht bei allen Games sein, aber bei 4 wäre das schon ein interessanter Vergleich gewesen finde ich. :)
 
Ernsthaft, den einen auf Stock, den anderen hochtakten, wer kam denn darauf? Gerade die 2500K-Besitzer kaufen sich gern erstmal nur die Graka und takten die CPU hoch, um eben genau jenen, beschriebenen Unterschied zu minimieren. Wir kennen das schon!

Und das hier:
Dafür gibt es in Assassin's Creed Unity den interessanten Effekt, dass sämtliche Zwei- und Drei-Gigabyte-Grafikkarten auf dem Core i5-2500K zwar hohe Frameraten erzeugen, jedoch ab und zu kurze Hänger aufweisen, die den Spielspaß stören. Der Grund ist wahrscheinlich an dem großen VRAM-Hunger des Spiels (vier Gigabyte werden bereits in Full HD belegt) und dem PCIe-2.0-Interface des Sandy-Bridge-Prozessors zu suchen. Während PCIe 3.0 anscheinend schnell genug ist, auch den Speicher der Grafikkarte mit neuen Daten zu versorgen, ist es der ältere PCIe-2.0-Standard offenbar nicht.

Ich hätte mir gewünscht, dass man hier statt nur einer Vermutung mal wirklich getestet hätte. Am Ende lag's bloß am Testsystem selbst.
 
Danke für den umfangreichen Test,beide Hersteller bieten gute Produkte an.
Die Stärken und Schwächen werden auch gut aufgezeigt und wie die Karten sich tendenziell bewegen.
Am Ende kann man nur sagen: Kauf was deine Geldbeutel hergibt.
 
erstamals danke an cb für den umfangreichen test. super vergleich.
sicherlich ist es nicht perfekt aber doch überwiegend gut.

wieviele hier auch schon geschrieben haben, wäre der 2500k mit zusätzlichen oc auch noch nett als vergleich.

zur r9 290. wie schon viele hier auch erwähnt haben, sind die verbrauchswerte schon oft komisch. eine refernzkarte mit schlechten kühlung zu testen ist nicht aussagefähig.
es wurden schon einige links von usern hier gezeigt (toms hardware z.b) wo es gezeigt wird was eine gute kühlung bei diesen karten ausmacht. nicht nur was die lautstärke angeht, sondern auch die leistungsaufnahme. in meinem fall war der wechsel auf den raginek kühler ein segen. mir gings vor allem um die lautstärke, ich habe aber nicht schlecht gestaunt als mein ganzes system um 30 bis 40 watt weniger verbraucht hat. die temperaturen sind von 94 auf 62 grad gesunken, der verbrauch unter last bis zu 45 watt ebenso und die lautstärke von sehr laut auf unhörbar.
 
thx für die neuen Aspekte Wolfgang.
 
Schöner Test. Da bin ich mit meiner OC OC Strix GTX 980 ja richtig gut dabei ;)

Ich hab bei meinem Gaming-Rig an der Steckdose gemessene Ø 275W im Heaven-Benchmark.
 
Zuletzt bearbeitet:
Bei der Preis/Leistungsbewertung fehlt der Unterschied im Stromverbrauch, der zum Beispiel bei der GTX970@OC vs R9 290X@OC eine deutlich höhere Netzteilklasse mit sich bringt sowie höhere Ansprüche an die Gehäusebelüftung stellt. Damit dreht sich das P/L-Verhältnis.
 
Killer1980 schrieb:
zur r9 290. wie schon viele hier auch erwähnt haben, sind die verbrauchswerte schon oft komisch. eine refernzkarte mit schlechten kühlung zu testen ist nicht aussagefähig.
es wurden schon einige links von usern hier gezeigt (toms hardware z.b) wo es gezeigt wird was eine gute kühlung bei diesen karten ausmacht. nicht nur was die lautstärke angeht, sondern auch die leistungsaufnahme. in meinem fall war der wechsel auf den raginek kühler ein segen. mir gings vor allem um die lautstärke, ich habe aber nicht schlecht gestaunt als mein ganzes system um 30 bis 40 watt weniger verbraucht hat. die temperaturen sind von 94 auf 62 grad gesunken, der verbrauch unter last bis zu 45 watt ebenso und die lautstärke von sehr laut auf unhörbar.

Siehe meinen letzten Post oben. Die R9 290X OC deckt sich hier absolut vom Verbrauch her mit einer Custom R9 290X wie sie im Handel ist und auch OC ist.

Bezüglich Messung Gesamtsystem vs Messung GPU only zeigt ja der CPU Test auf, dass es schlicht quatsch ist die Messung auf die GPU zu beschränken da mehr Faktoren wie CPU und Gesamtsystem Last mit einfließen. Mit DX12 dürfte demnach der Unterschied geringer werden - weil bei AMD die CPU Entlastung mehr bezüglich geringerer Leistungsaufnahme bringen wird.

Edit:

Ich mein was bringt es mir wenn ich weiß dass meine GPU fast gleich viel braucht als die Konkurrenz, meine (man siehts hier ja, meist OC CPU) aber deutlich mehr rödelt (vielleicht ohne zu limitieren) sodass ich am Ende nochmal 50W draufpacken kann... da finde ich die Testmethodik bei CB zb sinniger als mim PCIe Slot. Lobenswert.
 
Zuletzt bearbeitet:
Auslastung der GPU/CPU bei AMD hat einen völlig anderen Grund. Es ist mitunter auch der Grund, wieso bei hohen Auflösungen AMD besser ist... wurde oft genug erwähnt und Thematisiert. Treiber spielt da nur eine geringe Rolle, was aber oft geglaubt wird, es liege am Treiber..
 
ist doch vollkommen egal an was es liegt- es ging eben um die Verbrauchswerte @ Gesamtsystem. Der THG Test zeigt ja gut das die Karten selbst näher bei einander liegen (vor allem Custom). Vielleicht sollte man einfach mal beides messen.

Man veruscht hier wieder irgendwas ums verrecken schön zu reden, kommt mit Tests bei denen nur die GPU gemessen hat (für sich ja schön und gut dass es so Tests auch gibt), argumentiert zum 100x mal über den Satz "keiner kauft Referenz" dabei sind die Custom Karten ähnlich dem OC Modell hier, bei beiden Parteien. Fakt ist doch, 100W Unterschied bei selber Gaming Leistung sind aufs Gesamtsystem bezogen kein Problem. Beim Extrema auch 140W (GTX 970OC und R9 290X OC sind quasi genau gleich schnell). Leb damit.

Ich hab ja sogar geschrieben dass für mich das jetzt kein großes Kaufargument wäre. Andere Defizite sind da gewichtiger. Schon gar nicht wäre es den Aufpreis zur GTX 980 wert.
 
Zuletzt bearbeitet:
Egal ist es nicht... sonst hättest du deinen Post dahingehend ja nicht editiert....

Man versucht dir stets immer im normalen Ton etwas zu erklären. Du hingegen kommst keinen Schritt entgegen... es ist mühselig. Du möchtest scheinbar deinen Gegenüber nicht verstehen, aus Angst noch mehr editieren zu müssen? ... Keine Ahnung, ich spekuliere da mal genauso wie du, mal sehen wie lange es diesmal dauert, bis du empfindest persönlich gekränkt zu werden. Du hattest ja schon mal das Vergnügen, ab dem Moment, wo ein Schritt entgegen kommen deinerseits unausweichlich war und du dir damit selbst auf den Fuß getreten hast.

Ist auch ok jetzt. Hat keinen Sinn.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Siehe meinen letzten Post oben. Die R9 290X OC deckt sich hier absolut vom Verbrauch her mit einer Custom R9 290X wie sie im Handel ist und auch OC ist.

Bezüglich Messung Gesamtsystem vs Messung GPU only zeigt ja der CPU Test auf, dass es schlicht quatsch ist die Messung auf die GPU zu beschränken da mehr Faktoren wie CPU und Gesamtsystem Last mit einfließen.

Wie ignorant du doch bist. Jetzt sind also GPU-only Messungen in einem GPU Vergleichstest Quatsch?
Du kannst es wenden und drehen wie du willst, eine Custom 290X kommt beim Gaming auf etwa 250W, während eine teurere aber etwas langsamere GTX970 durchschnittlich und je nach Modell 180W zieht.

Wenn man aber vernünftig ist, kauft man sich eine R9 290 (Tri-X zB), diese ist noch einmal deutlich günstiger als eine GTX970, insgesamt kaum langsamer, und mit ~35W reellem Verbrauchsunterschied nur unwesentlich stromhungriger. Dafür gibt es volle 4GB und die schnellere Anbindung für höhere Auflösungen ;)
 
ich bin weiß Gott nicht jemand der groß auf Leistungsaufnahme schaut (nur bei 24/7 Rechnern) - man kann aber nicht versuchen den hier wirklich guten Test die Leistungsaufnahme Messung schlechtzureden nur weil er sich von anderen unterscheiden mag (zb durch andere Testmethodik).
Man unterstellt hier wieder CB dass sie unfähig sind Themen wie Leistungsaufnahme korrekt zu erfassen. An Messequipment fehlt es CB sicher nicht. Es ist nicht damit getan sich einfach die W Zahlen bei den Verbrauchswerten anzusehen und mit Tests wie THG zu vergleichen ;)

Über "günstiger" muss man bei der Diskussion her auch nicht argumentieren.
 
Ich vertraue dem Test der Computerbase, auf die Usermeinungen hier, die ganz schön gefärbt sind durch ihre Fanbrillen, gebe ich gar nichts.

Eine R290OC mag von der Leistung her an eine GTX970 Standard rankommen und ist vom Einkaufspreis her günstiger, aber der Stromverbrauch geht überhaupt nicht klar.

402Watt für das Gesamtsystem bei Vollauslastung....

Nene, AMD schafft es einfach nicht eine effiziente Chiparchitektur hinzubekommen.
 
zeedy schrieb:
Wenn man aber vernünftig ist, kauft man sich eine R9 290 (Tri-X zB), diese ist noch einmal deutlich günstiger als eine GTX970, insgesamt kaum langsamer, und mit ~35W reellem Verbrauchsunterschied nur unwesentlich stromhungriger. Dafür gibt es volle 4GB und die schnellere Anbindung für höhere Auflösungen ;)

link?

Die hab ich doch eben gepostet:
https://www.computerbase.de/artikel...test.2369/seite-4#abschnitt_leistungsaufnahme
411W reeller Verbrauch at Last.

Die GTX 970 Customs gehen bis auf 295W hoch.
 
Stromverbrauch ist mir ehrlich gesagt auch egal. Lieber mit 400W gut gespielt als mit 2500w die Wäsche getrocknet oder mit 1600W gesaugt ^^
 
Zurück
Oben