Test Grafikkarten: 17 × AMD Radeon und Nvidia GeForce im Vergleich

So sehen also die Verbrauchswerte aus?

Das sind meine Ergebnisse auf Basis diverser CB-Tests der Custom Karten.

244 Watt - Gtx 970 Referenz
283 Watt - GTX 980 Referenz
321 Watt - GTX 970 custom oc
331 Watt - GTX 980 custom oc
363 Watt - AMD r9 290 custom oc
373 Watt - AMD r9 290x custom oc

Gruß
Traxton
 
Schöner NvidiaBase Test!
Die 290 um 3% gesteigert, die 970 um ca. 20%, weil CB meint es ist richtig. Wenigstens gebt ihr eure Beeinflussungen noch zu, auch wenn nur verlinkt. Wer macht sich schon die Mühe das zu lesen oder die Kommentare. Balkenbilder anschauen und Nvidia kaufen!
 
VinnyD schrieb:
Sinnloser "Vergleich", also ist deutlich was das hier eigentlich ist.

Hier werden Nvidias neueste Karten dieses Jahres, mit AMD Karten von vor mehreren Jahren verglichen. Bravo CB :rolleyes:

Dein Kommentar ist leider sogar sinnloser. Wenn du die Augen aufgemacht hättest, wären dir aufgefallen, daß sich selbst noch eine GTX 580 und GTX 6970 im Test befinden, die aus dem Jahr 2011 stammen.

Was kann CB dazu, wenn AMD ihre schon ewig angekündigte 300er Reihe nicht gebacken bekommt, wobei die "kleineren" Modelle auch nur wiederverwendete, jetzt aktuelle Karten wie eine R9 290, R9 270X (HD 7870), etc. sind und nur die teuren Topkarten den neusten Chip erhalten werden?

Desweiteren haste die direkten Gegenparts ja drin. Die R9 290er Reihe wurde gegen GTX 780 gestellt und die 290X war damals der "Titan Killer", bis die GTX 780 Ti kam.

Wenn man sich so einen Test anguckt, gilt leider noch immer: must du gucken mit die Augen und denken mit die Kopf".
 
Zuletzt bearbeitet:
Genau. Der normale Nutzer meldet sich hier im Forum. Standard: ich hätte gerne einen Gamer-PC. Verwendungszweck: Zocken. Preis: 1.000€, zzgl Peripherie. Und da das ja nix ist, wird das dann 2h die Woche genutzt.

Hmmm, halte ich für Unwahrscheinlich.

Aber gut, Tatsache ist, der Stromverbrauch hängt natürlich mit der Nutzung zusammen. Zum Beispiel auch, ob BluRay geschaut wird oder ein zweiter Monitor dran hängt. Das teurere Netzteil war schon vorhanden, auch gut. Es ist eine Frage der Zeit. Zumindest ein Teil der Kosten wird in einem relevanten Zeitraum zusammen kommen.

Man müsste insofern also das Nutzerprofil abfragen, bevor man zu AMD rät. Meistens wird sich dabei zeigen, dass nVidia günstiger ist. Wenn man in der Beratung den Leuten die Stromposition erläutert anstatt AMD mit einem vermeintlich besseren P/L-Verhältnis zu puschen, werden gleichsam viele wieder Abstand nehmen. Mancher auch aus Umweltbewusstsein selbst dann, wenn er den PC weniger stromschluckend nutzt.

Wieviel nutzt Du Deinen PC?
2h die Woche?
Ja dann nimm ruhig AMD - aber bist Du sicher, dass Du für 2h die Woche so viel Geld ausgeben willst?
Ergänzung ()

Vielleicht kann man sich dem Thema auch statistisch nähern:

http://de.statista.com/statistik/da...n-und-jugendlichen-in-deutschland-nach-alter/
https://www.computerbase.de/forum/threads/eure-durchschnittliche-spielzeit.941085/
http://de.statista.com/statistik/da...eit-pro-gamer-in-ausgewaehlten-laendern-2011/

Hmmm, statistisch also 1,5 bis 2h am Tag, nicht pro Woche, zzgl. BluRay und zweiter Monitor. Und bei den Forennutzern deutlich mehr. Statistisch ist AMD teurer. Statistisch hier der Rat dazu meist eine Fehlberatung.
 
Zuletzt bearbeitet:
Das man sich überhaupt wegen 20-30€ AUFS JAHR gerechnet so einnässen kann bleibt mir ewig ein Rätsel... Das zahlt man für ein Essen mit Getränken an einem Abend...
 
Fakt ist, wir wissen nicht, wie der 'normale' Nutzer aussieht, auch wenn er hier noch so oft zitiert wird. Deine Bedenken bezüglich Umweltbelastung und Kosten kannst du dann ja in den einzelnen Kaufberatungsthreads zum Ausdruck bringen, nachdem du die Nutzungsgewohnheiten des Ratsuchenden abgefragt hast.

Darüber hinaus solltest du auch respektieren, dass dieses Thema für manche Nutzer einfach keine so große Rolle spielt. Dein Missionierungseifer in allen Ehren, aber du solltest den anderen einfach zugestehen, ihre eigenen Entscheidungen zu treffen - auch wenn sie aus deiner Sicht falsch sein mögen.
 
Also, der TE fragt nach und hat in seiner Konfig nVidia. Dann wird ihm erst mal AMD angedreht, hat ja das bessere P/L-Verhältnis.

Wer muss denn hier da beim TE erst mal was abfragen?
 
Es ist erstaunlich, dass Stromverbrauch für einige angeblich keine Rolle spielen sollte, wenn man Karten vergleicht, die fast identisch sind und genauso viel kosten. Wer würde sich denn da die Karte kaufen, die 100W mehr braucht? Das ist rein rational nicht zu erklären.

Man muss die >100W auch mal in Relation mit anderen Dingen setzen:
Das ist mehr als mein 55" Fernsehr an Strom benötigt.
3h spielen mit einer GTX970 bedeuten für mich, dass mein Akku des E-Bikes aufgeladen werden kann.
 
Zuletzt bearbeitet:
Die Frage ob GTX970 oder R9 290 stellt sich für mich überhaupt nicht. Das ist wie "750ti oder 270X?"
Ne R9 290 hat 4GB Speicher, der auch noch schneller ist, und in Spielen geben sie sich fast nichts, +/- 5% ist für mich gleich schnell, da kommts halt aufs Spiel an.
So, und bei dem Preisunterschied sind die 35W mehr nicht der Rede wert. Man kann sich natürlich auch einreden, 970 zieht 145W, 290 290W, dann fühlt man sich mit dem Nvidia Kauf auch wieder besser.
 
Also ich werde voraussichtlich auch nochmal einen Test mit meiner umgebauten R9 290 starten um zu zeigen wie sich Stromverbrauch sowohl bei OC als auch bei Stock bei relativ niedrigen Temperaturen verhalten. Wie ich schon geschrieben habe waren es glaube bei Prime + Furmark nicht mehr als 360W. System kann man meiner Signatur entnehmen.
 
zeedy schrieb:
Man kann sich natürlich auch einreden, 970 zieht 145W, 290 290W, dann fühlt man sich mit dem Nvidia Kauf auch wieder besser.
Verstehe ich jetzt nicht. Laut Testberichten ist der Unterschied höher und man muss es sich nicht einreden sondern es ist eine Tatsache. Dass diese Tatsache völlig egal ist, muss man sich einreden oder hier im Forum einreden lassen.
 
Zuletzt bearbeitet:
Ich habe eine HD7970(s. Signatur) - mit welcher Grafikkarte ist diese in etwa aus der Liste vergleichbar(damit ich einen Anhaltspunkt habe)?
 
Crax schrieb:
Was heißt spielbar, 20 FPS? Das ist vielleicht spielbar, aber Spaß macht das nicht. Die Mehrheit möchte nun einmal ein flüssiges Erlebnis in 4K (50+ FPS). Das schaffen die High-End-Modelle schon nicht,
Das kommt auf das Spiel und das Setting an. Nicht jeder spielt Spiele mit höchsten Anforderungen. Von den getesteten Spielen habe ich keins und es interessiert mich auch keins davon. Ich spiele mit Freunden viel Diablo 3, das geht ohne Antialiasing und wenn man 2-3 Schieber mal auf Mittel stellt statt auf Maximum auch bei 40+ FPS ohne eine Titan X im System zu haben.
Die Käufer einer 400€+ sind eine Minderheit, auch wenn das hier im spezialisierten Forum teilweise anders aussieht.
 
Ich habe eine HD7970(s. Signatur) - mit welcher Grafikkarte ist diese in etwa aus der Liste vergleichbar(damit ich einen Anhaltspunkt habe)?

Etwas unterhalb der R9 280X mit OC gleichauf, denn das ist der gleiche Chip.
 
VinnyD schrieb:
Sinnloser "Vergleich", also ist deutlich was das hier eigentlich ist.

Hier werden Nvidias neueste Karten dieses Jahres, mit AMD Karten von vor mehreren Jahren verglichen. Bravo CB :rolleyes:

selten so gelacht. In jedem gammelbeitrag auf cb liest man davon wie geil doch die amd karten die gtx 9xx serie abhängt und jetzt kommst du an und erzählst was von alten karten. Ich lach mich fast tot. Ich glaube ihr solltet mal diesen beitrag sehr realistisch sehen und nicht von den Fanboy raushängen lassen.

Flatan schrieb:
Nur gut, dass die R9 290 50-90€ günstiger ist als eine GTX 970.

die gtx 970 ist auch schneller, wie man in dem test sieht und in jedem anderen auch. Aber hey ich versteh dich. Du würdest für AMD sterben, deine Beitäge darf man eigentlich nur mit einem offenen augen betrachten. Da kommt ganz selten eine wirkliche kaufberatung bei rum.

An dieser Stelle mal ein Lob an CB das ihr diesen beitrag gemacht habt. Endlich ist wieder was los ... als ob so ein beitrag nicht magisch die stänkerer anziehen würde.
 
Zuletzt bearbeitet:
slsHyde schrieb:
Verstehe ich jetzt nicht. Laut Testberichten ist der Unterschied höher und man muss es sich nicht einreden sondern es ist eine Tatsache. Dass diese Tatsache völlig egal ist, muss man sich einreden oder hier im Forum einreden lassen.
Ja eben. Exakte Messungen ergeben einen Unterschied von 35W, ein Fakt, dass es dir als offensichtlichen Nvidia Fan nicht gefällt und du lieber Messungen heranziehst, die nicht plausibel sind, kann ich jedoch verstehen.
 
Warum wurde die 295X2 nicht getestet?
 
Zurück
Oben