Test Grafikkarten 2013 im Vergleich

@PuppetMaster

Ja klar, alle Benchen das brandneue BF4 mit 2 Jahre alten Treibern.:freak:

Zumal CB sich in ihren Tests (u.a. diesen Test ausgenommen) auch nicht immer mit Ruhm bekleckert hat, was die Aktualität der Treiber anbelangt.
 
Zuletzt bearbeitet:
This ladies and gentlemen, this is Fermi " sagte der nvidia CEO damals mit geschwollener Brust und hielt das Teil in die Kamera. Am Ende kam dann raus dass es nur ne Attrappe war XD. Achja... Damals
"This, ladies and gentlemen, this puppy here, is Thermi"
War schon geil, vor allem der CB Test mit der Leistungsaufnahme und den FPS in Crysis die sich kaum bewegt hatten, also alles nur heiße Luft. Werd ich nie vergessen. 5800Ultra wieder geboren in neuen Gewand.
 
Tolle Übersicht, man kann Computerbase nicht oft genug loben für ihre detaillierten Artikel, ich weiß schon warum ich diese Seite so gern besuche :-)
 
Athlonscout schrieb:
Wie dem auch sei, können sich ja die Benchsequenzen und Testmethodiken unterscheiden, was ja insgesamt nicht schlimm ist, wenngleich bei CB oftmals Nvidia Karten vglw gut wegkommen.
http://www.3dcenter.org/artikel/lau...nch-analyse-nvidia-geforce-gtx-780-ti-seite-3
Komisch. Da liegt CB im Bereich der anderen Tests. Und die Ausreißer wo AMD besser abschneidet haben rein zufällig einen offenen Testaufbau gewählt.
Es muss nicht immer gleich ein Test falsch sein nur weil andere Seiten abweichende Ergebnisse erzielen. Das Ergebnis ist von vielen Faktoren abhängig. Und das verstärkt seit der implementierung der Turbo-"Features".

Da dann damit anzukommen der Tester hätte nur selbst angelerntes "Fachwissen" ist einfach nur lächerlich.
Die Anderen wurden wahrscheinlich von Gott persönlich instruiert.
 
Ich glaube er meinte mit 7950 @ 70GHZ eine unlocked 7950 zur 7970@ Ghz Edition getacktet :)
 
bensen schrieb:
Es muss nicht immer gleich ein Test falsch sein nur weil andere Seiten abweichende Ergebnisse erzielen. Das Ergebnis ist von vielen Faktoren abhängig. Und das verstärkt seit der implementierung der Turbo-"Features".

Wo habe ich etwas von "falschen" Tests geschrieben? Bitte interpretiere in meine Aussagen nicht etwas hinein, was ich so nie geschrieben habe.
Bei dem BF4 Beispiel habe ich die 7970 GHz Edition vs GTX770 (mit dem temperatursensitiverem Boost 2.0) angeführt. Hier sollten die Ergebnisse im geschlossenen Testaufbau gar noch eher zu Gunsten der AMD Karte ausschlagen.

bensen schrieb:
Da dann damit anzukommen der Tester hätte nur selbst angelerntes "Fachwissen" ist einfach nur lächerlich.
Die Anderen wurden wahrscheinlich von Gott persönlich instruiert.

Über andere Tester habe ich überhaupt nichts geschrieben.:rolleyes:

Trotzdem würde ich mir wünschen, die Tests auf CB hätten, über eine reine Balkenschlacht hinaus, das gewisse "etwas", so dass man die Tests als Referenz im Netz ansehen kann.
Viele Tests von Wolfgang, die über diese besagten Balkenschlachten hinausgehen (bspw die Mikrorucklertests, die GPU braucht CPU Sondertests oder die PCIe 3.0 vs PCIe 2.0 Sondertests) empfinde ich als sehr aufschlussreich (an dieser Stelle ein Lob an Wolfgang) und würde mir in dieser Richtung mehr wünschen. Abseits der guten Sondertests gehen die meisten CB-Tests in den Weiten des WWW leider allzuoft unter, bieten nur 08/15 Kost.

Vielleicht liegt es aber auch nur an mir, von einem hauptberuflich angestellten Redakteur überdurchschnittliches zu erwarten, was ich so von einem rein ehrenamtlich tätigen Hobbyredakteur nicht erwarte.;)
 
Vorsicht: viel Text :D

Unyu schrieb:
Humanforce geht von einem völlig unsinnigen Szenaria aus. 100% Last, sonst nichts. Ich addiere, weil er es nicht anders wollte. Wenns dir am Herzen liegt rechne selbst mit für dich anständigen Werten.
2h Idle/BluRay (ZUSAMMEN, können auch 2h Idle und 0h BluRay sein) sind sehr wenig.

1h Vollast würde ich prinzipiell als denkbar erachten. Aber wie erwähnt wollte Humanforce es so.

Es gibt keine Argumente. Ich habe lediglich Humanforce unsinnige Rechnung kritisiert. Sein Argument war, die 290 sei 100€ billiger und lebt 2 Jahre, danach wird sie teurer. Den 50€ Kühler hat er in der Rechnung nicht erwähnt, nur bei den positiven Eigenschaften.
Ich kann doch nicht für dich und jeden anderen Benutzer im Forum seine Idealwerte errechnen. 3 Stunden Volllast pro Tag / 365 erschien mir nur gerechtfertigt, um die hohen Wochenendzeiten und evtl. Schüler/Studenten nicht ganz außen vor zu lassen.
Die Idle Werte sind egal. Ob ich da eine GTX 780 oder R9 290 einbaue. Die paar Cent findet du im Jahr auf der Straße.

Hier:
GTX 780
Abgeschalteter Monitor: 58
Desktop-Betrieb: 61
Desktop – Zwei Monitore: 62
Desktop – Drei Monitore: 111
Blu-ray-Betrieb: 82
Last - Crysis 3: 288

R9 290
Abgeschalteter Monitor: 54
Desktop-Betrieb: 67
Desktop – Zwei Monitore: 105
Desktop – Drei Monitore: 106
Blu-ray-Betrieb: 151
Last - Crysis 3: 380

Unterschied (R9 290 - 780 = x) rot = AMD weniger Verbrauch, grün = AMD mehr Verbrauch
Abgeschalteter Monitor: -4
Desktop-Betrieb: 6
Desktop – Zwei Monitore: 43
Desktop – Drei Monitore: -5
Blu-ray-Betrieb: 69
Last - Crysis 3: 92

(Rechnet die von euch gewünschte Tagesmenge an Stunden selber zusammen) [0,28 € pro kWh]
1 h/d*365 Standby (im Jahr: 1,46 kWh 0,41 €) [-Wert pro AMD]
1 h/d*365 Idle, ein Monitor (im Jahr: 2,18 kWh 0,61 €) [Wert pro Nvidia]
1 h/d*365 Idle, zwei Monitore (im Jahr: 15,65 kWh 4,38 €) [Wert pro Nvidia]
1 h/d*365 Idle, drei Monitore (im Jahr: 1,82 kWh 0,51 €) [-Wert pro AMD]
1 h/d*365 BluRay (im Jahr: 25,12 kWh 7,03 €) [Wert pro Nvidia]
1 h/d*365 maximale Last pro Tag (im Jahr: 33,49 kWh 9,38 €) [Wert pro Nvidia]


Wenn ich einen sehr allgemeinen Durchschnitt durch meinen 365 Tage rechnen müsste, würde es ungefähr so sein:
0,25x h/d*365 Standby
1x 1 h/d*365 Idle, ein Monitor
1x 1 h/d*365 Idle, zwei Monitore [ich schalte ihn per Windows+P ab, wenn nicht gebraucht]
2x 1 h/d*365 maximale Last pro Tag

= (-0,25*0,41€)+(0,61€)+(4,38€)+(2*9,38€) = -0,1025+0,61+4,38+18,76 = 23,64 €
== 23,64 Euro würde mich (!) die AMD Karte bei ~1369 Stunden / 57 Tagen mehr kosten, wie eine GTX 780, wenn beide im Jahr genau das gleiche tun würden.

Ich habe pauschal 100 Watt Mehrverbraucht unter Last, bei 3 Stunden Nutzungszeit (36,40 kWh 10,19 €), herangezogen weil dies ein - mMn - sehr guter Mittelwert sein sollte. Vielspieler werden den Unterschied im Strombedarf zwischen R9 und GTX am ehesten so feststellen.
Nicht jeder spielt 5 Stunden unter maximaler Last.
Nicht jeder hat seinen Rechner nur 1 Stunde pro Tag an.
Nicht jeder guckt BluRay am PC.
Nicht jeder hat ein MultiMonitor-Setup.

Wenn man einen Bildschirm hat und mit seinem PC spielt, dann gibt es nur den Betrag von 10 Euro pro Jahr (1*365*0,28), der wirklich von Interesse ist.
Wenn ich noch zuhause wohnen würde, wäre mir der Strombedarf sogar scheiß egal. ICH müsste 100 Euro weniger ausgeben und erhalte mehr/gleichviel Leistung.

Framelimiter (fremd oder vom Spiel selbst), VSync und Undervolting kommen dann noch dazu und lasse ich aus dieser Berechnung mal raus.
----


Zum Thema Lüfter:
Die aktuellen Geforce 780 Custom Karten hatte teilweise viele Wochen Zeit sich preislich einzupendeln.
AMD besitzt aktuell nur Referenzkühler für die R9 290. Aftermarket-Kühler rechne ich nicht mit ein, weil die Karte ohne einen standardmäßig besseren Kühler (für mich) gar nicht in Frage kommt.
Die Boardpartnerkarten werden nicht viel über dem aktuellen Preis von ca. 320 Euro liegen und damit gegenüber der günstigsten 780 (inkl. Angebot/Nachfrage-Abklingzeit!) von 430 bei fast exakt 100 Euro Preisunterschied raus kommen.
Ob das nun am Ende 80 Euro werden - wegen leicht höheren Custom Preisen - oder tatsächlich 100 wäre jetzt Spekulation. Für die Berechnung ist 100 Euro einfacher.

Fakt ist: Die R9 290 übertrifft die 780 in Sachen Geschwindigkeit, ist günstiger, noch zu laut und braucht mehr Strom.
Fakt 2 ist: Die Custom Karten werden ebenfalls günstiger sein, ebenfalls schneller, nicht mehr "zu laut" und brauchen auch mehr Strom.

Ich bin da aber nicht auf den Kopf gefallen: Custom Karten werden wahrscheinlich noch mal mehr Strom benötigen, da die Kühlung nicht mehr für eine MHz-Drosselung sorgt. Allerdings gab es in der Vergangenheit Boardpartner die den VCore nach unten und gleichzeitig die Taktung nach oben geregelt hatte. Das könnte bei der R9 290 ebenfalls stattfinden, da diese von Haus aus über einen höheren VCore verfügt (im Vergleich zur X-Version).

Wenn das nicht stattfinden sollte, ist der maximale Wert so wie beim letzten R9 290 + Aftermarket Test von CB ca. 50 Watt (50%) höher und 1 h*365*0,28 kosten dann 15,29 € (54,60 kWh). 3 Stunden entsprechend 45,86 €.
Und dann, lieber Unyu, hast du Recht. Alleine der Last-Strombedarf frisst den Puffer nach 2 Jahren auf und die GTX ist "günstiger". Leistung, Feature-Set und evtl. Restwertverkauf der Hardware nach 3 Jahren lasse ich hier aus der Bewertung raus. :)

Bis zum Release der Custom-Karten kann ich nur hoffen, dass das letzte Szenario irgendwie unter Kontrolle gebracht werden kann. Wenn nicht, tja, dann muss das + an Leistung/bestimmte Feature pro AMD sprechen, denn rein vom € Wert passt es dann nicht mehr. Ich in der Regel von einem Grafikkarten-Neukauf nach Ablauf von 3 Jahren Nutzungszeit aus. Bei mir sind es auch mal nur 2 Jahre.
Währst du mit diesem Fazit einverstanden?

Unyu schrieb:
Sie ist viel zu teuer, laut, kostet im Betrieb und ist spät dran. Gegen eine 7970 oder noch kleiner haben die keine Chance. Und ihr wollt ernsthaft um 50€ feilschen.
Die 7970 spielt in er Performance-Klasse unterhalb der R9 290 und steht doch gar nicht im direkten Vergleich zur R9? Ja, sie ist 100 Euro günstiger, ja sie reicht für 1920. Dafür 20% langsamer. GTX 780 und R9 290 spielen in der gleichen Performance-Liga.
 
Zuletzt bearbeitet: (Ein paar Fehler behoben.)
Unyu schrieb:
Den 50€ Kühler hat er in der Rechnung nicht erwähnt, nur bei den positiven Eigenschaften.
Ich nutze eine Wasserkühlung, daher habe ich bei allen Karten zusätzliche (Fullcover-)Kühlerkosten von ca. 100€ ;)

Jeder muss für sich entscheiden, was besser ist. Mit 2h Idle/Tag und 3h Volllast/Woche ist mir der Stromverbrauch egal. Und das Lautstärke- bzw. Kühler-Argument ist bei mir auch nicht schlagkräftig. Daher habe ich mir eine R9-290 gekauft. Punkt.
 
warum fängt die gestrichelte linie der preisleistungsskala bei 20 anstatt bei 0 an ...so geht die gleichung euro zu frames ja nie auf
nun gut man könnte sagen eine 290 ist etwas zukunftssicherer als eine 280x mit der man wiederum zur 270x länger daddeln kann,vllt sind deshalb die drei genannten grakas auf eine preisleistungsebene(da es ja bei 20 frames erst los geht laut skala)...
aber ist es nicht egal ob ich mir jetzt eine graka alle 2jahre für 200 euro hole oder eine alle 3 jahre für 300euro.
ich denke,man sollte doch schon fair bleiben und bei 0 prozent/euro anfangen ;)ich persönlich fand die alte preisleitungsberechnung ehrlicher und somit besser oder was meint ihr
 
Ich bin da aber nicht auf den Kopf gefallen: Custom Karten werden wahrscheinlich noch mal mehr Strom benötigen, da die Kühlung nicht mehr für eine MHz-Drosselung sorgt. Allerdings gab es in der Vergangenheit Boardpartner die den VCore nach unten und gleichzeitig die Taktung nach oben geregelt hatte. Das könnte bei der R9 290 ebenfalls stattfinden, da diese von Haus aus über einen höheren VCore verfügt (im Vergleich zur X-Version).
sicher nicht (mit dem Kopf);)...... Aber das Verhältnis Kühlung/Verbrauch verhält sich genau umgedreht.....
Das Referenzd. mit der Radialkühlung verbraucht irrsinnig viel Strom da die Karte unter Last praktisch immer im Templimit ist. Der "Mehrverbrauch " durch höhere/stabilere Taktung fällt da praktisch kaum ins Gewicht. Sicher ist MK-26/Xtreme 3 ein extremes Beispiel,aber unter 7V bei letzterem ist der Verbrauch 30-40W geringer zum RefD bei höherer Taktung. Damit sollten die "Werks Customs" zumindest nicht mehr verbrauchen.

Alleine der Last-Strombedarf frisst den Puffer nach 2 Jahren auf und die GTX ist "günstiger". Leistung, Feature-Set und evtl. Restwertverkauf der Hardware nach 3 Jahren lasse ich hier aus der Bewertung raus.
bei Deinem Rechenspiel kommt allerdings der größte "Stromfresser" bei falscher Wahl zu kurz ,bzw. wird nicht erwähnt. Das Netzteil ....
Der Unterschied zwischen einem "Fake-Bronze" und einem 80+Gold oder Platin was die Effizienz betrifft ,ist um ein vielfaches höher als zwischen den beiden Karten! Bei einem System mit 450/500W kann der Unterschied über 100W betragen was die NT aus der Wand ziehen zwischen einem Bronze und Platin unter Last.Was sich unter Teillast/Idle entspr. geringer nat .fortsetzt.

Last - Crysis 3: 288 Last - Crysis 3: 380
:eek: kann weder mit System noch "GPU only" hinkommen.......zumindest bei der 290
 
Zuletzt bearbeitet:
norbyb schrieb:
ich denke,man sollte doch schon fair bleiben und bei 0 prozent/euro anfangen ;)

Tut es doch. Es wird allerdings nur der Bereich ab 120 € dargestellt, wenn du das gedanklich nach links erweiterst erkennst du, dass die Gerade wohl durch 0/0 geht ;)
Ergänzung ()

Zotaczilla schrieb:
:eek: kann weder mit System noch "GPU only" hinkommen.......zumindest bei der 290

Das ist die gesamte Leistungsaufnahme des Testsystems mit i7 4770K @ 4,4 GHz, allerdings an der Steckdose gemessen, d.h. inkl. der Verlustleistung eines 80-Plus-Gold-Netzteils.
 
Zuletzt bearbeitet:
Marco^^ schrieb:
ASUS GTX 670 DirectCU II GTX670-DC2OG-2GD5

Ich hab vor kurzem noch ein Video gesehen auf YT, da konnte man rein garnix von der Karte hören ...

Das ist eine 2012er Karte.

"Am 10. Mai 2012 präsentierte Nvidia die dritte Grafikkarte auf Basis der GK104-GPU, die Geforce GTX 670." Wikipedia!

Aber ja ist leise, hat ja auch das gleiche Kühlsystem bei fast identischem Chipsatz zu meiner GTX 660 TI. ;)

Nebenbei hat die 670 nur 15% mehr Leistung zur 660TI bei ca. 98€ Mehrkosten für das Asus Direct CU II Layout!

Ich bleibe dabei, 2013 hat mich enttäuscht was die Lautstärke der Karten anging!

PS: Ich höre meine Karte auch nicht, ich höre nur die Gehäuselüfter bei 5V. Aber das ist leiser als ich flüstern könnte. Leiser als der Wind ;)
 
Zuletzt bearbeitet:
Das ist die gesamte Leistungsaufnahme des Testsystems mit i7 4770K @ 4,4 GHz, allerdings an der Steckdose gemessen, d.h. inkl. der Verlustleistung eines 80-Plus-Gold-Netzteils.
ok.... finde ich etwas wenig dann oder....? Effizienz bestenfalls 30W noch wech, wäre Netto 350W:eek: 4770K 4,4GHz +R9 Referenz und Gedöns.....
 
Kann hinkommen. Ca. 100 Watt fürs Restsystem, wenn die CPU im Spiel nicht auf Volllast läuft, und ca. 250 Watt für die R9 290, die im geschlossenen Gehäuse wohl schon temperaturbedingt etwas drosselt.
 
Schöner Test CB, da hat sich mal ja wirklich Arbeit gemacht. Was mich halt Wurmt, ist der Leistungsunterschied nur bei neuen Spielen der Fall oder auch bei den alten die es schon zum release der HD6xxx Serie gab?

Hintergedanke ist halt, sind die neuen Karten so gut weil sie einfach mittlerweile alles durch die Treiber rausholen, oder sind nur die anderen im Vergleich so schlecht weil sie bei auf Spiele treiberseitig nicht mehr so gut optimiert werden?

Im Grunde ist sind diese Gedanken relativ unsinnig, da man ja sowieso nur durch neu kauf eine neuen Karte etwas ändern kann. Doch immo sind mir die Karten immer noch viel zu Teuer. Die Grafikarten sind jetzt 3 Jahre alt, die fallen bestimmt noch in den Preis auch wen sie sich schon etwas an den stand 2010 angenähert haben. Damals hat man halt für die 6870er 130-160€ bezahlt. Neute sind es noch immer 180€. Das ist viel zu teuer. Ich warte das die R280 endlich unter 200€ fällt, den 3 GB sollten es schon mittlerweile sein. Das dürfte aber wohl noch bis Neujahr dauern.
 
Hm ... reicht ein Seasonic X-560 fuer so ein ASUS 290X gedoens? Irgendwo las ich mal was von 400W Verbrauch im "Ubermode" bei Crysis 3 ... muesst aber suchen gehen ob das mit System oder ohne war.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Zotaczilla schrieb:
sicher nicht (mit dem Kopf);)...... Aber das Verhältnis Kühlung/Verbrauch verhält sich genau umgedreht.....
Das Referenzd. mit der Radialkühlung verbraucht irrsinnig viel Strom da die Karte unter Last praktisch immer im Templimit ist.
...
Der Unterschied zwischen einem "Fake-Bronze" und einem 80+Gold oder Platin was die Effizienz betrifft ,ist um ein vielfaches höher als zwischen den beiden Karten! Bei einem System mit 450/500W kann der Unterschied über 100W betragen was die NT aus der Wand ziehen zwischen einem Bronze und Platin unter Last.Was sich unter Teillast/Idle entspr. geringer nat .fortsetzt.

:eek: kann weder mit System noch "GPU only" hinkommen.......zumindest bei der 290

CB Test
R9 290 - 40 % Lüfter
R9 290 - 47 % Lüfter
R9 290 - Aftermarket in Form eines Accelero Xtreme III

Leistungsaufnahme.JPG
Leistungsaufnahme 2.JPG
Takt.JPG

Das Referenzdesign hat niemals die maximale Leistung erreicht. Erst wenn es bis auf 55% Lüftergeschwindigkeit gedreht wird. Dieser Wert wird ohne Treiberanpassung nicht erreicht. Der Accelero erreicht immer die maximale Taktrate.
47% (Default mit Treiber) auf Aftermarket > 50 Watt+
Meine Aussage war daher richtig. ;)

Die zweite Aussage ist auf das ganzer CB-Testsystem bezogen.
 
2 verschiedene Tests , 2 völlig unterschiedliche Ergebnisse!:D

SRY CB .....aber nicht nur ht4u kommt da zu einem völlig anderem Ergebniss. Auch andere Plattformen die das nicht zum ersten mal machen.... Ich habe meine eigene (Xtreme3) und eine mit MK 26 umgebaut und komme zu einem anderen.
Hab mir den Test mal komplett durchgelesen.....einiges erschließt sich mir auch nicht?
Dass dieser Wert bei einem besseren Kühler weiter steigt, zeigt der Einsatz des Accelero Xtreme III, durch den das System auf eine Leistungsaufnahme von 399,5 Watt bei einer Lüfterspannung von 12 Volt kommt. Aufgrund einer höheren Temperatur der GPU erreichen wir mit dem Accelero Xtreme III bei einer Lüfterspannung von lediglich 7 Volt gar 415,5 Watt.
die höhere Leistungsaufnahme unter 7V (vgl 12V) von 15 W wird einer höheren Chiptemperatur (11Grad)geschuldet. Bei gleichem Takt der bei beiden Lüfterspannungen und den entspr. Temps. erreicht wird?:eek::eek: Was ist dann mit der Referenzkarte die 94Grad am Chip erreicht......

Das Referenzdesign hat niemals die maximale Leistung erreicht. Erst wenn es bis auf 55% Lüftergeschwindigkeit gedreht wird
klar ,aber der Radial dreht trotzdem fast 3000rpm......k.A. ob Du sowas schon mal einzeln in der Hand gehabt hast, allein das Gewicht im Vergleich zu den kleinen 92mm Lüftern(chen) des AC. Die geschlossene Radial -Kühlung muss zu dem praktisch die Luft komplett durch den Kühlkörper drücken..... Auch ohne eine 100% ige Erklärung die ich nicht gefunden habe,:p sollte da wesentlich mehr "Energie "nötig sein.
Hab wie gesagt meine eigene Karte gleich nach dem Kauf mit einem BQE9 500W und einem Netzteiltester mit getestet um mal zu schauen ob ich mit dem kleinen Seasonic X460 FL hinkomme. Der Peak Wert war 420W! (Standardtakt)
Der Screen zeigt die Karte jetzt umgebaut mit drei 92mm Lüftern drauf die gesamt sicher eine etwas höhere Leistungsaufn. haben als die Arctic....max. OC Setting 1250MHz Vcore 1,21V .Lüfter laufen 7V/ ca.10V /7V

DerPeak Wert ist unter 400W......



http://ht4u.net/reviews/2013/r9_290_im_griff_prolimatech_mk-26_black_im_test/index7.php

http://ht4u.net/reviews/2013/arctic_accelero_xtreme_iii_meets_amd_r9_290/index6.php


Der Verbrauch einer 290 Ref. sollte definitiv auch vom Bios abhängig sein......mit dem "alten" Sapphire-Bios und variabler Spannung ist der VCore z.T. extreme geschwankt mit Spitzen z.T. über 1,3V :freak: wenn die Karte z.B. wieder hochtaktete nach dem "trotteln". Evtl. auch mit eine Erkl.....
 

Anhänge

  • takt.JPG
    takt.JPG
    292 KB · Aufrufe: 453
Zuletzt bearbeitet:
Zurück
Oben