Test Grafikkarten 2013 im Vergleich

hätte nicht gedacht, dass meine 580er mittlerweile schon so stark abgeschlagen ist... aber gut.
bis 2015 muss se noch halten.
 
Irgendwie wundere ich mich, dass ihr euch die ganze Mühe mit dem Roundup macht, um dann im Text exklusiv auf R290 und GTX 780 (in ihren Varianten) einzugehen. Der Titel des Artikels könnte auch heißen: "AMD's und Nvidia's Flagschiffe im Recall". Mann würde den Unterschied nicht merken.

Na wenigstens lassen die Tabellen es zu, dass man sich selbst über den Rest des Grafikkartenmarktes informieren kann...
 
CB_KeinNameFrei schrieb:
Irgendwie wundere ich mich, dass ihr euch die ganze Mühe mit dem Roundup macht, um dann im Text exklusiv auf R290 und GTX 780 (in ihren Varianten) einzugehen.

Naja. Allzuviele andere Karten, die wirklich (und nicht nur dem Namen nach) neu sind, hat es im Jahr 2013 ja nicht gegeben. ;)
 
Wenn einen nur theoretisch interessiert, wie sich eine Referenz-280X schlagen würde, kann man sich wie erwähnt alte Tests der HD7970GHz anschauen. Ist ja fast die selbe Karte.
Ja, bei einigen Karten kann man den Rückschluss einfach halten - bei anderen hingegen ist es gar nicht mehr möglich!

ich denke da an die GTX780 OC Varianten mit Custom-Kühler! Wenn ich bedenke, dass etliche Karten mittlerweile OHNE OC vom Anwender schon ~30% höher takten als die damals getestete und immer wieder aufgeführte GTX 780 Referenz, dann frage ich mich, wo der Vergleich heute zu suchen ist!?!

Von daher, es wäre nett gewesen, wenn man die neuen Karten auch dahingegen misst! Das gleiche gilt natürlich auch dann für die R290(x) mit Custom-Kühler..........wobei es bei der ja schon mehrere, teilweise unfreiwillige Tests gegeben hat!
 
Also ich bin mit meiner freigeschalteten "HD 6970" ehemals 6950 sehr zufrieden, sie läuft jetzt 2 Jahre übertaktet. Allerdings habe ich den Ram nicht übertaktet sondern nur die GPU. Die Leistungssteigerung ist schon super, aber für meine Auflösung von 1920*1200 reicht sie noch locker aus.
 
Die letzten Wochen habe auch ich immer wieder den nVidia-Computerbase-Faktor (Project Cars, alte AMD-Treiber und Wortwahl) bemängelt.

Es gibt immer was zu kritisieren, doch der neue Testsparkur ist ein sehr gut Mix und die Bewertung objektiv.
Sehr, sehr nützlich ist auch der "Vier Generationen im Vergleich".

Deshalb vielen Dank für den zeitintensiven und umfassenden Test - der nun als Favorit gespeichert ist.
Weiter so :)
 
Danke für den Vergleich mit den alten Karten. Hab ich schon lange gesucht.

Krass, wie stark die alten Karten in aktuellen Spielen einbrechen. Meine HD7950 @ 70GHz war vor nem halben Jahr etwas mehr als doppelt so schnell wie meine HD5850. In neueren Spielen sinds aber jetzt schon teilweise 300%.


Die Leistungsverdoppelung alle 2 Jahre für den selben Preis beweist mal wieder, dass es einfach vollkommen unrentabel ist, sich eine Karte für 400-500€ zu kaufen, nur um ~20 % mehr Leistung gegenüber ner 200-300€ Karte zu haben. Der Gewinn für den Aufpreis ist einfach nur unfassbar lächerlich, wenn man sich ansieht, wie die Karten allgemein über die Jahre zugelegt haben.

Ich freu mich schon 2015 auf die 100-150€ Karten, die ne Titan in den Boden stampfen. :evillol:
 
Zuletzt bearbeitet von einem Moderator:
Netter Artikel Leute, auf dem Foto sieht es ja aus wie auf der Müllhalde. ;-) Wenn Ihr die Karten nicht mehr braucht ich nehme den Haufen so wie er da liegt.
 
Ein kleiner Fehler hat sich eingeschlichen:

Seite 2:
Wie bereits angekündigt, haben wir das Rennspiel „Project Cars“ in der Alphaversion aus dem Testparcours entfernt. Das Einstellung unserer Leser zu diesem Benchmark war in den letzten Tests eindeutig und wir reagieren ab diesem Artikel darauf.


bitte korrigieren und diesen Beitrag löschen
 
Guter Vergleich.
Das Ergebnis der Entscheidung 4k vs. 3-Bildschirme ist mir persönlich lieber, da es mit den kommenden Jahren eher zum Standard wird und alle aktuellen Grafikkarten diese Pixelmenge bewältigen müssen.

Es ist nur wirklich schade, dass wir zum jetzigen Zeitpunkt weder R9 290(x) Custom Modelle, noch BF4 Mantle haben.

Zanmatou schrieb:
Auf der anderen Seite ist wohl schon vorweg zu nehmen, dass auch die Customkarten den Stromverbrauch nicht wirklich senken werden. Und dass die R9 290 etwa 100W mehr aus der Dose zieht finde ich schon signifikant, auch wenn die Karten flüsterleise werden würden.
Ein paar Watt brauchen die Karten schon weniger, wenn sie kühler sind. Bei der AMD Radeon R9 290 mit Accelero Xtreme III 7V und 12V waren es immerhin 16 Watt. Allerdings haben sie dann auch mehr verbraucht, weil sie das Temperaturziel nicht erreicht haben und voll getaktet waren. Die Leistung steigt entsprechend ebenfalls.

Davon abgesehen: 100 Watt bei maximaler Belastung (Beispielwert bei maximal möglicher Leistung ohne explizites OC, R9 290 vs. 780)
Beim Stromverbrauch in direktem Vergleich bitte IMMER folgendes im Hinterkopf halten:
- Wann werden die 100 Watt mehr gebraucht?
- Wie lange werden die 100 Watt mehr gebraucht?

Ich benutze den Google Treffer: Stromkostenrechner für das Beispiel

Beispiel:
Gerät A mit einem Verbrauch von: 100,00 Watt (das ist die maximale Differenz zwischen den Karten)
Dauer: 3 Stunden am Tag
Dieser Verbrauch findet an: 7 Tagen in der Woche statt
Strompreis: 0,28 € pro kWh

DIE RECHNUNG:

Gerät A - 100 Watt
Zeitperiode Stromverbrauch - kWh Stromkosten
pro Tag: 0,30 kWh 0,08 €
in der Woche (an 7 Tagen): 2,10 kWh 0,59 €
in 4 Wochen: 8,40 kWh 2,35 €
im Jahr: 109,20 kWh 30,58 € [400 Watt gesamter Rechner = 30x4=120 Euro Stromkosten im Jahr, bei dieser Last]
in 5 Jahren: 546,00 kWh 152,88 €
in 10 Jahren: 1.092,00 kWh 305,76 €

Nach einem Jahr ca. 31 Euro bei dem (meist) Naturstrompreis 0,28 Cent.
Du kannst die AMD Karte 3 Jahre lang, jeden Tag 3 Stunden maximal ausnutzen, bevor die 100 Euro Ersparnis aufgebraucht sind.
Davon abgesehen würde ich auf jeden Fall (mache ich mit meiner 7950 OC bereits) Framelimiter auf 59 (oder vergleichbare Werte) setzen. Evtl. Undervolting, wenn gewünscht. > Du bist in den meisten Fällen unterhalb der maximalen Watt-Angabe.
Nur die Spiele, die tatsächlich massiv Leistung brauchen, nehmen sich alles. Dafür hast du dann aber auch eine entsprechende Leistung.

Ergebnis der Milchmädchenrechnung: (R9 290 vs. 780 bzw. R9 290x vs. 780 - Referenzkarten)
- Die 780 braucht bei Crysis 3 100 Watt weniger Strom wie die R9 290, kostet aber 100 Euro mehr und ist etwas langsamer
- Die 780 braucht bei Crysis 3 60 Watt weniger Strom wie die R9 290x, kostet etwas weniger und ist deutlich langsamer

100 Euro weniger Initialkosten + 1 Jahr lang 3 Stunden jeden Tag maximal zocken
Bei kommenden Boardpartner-Modellen und den sich ändernden Preisen stimmt diese Rechnung natürlich nicht mehr, aber vergessen sollte man das Gedankenspiel nicht.
 
Zuletzt bearbeitet:
Schon krass, dass man selbst heute das High-End Segment immer noch nicht die Spiele auf der höchsten Stufe flüssig darstellen kann. (>30 fps)

Da fragt man sich, wieso es an so etwas implementiert heute schon :D
Na klar manche geben dann noch mehr Geld aus damit es läuft, aber der Mehrwert ist doch wohl äußerst gering?

Aktuell reicht meine 4 & 2 Jahr alten Grafikkarten noch für eine akzeptable Grafik und akzeptable Performanz. Die neue gibt's dann wohl erst 2015 :-D
 
Waelder schrieb:
die Treiber schenken sich nicht viel, was mich allerdings bei den Roten aufregt ist das sie nur den aktuellen Spielen hinterher rennen, wenn man mal wieder ein altes Game(mehr als 5J alt) heraus zieht, gibt es plötzlich mit aktuellen Grafik Treibern Probleme, kann sein das Nvidia das selbe Problem hat mir aber nur nicht auffällt

Du hast recht, es fällt dir bloß nicht auf bzw. du überliest so etwas fleißig :D
Denn gerade Nvidia macht mit alten Games immer wieder Probleme... Gothic 1-3, Risen, Sacred usw. Teilweise gibt es (schon lange) sogar erhebliche Probleme mit dem HDMI-Ausgang einer Nvidia-Karte.

Bei Gothic hat es sogar 1 Jahr lang benötigt, bis Nvidia es auf die Reihe gebracht hat, ihren Win7-Treiber zu fixen, um Gothic fehlerfrei darzustellen ;-)
 
Laggy.NET schrieb:
Meine HD7950 @ 70GHz war vor nem halben Jahr etwas mehr als doppelt so schnell wie meine HD5850.

Von der 7950 würde ich gern mal ein Bild sehen ;)
 
Ich versteh nicht wieso man die (MAX) GTX 780TI als auch die MAX R9 290X rein nimmt, wobei es bei der ja noch mehr Sinn macht.

...

Gerade bei der GTX780 TI liegt der Performance Gain zu keinem Verhältnis was die Karte dann an mehr Saft zieht.
Anstelle nur PT / TT hochzuziehen sollte man den Takt hochsetzen, denn da bekommt man bei quasi ähnlichem Verbrauch wie "MAX" einfach nochmal 20% Mehrleistung, die Karte ist also deutlich effizienter als unter diesem hirnrissigen "einfach mal auf MAX setzen"...

https://www.computerbase.de/2013-11/nvidia-geforce-gtx-780-ti-vs-gtx-titan-test/10/

gtxpqseg.jpg


Die Geschwindigkeit erhöht sich durch das Übertakten in Spielen um 17 bis 19 Prozent. Die höheren Taktraten erhöhen die Leistungsaufnahme nur auf 412 Watt unter Last, was im Vergleich zu 405 Watt bei maximierten Power- und Temperature-Target überraschend wenig ist.

Am Besten MAX einfach komplett weglassen um kein falsches Bild zu erzeugen. Das kann im OC Test der jeweiligen Karte gern erleuchtet werden, aber im "all over" Diagramm wirft es ein falsches Licht.

Rote Brille bei CB? [/Ironie]

Edit: Damit steht eine GTX 780 TI dann etwa 19-31% vor einer R9 290X (MAX) / etwa 24-36% zur R9 290X (Uber) bei FHD, bei ähnlichem Verbrauch + Lautheit. Mit steigender Auflösung setzt sich allerdings die R9 290X in Szene. Das OC Potential der R9 290X Referenz ist relativ bescheiden.

Klar, man kann jetzt noch mit der R9 290X OC vergleichen, da macht sie ja etwa 6-11% bzw etwa 5% OC von MAX.
 
Zuletzt bearbeitet:
Sehr schönes Roundup.
Also mir hat besonders der Vergleich mit den alten Karten gefallen. Als Besitzer eines alten Schätzchens will man ja schon wissen, wie so der Stand ist. Da meine 460er noch eine Portion übertacktet ist lohnt es sich auf keinen Fall, für meinen jetzigen Rechner was anderes zu holen. Aber wenn dann endlich ein neuer Rechner kommt. Wird sie im jetzigen (Der dann als Surfmaschine sein Dasein fristen wird) gelassen und eine Neue muss her. :)
 
Zeigt mir, dass es richtig war mit dem Kauf noch zu warten. Meine GTX 470 bekommt zwar kaum noch etwas gebacken, aber die Sprünge sind mir dann irgendwie doch zu gering. Werde wohl bis März/April/Mai warten und dann zuschlagen.
 
Wolfgang schrieb:
...
Man sieht auch bei Ultra HD noch eine Menge Kanten :)

Danke für dein Feedback. Ich bin leider noch nicht in Genuss von echten 4k gekommen, aber echt jetzt? Wird es aber nicht unter anderem aus diesem Grund eingeführt? Um eben die Kantenglättung nicht mehr zu brauchen?! Jedenfalls versuchen und das die "Erfinder" einzureden.
 
Was würd ich drum geben wenn ich mir einfach eine aus dem Haufen nehmen dürfte :(

Liegen da als wären sie nichts wert :D
 
Zurück
Oben