Test AMD Radeon R9 390X, 390, 380 und R7 370 im Test: Den Unterschieden zur R9-200-Serie auf der Spur

Status
Für weitere Antworten geschlossen.
SKu schrieb:
Deine Verbrauchsrechnungen sind aber schon etwas schön gerechnet.

Nehme ich z.B. eine GTX980, käme ich bei 3 Stunden pro Tag auf Volllast auf 72€ im Jahr bei 24 Cent pro kWh. Bei einer AMD-Lösung in der gleichen Leistungsklasse, käme ich mit einer 390 auf 104€ im Jahr. Differenz von 32€. Dafür könnte ich die 390 für 200€ weniger erwerben als die GTX980. Das hieße, ich müsste die 980 über 6 Jahre laufen lassen, bei identischem System, damit sich der höhere Kaufpreis amortisiert hätte.

Mal davon abgesehen, dass 3 Stunden pro Tag relativ viel sind, steckt sich keiner für 6 Jahre eine Grafikkarte in dem Leistungssegment in den Rechner.

Da gibt es wesentlich sinnvollere Sparmechanismen. Da würde wahrscheinlich ein neuer Kühlschrank oder eine neue Waschmaschine schon mehr bringen als irgendwelche alten Dinger laufen zu lassen.

Ja, aber bloß gibt es hier einen kleinen Fehler dass du die falschen Grafikkarten vergleichst. Im Test liegt nämlich die 390 gleichauf mit der 970OC. Das heißt du vergleichst die falschen Grafikkarten.

Nicht bestanden. Setzen!

118€ zu 76€ und dass die 390 momentan teurer ist als die 970OC.

Dass heißt als Nvidia Kunde habe ich in doppelter Hinsicht Gewinn.

Die 390X kann kann man mit der 980 vergleichen und da sieht die 390X nicht schlecht aus, aber es läuft darauf hinaus dass Budget Consumer mit dieser Grafikkarte angesprochen werden, der Verbrauch wäre nichts für mich.

Die Argumente mit den Glühbirnen Kühlschränken bringen auch nichts viel, wenn man bedenken kann dass man auch mit einem stromsparenden PC stromsparende Kühlschränke und Glühbirnen kaufen kann. Aber ihr wisst natürlich schon dass man den Anschaffungspreis erstmal aufwenden muss. Dass heißt die Argumente bringen nichts.

@pipip, ja die 770 war schneller als die 280x, verbrauchsarmer und minimal teurer.... Das ist eine subjekte Sichtweise, fakt ist dass die 770 schneller ist.

Wir reden hier von 160W Unterschied zwischen einer 970 und einer 390. Das sind 3 Glühbirnen oder ein stromschluckender Kühlschrank.

Ich werde nicht weiter hier eingehen, ich habe hier nur meine Meinung gesagt, 50€ im Jahr sind 50€. Ich kaufe nicht solche Stromschlucker aus Prinzip.

Fakt ist auch, Nvidia waren auch mal Stromschlucker, ATI kann es in Zukunft verbessern, ATI kann leistungsmäßig gut mithalten, man hat sein Vergnügen wenn man eine R9 3 Grafikkarte kauft, aber und da bleibt meine Meinung, der Verbrauch ist einfach nicht aktzeptapel, wenn man denn vor allem einen AMD Prozessor mit 5 Ghz und 250W kombiniert.

Und eure Argumente haben nicht gestimmt, dass ist Kinderkram mit stromsparende Haushaltsprodukte kaufen. Die kann ich auch so kaufen. Entweder der Verbrauch interessiert einen oder nicht.... Ich bin weg...
 
blackiwid schrieb:
versteh die kritik nicht spielst du alle spiele auf low oder 800x600, wo sollen denn diese karten bei UHD oder schon bei ultra settings und Fullhd minimal-fps von 120fps packen, kann es sein das du hz mit fps verwechselst?

mehr wie 50 60 fps sollte eh niemand sehen selbst ab 30 wird der unterschied schon gering. Oder denkst du jetzt an ne 3d brille aber auch da sinds eher die hz als die fps soweit ich weiss die wichtig sind.

Entschuldige blackiwid, aber was du da von dir gibts, ist 100% von sich auf andere schließen (Schubladen denken).

Man sieht/spürt bei 30/60 fps zu 100+ (120/144) fps aber sowas von ein unterschied. (Ingame movement oder mausbewegung)

Und ich glaube du vetwchselst Hz und fps, bei zB einem 120/144 Hz monitor, sollte man auch 120/144 fps haben, die Skalierung Hz/fps ist 1zu1. Sonst kann man auch getrost mit einem 60hz Panel spielen. (Wenn man die Regler alle auf dreht und eine entsprechend hohe Auflösung fährt und eh nur AVG 40 fps erreicht)

Ich spiele selbst Spiele wie zB CS:GO, BF3, BF4 auf minimum 120 fps (Grafik natürlich runter bei 1680*1050 und nicht 800*600).

Und in meinem Umfeld oder mates mit denen ich spiele sagt jeder das 60 fps viel zu wenig sei um damit vernünftig zu zocken (also vertrete ich nicht nur meine Meinung, sondern auch die anderer).

Ich sage immer ab 100 fps fängt input-/laagfreies gaming an. Klar wenn man immer im unteren teil des Scoreboards stehen möchte reichen auch 30fps + mega bunte voller Details Spielwelt auch aus.

Grad für Leute die fps den grafikdetails vorziehen reichen 4 GB völlig aus.
Und da spricht mich die GTX 970 zur Zeit am meisten an, die bei mir locker 3-5 Jahre reichen wird, ich komme so im schnitt auf 1,2 GB vram Auslastung, weil mir fps einfach wichtiger sind.

*mit dem Handy getippt
 
atlas77 schrieb:
Mehrkosten pro Jahr hin oder her...

ganz einfach..

ich kann Computern mit Gratis Licht quasi..

dh meine nvidia verbraucht unter last 80-90 Watt weniger als amd, ich kann jedesmal wenn ich spiele(egal ob 20 minuten am tag oder 5 stunden)

gratis meine 60watt glühbirne dazu betreiben..

dh ich habe beim computerspielen gratis licht dazu, und das finde ich sehr angenehm..

Alternativ könntest du aber für die € die du mit der AMD spaarst eine LED lampe kaufen (inzwischen sind die anderen leuchtmitteln mindestens gleichwertig) und hast unterm strich den selben stromverbrauch bei selber "Leistung".


Klar ist es nicht verkert auch auf den Stromverbrauch zu achten. Allerdings sollte man dass im allgemeinen machen. bei einem Kartenpreis von 400€+ sind der Wertverlust höher als die Stromkosten. Und wie sich der Wertverlust verhält kann keiner Vorhersagen.
 
Habe gerade bei mir in Brasilien nachgeschaut:
Eine Sapphire R9 390 8GB NITRO TRI-X OC kostet etwas mehr als eine EVGA GeForce GTX970 4GB SC ACX und verbraucht laut dem CB Test 166W mehr Strom.
Eine Sapphire Radeon Tri-X R9 290X OverClocked 4GB ist teurer als eine EVGA GeForce GTX980 4GB SC ACX2.0 und verbraucht 93 Watt mehr aber ist auch etwas langsamer.

Zumindest in meinem Land zahle ich beim Kauf von AMD mehr Geld und habe viel mehr Stromverbrauch. Einziger Vorteil der R9 390 sind die 8GB VRam, die ich aber bei FHD eh nicht ausnutzen werde.
 
MikelMolto

Dann ist doch eine Nano perfekt mit 4GB HBM, verbrauch unter einer R9 380 und Performance oberhalb der R9 290X richtung 980 GTX
 
Ach ja und weil ich wirklich nur lachen kann:

eine GTX 970 kostet mich inkl. Anschaffungspreis und Stromverbrauch nach 3 Jahren:

435€

eine Radeon R9 390 dagegen:

578€
 
Conker
Mit so einer Aussage disqualifizierst du dich ziemlich. Ich glaube ich muss das aber auch nicht erklären, denn mit paar Sekunden nachdenken, wirst du wohl selbst darauf kommen.
 
pipip schrieb:
MikelMolto
Dann ist doch eine Nano perfekt mit 4GB HBM, verbrauch unter einer R9 380 und Performance oberhalb der R9 290X richtung 980 GTX
Genau so denke ich auch. Ich bin sehr gespannt auf die Nano und freue mich auf die Testberichte. Wenn die das hält was Sie verspricht, dann könnte meine nächste GPU eine AMD werden.
 
@ der Landvogt

Wirklich? Wo?

Und wieso man es nimmt? Ähm sagt dir Gameworks etwas?
 
Und im Winter sitzt du im kaltem?
Mach mal eine Gesamtbilanz und rechne die zusätzlichen Heizkosten bei Nvidia mit drauf.
Bei den aktuellen Temperaturen bin ich froh, dass mein alter ineffizienter Rechner noch was zuheizt und die Heizung ausbleiben kann.
 
Der Landvogt schrieb:
Ist man das nicht eher von AMD gewohnt dass man recht schnell im Stich gelassen wird?

Von der Performance her nicht, aber es gab einige wirklich bescheuerte Ideen von AMD gegenüber der HD 7000er Serie. Es wurde ihr einfach VSR per Treiber nicht erlaubt, was natürlich eine absolut kundenunfreundliche Sache ist.
Meine HD 7870 könnte durchaus in manchen Spielen (Dark Souls 2) supersampling, aber nein, AMD meinte ja die 200er zu pushen.
 
Es ist köstlich, diese Diskussion um die Stromverbräuche. In meinem nicht kleinen Bekanntenkreis hat sowas echt noch nie eine Rolle gespielt - und ich kenne nicht nur Großverdiener. Wer 24 Cent für die kWh zahlt, spart eh an der völlig falschen Stelle (auch wenn die Zahl nur herangezogen wurde, um zu zeigen wie unbedeutend das eigentlich ist worüber hier gestritten wird).
Warum regt sich eigentlich niemand über die allgemein hohen Preise für grakas auf statt hier große amortisationsrechnungen für ein kurzfristig genutztes Produkt zu machen. Warum zahlt man denn für ein Mittelklasse Produkt wie die 980 soviel??
 
Lobos84 schrieb:
Warum zahlt man denn für ein Mittelklasse Produkt wie die 980 soviel??

Da die 980 nicht zur Mittelklasse gehört.

Momentan wirds eher so angesetzt:
970 - Low-Tier-Highend
980 - Mid-Tier-Highend
980TI+Titan X - High-Tier-Highend

Sollte normal so nicht sein, so wird es aber momentan eingestuft, alles darunter ist einfache Einsteiger+Mittelklasse.
 
Eine Grafikkarte kostet Anschaffungspreis + Betriebskosten, also kostet sie nach der Anschaffung weiterhin Kohle. Im Endeffekt könnte also eine teurere Grafikkarte wirtschaftlicher sein als eine billigere.

Wer so doof ist, sich Geld aus der Tasche ziehen zu lassen, weil er nicht vergleicht oder es nicht berücksichtigt, zahlt ... tadaaa ... drauf.

Ob es hier sich mit der 290/390 und der 970er also ausgeht, muss man selber rechnen. Und wer gerne für etwas zahlt, was total sinnlos verpulvert wird, gerne. Klar, Lastverbrauch ist FAST nicht wichtig, wenn der Rechner dauernd im Idle ist, aber dann spielen noch Monitore, BluRay (oder auch nicht) mit rein.

Kann also 8GB Vram durch 3,5GB+Verbrauchsvorteil aufgewogen werden? Spielt der Lastverbrauch eine Rolle, wird der Rechner nur am WE angeschaltet?

Benennen ja, Rechnen selber und sonst? Die Sache mit Partnerkarten, Lautstärke und so kommt auch noch dazu. Der Sinn einer Beratung liegt doch drin, Anforderungen abzuklopfen und bei 100W mehr unter Last sinds bei 10h die Woche Vollast halt ne kWh und damit ca. 25ct. Und nun? 52 Wochen ergeben 13€. Wird die Karte 8 Jahre betrieben... Uiuiui. Zocke ich nur drei Stunden anstelle von 10 die Woche? 4€ im Jahr mehr. Gegenrechnen, andere Aspekte betrachten und sich über die dann zu kaufende Karte freuen.
 
Zuletzt bearbeitet:
Hier geht's doch schon lange nicht mehr um den Verbrauch oder wieviel ich spare. Hier geht es mal wieder nur darum ob grün oder rot besser ist, genauso wie es nächste Woche in einem anderen Thread wieder darum geht.

Ich frage mich was los wäre, wenn es mehr als nur zwei große Chiphersteller geben würde.
 
Besser ist immer relativ, was man halt für Anforderungen hat. Ja, Stromdiskussion nervt, auch wenn ich eher Richtung "Öko" gehe und wenig Verbrauch für besser halte. Leider isses halt ned so einfach, weil andere Preise, Features, Kühler, VRAM und so weiter...

Ich bin jedenfalls auf die Fury gespannt, da der Rebrand eigentlich nen guten Treiber und 8GB Vram spendiert bekommen hat, endlich die 7970XT nicht mehr verkauft werden, sondern nur noch die 7870 (leider) und sonst AMD die Presse so richtig anpisst durch beschissenes Timing, wenig Samples und so weiter...
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben