Kaufentscheidung... Stromverbrauch vs. Leistung

Halloleute2

Cadet 3rd Year
Registriert
Aug. 2015
Beiträge
58
Ich wills so kurz wie möglich fassen..

Also ich bin mit meinem geplanten System momentan bei knapp 430€ ohne Grafikkarte und bin am überlegen ob ich die restlichen ca. 300€ die mir bereitstehen komplett in die Grafikkarte investieren soll oder doch lieber in SSD + günstigere Karte

Empfohlen wurde mir bei meinen Bedürfnissen (Überwiegend LoL + kommende Battlefield Teile) mindestens eine R9 285. Dann hat sich das Budget etwas geändert und es kamen noch 280x, 380, und 290(x) ins Spiel.

Nun, ich denke mittlerweile kann ich relativ gut einschätzen welche Leistungstechnisch stärker ist als eine andere, das ist nicht das Problem, allerdings schreckt mich bei AMD Karten der Stromverbrauch und damit verbundene Hitze + Stromkosten total ab.. Daher war die GTX 960 eine lange Zeit mein Favorit

Mir sagen (Watt)Zahlen nicht besonders viel, könnte mir jemand erläutern wie sich diese unterschiedlichen Karte auf die Stromkosten auswirken? Mir ist klar dass das von Programmen, Spielen, Dauer der Nutzung etc. abhängig ist.. Aber wenn ich zwei Karten hab, beispielsweise 960 und 280x, dann scheint mir der Unterschied in Temperaturen und Stromverbrauch doch relativ extrem.. wird sich das auf der Stromrechnung deutlich bemerkbar machen?

Und Hitze ist sowieso etwas, was mir Angst macht, bei meinen alten PC's, Laptops etc. war Hitze immer die Ursache dafür, dass am Ende nichts mehr funktioniert hat..
 
Ich dachte, wenn ichs vielleicht in einem passenderem Forum poste..


Also an sein wird der PC schon relativ lange pro Tag, allerdings wird er nicht immer intensiv genutzt. Genaue Zeitangaben zu machen wird schwierig. Durchschnittlich mehrere Stunden pro Tag aufjeden Fall. Mehr als 3-4 Stunden am Tag wird er aufjedenfall genutzt.
 
hinterher ärgert man sich immer über fehlende leistug. würde zumindest ne gaka nehmen die "SICHER" die leistung auch bringt die man braucht. wenn sich das mit effizenten koten günstigen karten einrichten lässt, bitte. Aber nicht um strom zu sparen eine alternativ karte nehmen und dann merken das es doch vor und hinten nicht reicht.
 
Modernen Karten kann man auch mit fps-Limitern bei kommen. So wird nur soviel Wärme produziert, wie man gerade braucht.
 
Auf eine SSD würde ich nicht verzichten. Und wenns nur eine 120gb/50€ SSD fürs Betriebssystem ist.

Stromkosten sind einfach. Wenn du deinen Stromtarif nicht genau kennst (wer tut das schon..) rechne mal pauschal mit 30Cent/kWh.

Wenn eine Graka 200W und die andere 300W verbraucht (Differenz 100W = 0,1kW), dann spart die 200W-Karte jede Stunde in der du zockst 3 Cent an den Stromkosten.
Die gesamten Betriebskosten liegen damit dann grob bei 12 Cent anstatt bei 15 Cent.

Gegen Hitze hilft eine ordentliche Kühlung, und die brauchst du so oder so. Dann ist das (technisch) kein Problem. Bei der momentanen Hitze ist sowieso jeder PC eine zusätzliche Heizung im Zimmer, da machen (dir) ein paar Watt mehr oder weniger auch nicht viel aus.
 
Zuletzt bearbeitet:
Annahme: durchschnittliche Spieldauer / Tag übers Jahr verteilt liegt bei 3 Stunden.

Annahme:
  • Karte A braucht 180 W unter Last.
  • Karte B braucht 230 Watt unter Last.

Karte A verursacht über das Jahr Kosten in Höhe von:
Code:
3 [h] * 365 [Tage] * 180 [Watt] / 1000 * 0,2838 [€ / kWh] = 55,94 [€]
Karte B verursacht über das Jahr Kosten in Höhe von:
Code:
3 [h] * 365 [Tage] * 230 [Watt] / 1000 * 0,2838 [€ / kWh] = 71,48 [€]

Differenz: 15,54 € im Jahr oder auch ca. 4,23 Cent pro Tag

Du musst jetzt nur deine tägl. Last schätzen und deinen Strompreis nutzen. Im Idle werden sich die Grafikkarten nicht viel tun, wenn doch, würde ich das auch berechnen.
 
Wenn du schon R9 290(X) ins Spiel bringst warum dann nicht eine 970GTX? Da hast du die Leistung und die niedrigen Stromverbrauch.

Alle anderen Vergleiche sind hier eh sinnlos, ich weiß aus so, dass die Familienkutsche mit dem 1.6er weniger verbraucht als mein Porsche.

Mfg David
 
Da ich die Stromkosten auch nicht einschätzen konnte, habe ich mir eine kleine Excel gebastelt und dort ein bischen mit den Werten herumgespielt. Im Idle beim 1 Monitor Betrieb nehmen sich die Karten nicht mehr viel, aber bei konstant 2h spielen am Tag (wahrscheinlich zu hoch, aber ich wollt auf Nummer Sicher gehen) macht der Unterschied zwischen 960 zu 380 bei meinem Strompreis knapp 20€ im Jahr. Und die 390 würde 35€ mehr kosten.

Das ist aber eine ungenaue Mischkalkulation, wenn man sich den CB Test bei den Allerweltsspielen anschaut (WOW, CS, HOTS etc.) sieht man das die 380 zw. 130 Watt zu 60 Watt mehr verbraucht als die 960. Wenn man jetzt ein extremes Lieblingsspiel hat können sich die Kosten daher durchaus ändern (ich hab jahrelang nur WOW gespielt, andere Verbrauchswerte wären also total egal für mich).
 
Den gesparten Strom muss man dann auch in Relation zu den sonstigen Betriebskosten (Stromverbrauch des gesamten Systems inkl Monitor etc) betrachten und auch beachten, was die Spiele an sich Kosten. Wenn man jetzt jeden Monat Spiele für 50€ kauft ist es irrelevant ob die Stromkosten jetzt 5€ höher oder niedriger sind. Sehe ich zumindest so.
 
legan710 schrieb:
Den gesparten Strom muss man dann auch in Relation zu den sonstigen Betriebskosten (Stromverbrauch des gesamten Systems inkl Monitor etc) betrachten und auch beachten, was die Spiele an sich Kosten. Wenn man jetzt jeden Monat Spiele für 50€ kauft ist es irrelevant ob die Stromkosten jetzt 5€ höher oder niedriger sind. Sehe ich zumindest so.

Wieso sollte dann der Strom irrelevant sein? Wenn man sich jeden Monat ein Spiel für 50€ kauft, spielt man ja regelmäßiger, und dadurch ist das System öfters unter Last und verbraucht logischerweise unter Last mehr Strom, somit würde die Einsparung noch weiter steigen.

Und 5 € sind 5 €, nach 10 Monaten hat man sich so schon einmal das Geld für ein Spiel gespart. (Nur nach deiner Milchmädchenrechnung gesehen)
 
@Mextli: Du sagst die 380 verbaucht knapp 20€ mehr im Jahr, sagst dann aber die 390 kostet mehr-so vergleichst du Äpfel mit Birnen.

Wenn dann musst den Mehrverbauch der Karten mit den Preisunterschied der Karten vergleichen und da sieht es dann so aus, dass 960 gg 380 ca. 25€ mehr kostet. Also nach 1 Jahr/ ab dem 2. Jahr kostet die 380 einen mehr.

Als ich letztens eine neue GPU gekauft hatte (290) lag die Differenz bei ca. 60€. Damit bin erst nach 2 Jahren pari. Folglich war es gleich, denn in 2 Jahren kommt wieder was Neues in den PC.
 
Aldaric, die 5€ stellen schon ein sehr ausgeprägtes Spieleverhalten dar, das wird nicht von einem Spiel allein in die Höhe getrieben.

Irrelevant ist es, weil die 5€ am Ende der Gesamtkosten nur noch einen so kleinen Teil ausmachen, dass er schlicht keine entscheidene Rolle mehr spielt.

Wenn eine Graka die Betriebskosten (Strom) um 5€ beeinflusst, dass 'frisst' alleine das restliche System 20€. Wenn man dann noch 50€ für Spiele ausgibt und den PC gedanklich mit 10€ abschreibt ist es nicht die Welt ob man 80 oder 85€ unterm Strich stehen hat.


Zumal: die 'hohen' Kostenunterschiede treten wirklich nur bei intensiver Nutzung auf. Wer jeden Tag stundenlang zockt, der sollte sich seinen Spaß nicht wegen ein paar Euros einschränken lassen (Einschränkung weil schlechtere Grafikleistung).
Wer nur ein paar Stunden die Woche zockt wird die paar Cent auf der Stromrechnung nicht finden (und sollte lieber die Lampe im Flur auf LED umrüsten, spart mehr).

Für den richtigen Zocker spielt der Stromverbrauch keine Rolle weil es sein Hobby ist und die 5€ Betriebskosten gut angelegt sind um eine bessere Grafik zu erhalten.

Für den Gelegenheitsspieler spielt der Stromverbrauch keine Rolle, weil schlicht zu wenig spielt um einen nennenswerten Unterschied auszumachen.

In beiden Fällen ist der Stromverbrauch bzw die mögliche Einsparung daher in meinen Augen schlicht irrelevant.
 
Also darf es keinen richtigen Zocker geben, der trotzdem auf Effizienz achtet? Also bei deiner Rechnung sind 5 € aber nen deftiger Betrag, sollte man die GPU 2 Jahre lang nutzen, sind wir schon bei 120 €.

Das lustige daran ist ja, dass man in diesem Budgetbereich nichtmal eine "Einschränkung weil schlechtere Grafikleistung" hat. Sondern die GPU's sich auf einem ähnlichen Niveau bewegen. Mit dem Unterschied das der eine Hersteller deutlich effizienter ist, als der andere.

In meinen Augen ist Effizienz vor allem für Viel-Spieler durchaus wichtig, denn was ich sparen kann, das spare ich um bei der nächsten GPU mehr Geld zur Verfügung zu haben. Zudem eine GPU die weniger Strom verbraucht auch kühler ist, und weniger Abwärme produziert.
 
Wie ja oben schon jemand geschrieben hat, darf man aber nicht vergessen, dass die Karten nur sehr selten wirklich am Anschlag laufen.

Kurz Gegooglet:
Die 285 zieht im Idle genau so viel wie die 960 (laut Gamestar: http://www.gamestar.de/hardware/gra...tml#lautstaerke-stromverbrauch-und-temperatur ), unter Last sind es 15% (36 Watt) mehr.

Der reale Mehrverbrauch wird dann irgendwo zwischen den 0 und 15% liegen. Ich denke mal gerade LoL wird die Karten nicht voll auslasten, wenn man das Limit z.B. auf 60 FPS setzt, sodass die eher im niedrigeren Auslastungsbereich bleiben.

Ich würd die schnellste Karte nehmen, die ins Budget passt. Lieber eine minimal höhere Stromrechnung riskieren, als hinterher feststellen, dass die Leistung z.B. fürs neuste Battlefield knapp nicht reicht. Weil dann tröstet auch der geringere Verbrauch wenig.
 
Für 5€ sind 16Cent am Tag, das ist ne halbe kWh bzw 500W. Bei einer angenommenen Differenz von 100Wsind das 5 Stunden Volllast.

Ich kenn mich jetzt wirklich nicht aus welche Karte wieviel genau aufnimmt, aber 100W sollten sich doch irgendwo in der Grafikleistung bemerkbar machen. Wer jeden Tag 5 Stunden zockt,...


ach lassen wirs, ich hab das jetzt zwei, drei mal ausfühlrich dargelegt. Wer meiner Argumentation folgen will versteht das, wer nicht, der halt nicht. du hast ne andere Ansicht und das ist für mich ok.

Ich fände es lächerlich sich wegen ein par Euro das Hobby einzuschränken, dann ist ne Konsole die bessere Wahl, die hält auch länger.

Nachtrag: bei identischer Grafikleistung kann/sollte man natürlich auf die Kosten achten.
 
Zuletzt bearbeitet:
Ich danke allen für ihre Beiträge, bin um einiges schlauer als vorher. Eure kleine "Diskussion" ( :D ) hat mich davon überzeugt mit der Leistungsstärkeren zu gehen. Wird mich am Ende glücklicher machen
 
Halloleute2 schrieb:
Ich danke allen für ihre Beiträge, bin um einiges schlauer als vorher. Eure kleine "Diskussion" ( :D ) hat mich davon überzeugt mit der Leistungsstärkeren zu gehen. Wird mich am Ende glücklicher machen

Leistungsstärkere? Vergleiche ich jetzt die 280x gegen die 960, dann ist mal die eine, mal die andere schneller. Dazu kommt ein veralteter Chip bei der 280x, und ein moderner neuer, effizienter Chip bei der 960, welche man noch OC'n kann.
 
Aldaric87 schrieb:
Leistungsstärkere? Vergleiche ich jetzt die 280x gegen die 960, dann ist mal die eine, mal die andere schneller.

Also wenn ich mir Videos auf Youtube angucke in denen beide Karten verglichen werden, ist die 280x immer schneller..

https://www.youtube.com/watch?v=DdsDRChgXA0
https://www.youtube.com/watch?v=pEWABNJi6Rc

Es gibt anscheinend bei einigen Spiele wie The Witcher oder sowas Ausnahmen wo die 960 manchmal kurz ein paar FPS vorne liegt, aber in allen anderen Spielen liegt die 280x ja deutlich vor der GTX..
 
Zurück
Oben