Alienate.Me schrieb:
Wieso sollte? ... die karten laufen so wie sie am effizientesten arbeiten, so nah am sweetspot wie möglich. Welcher sinn würde dahinter stecken für 10% mehr ertrag 30% mehr stromkosten haben zu wollen, was wiederum den profit schmälert?
Gaming ist das schädlichste szenario für grafikkarten, heftige lastwechsel, temperaturunterschiede und effizienz ist wurscht für 5fps mehr werden auch 30% mehr leistungsaufnahme in kauf genommen.
Miningkarten laufen 24/7 mit der gleichen last und leistungsaufnahme.
Die Grafikkarte ist mit der geringsten Leistungsaufnahme am effizientesten. Für jedes Prozent mehr
Leistung gehts exponentiell mit dem Stromverbrauch rauf. Vermutlich siehst du das auch so, aber
ich kann deiner Argumentation inhaltlich nur schwer folgen. Liegt vielleicht an mir. Bin schon Ü30.
Die einzig valide Rechnung, so scheint es mir, wäre Hashes pro Sekunde pro Watt in Relation zum
Strompreis. Und genau darauf würde man eine Mining Karte optimieren. Also gepaart mit Wide Temp
Komponenten, einer festen Lüfterdrehzahl (Wirkung zu Verschleiß) und harter TDP (Down) Einstellung.
Dann kann man berechnen: Wieviel kostet die Karte + Rest vom Rechner, wieviel elektrische Leistung
brauche ich für z.B. 1 GH/s und was kostet mich das an Strom. Und je mehr Strom ich bezahle um auf
Niveau X zu minen, desto schmäler wird mein Profit - aber ich bin de facto auch schneller am Ziel,
falls das das relevante Kriterium ist. Wir kommen aber hier vom Thema ab. War nur so ein Gedanke.
Für eine Gaming Karte wäre mMn das Gegenteil optimal. Wenn mein Monitor nur 60Hz kann, braucht
die Karte auch nicht zwingend mehr als 60fps ausgeben, entsprechend mehr Strom ziehen und lauter
lüften. Den Job (flüssig spielen) erledigt sie ja trotzdem gut. Daher meine Bedenken, dass man hier
den Bock zum Gärtner macht. Kannst du gerne anders sehen und kannst damit genauso recht haben.