DaHell63 schrieb:
Sehe ich persönlich nicht so,,,wie auch jeder andere wohl da seine eigenen Vorstellungen hat.
Es kommt auf den Kontext an und in diesem speziellen Fall - durschnittlicher Verbrauch einer Grafikkarte mit dem TBP einer Grafikkarte in Relation setzen - ist die Effizienz eine Nebelkerze.
Weder kennen wir die StraĂenpreise der RX 9070 XT, noch den durschschnittlichen Verbrauch ĂŒber die gleiche Spiele auswahl. Erst wenn wir beides kennen, können wir hier wirklich ĂŒber die Effizienz urteilen und diese auch in Relation zueinander setzten.
Die Betrachtung der StraĂenpreise ist dann der nĂ€chste Punkte und auch da mĂŒssen wir abwarten, was kommt.
DaHell63 schrieb:
Persönlich will ich eine Karte die mit max 200W möglichst viel Leistung bringt.
Die Zeit wird leider wohl nicht mehr so schnell wiederkommen. TSMC, Intel und Co brauchen fĂŒr ihre neuen Prozesse immer lĂ€nger. Nvidia, Intel und AMD nĂ€hern sich mit den "aktuellen" Konzepten auch einer "Schallmauer".
Sofern jetzt nicht irgendwelche Wunder bei Graphentransistoren und Co passieren, werden wir leider erst mal mit der "steigenden" Leistungsaufnahme leben mĂŒssen.
KodosDerHenker schrieb:
5 Jahre ist insofern ein guter Zeitraum als das eben auch der Zeitraum eines Hardware Updates wÀre.
Das Problem ist weiterhin, dass wir hier von laufenden Kosten und von einmal fĂ€lligen Kosten reden und - das ist jetzt reihn hypothetisch - es ist halt ĂŒberschaubarer, wenn man pro Monat 3,20 ⏠mehr als Abschlag in der Stromrechnung hat, als wenn man einmalig 200 ⏠mehr bezahlen muss.
KodosDerHenker schrieb:
Also wenn man jede Generation neue Komponenten kauft juckt einen der Strompreis eh nicht, bei jeder 3. Generation kann das schon ein Argument sein, vor allem wenn es da entsprechende SprĂŒnge gibt.
Wenn eine RTX 5070 Ti 900 ⏠kostet, und die RX 9070 XT 700 âŹ, dann sind das zum Zeitpunkt X 200 ⏠unterschied, die sich zum Zeitpunkt X sehr wohl bemerkbar machen in der eigenen Tasche.
Wenn anschlieĂend die Grafikkarte RX 9070 XT im Monat 4,30 ⏠mehr an Stromkosten verursacht, dann kann man diese 4,30 ⏠ab diesem Zeitpunkt in der eigenen Budgetplanung berĂŒckschtigen.
Klar, man kann dann das ganze auf ein Jahr, auf 2 Jahre oder 5 Jahre hochrechnen, NUR so funktioniert das nicht. WĂŒrde diese Rechnung funktionieren, dann mĂŒsste so mancher Raucher quasi von heute auf morgen aufhören, weil sie da teilweise mehre hunderte von Euro pro Jahr sparen.
Der "ersparte" Betrag von 55 ⏠in diesem Fall auf 5 Jahre, mĂŒsste von diesem Moment an auf ein Sparbuch gelegt werden, damit man das effektiv ĂŒberhaupt mitbekommt.
KodosDerHenker schrieb:
Bei unterschiedlichen Preisen kann es sich schon auszahlen zu rechnen ob die Differenz den Verbrauch kompensiert.
Klar, kann man so machen, nur wenn dir zum Zeitpunkt X nur 700 ⏠fĂŒr eine GPU zur VerfĂŒgung stehen und keine 900 âŹ, dann ist alles, was man dann errechnet, einfach nur eine hypothetische Zahl, die dir sagt, dass du nach 5 Jahren 55 ⏠gespart hĂ€ttest, aber auf Grund der Tatsache, das du nur 700 ⏠gerade hast, nĂŒtzt dir das herzlich wenig.
KodosDerHenker schrieb:
Aber das setzt eben auch wirklich voraus das man auch plant die Hardware entsprechend lange zu behalten, sonst macht es keinen sinn.
Eure Rechnung im ganzen, macht nur Sinn, wenn die Grafikkarte A den gleichen Preis wie die Grafikkarte B hat und beide Grafikkarten beim Budget entsprechend zum Zeitpunkt X in Frage kommen.
Sollte zum Zeitpunkt X aber beide Grafikkarten unterschiedliche Preise habe, dann wird in der Regel die Grafikkarte gewinnen, die zum Zeitpunkt X das beste Angebot darstellt.