PatriK schrieb:
Locker.
Für die Leute die anderen Realitätsverlust vorwerfen weil man keine 6800/XT 6900/6950 bevorzugt in einem Land mit den höchsten Stromkosten.
Anhang anzeigen 1348565
Wirklich jetzt, du sprichst von Realitätsverlust und kommst mit solch einer absurden Tabelle um die Ecke?
1: Längst nicht in jedem Spiel oder jeder Kombination von CPU/Grafikkarte/Monitor zieht die Grafikkarte die volle mögliche Leistung. Das gilt natürlich für alle Modelle und der prozentuale Unterschied mag dabei gleich bleiben. Die absolute Differenz in kWh bzw. Euro fällt aber dann geringer aus. Oder einfacher, der prozentuale Abstand von 1€ zu 1,5€ ist der gleiche wie 100€ zu 150€, nur interessieren die 50 Cent im ersten
Fall wohl kaum jemanden oder treiben ihn in den Ruin. Die 50€ können dann schon sauer aufstoßen.
Wie auch immer, ziehen die Grafikkarten vielleicht im Schnitt jeweils nur 70% von den Werten in der Tabelle, wird der Abstand in barer Münze immer kleiner.
2. Die 50 Cent pro kWh sind momentan völlig aus der Luft gegriffen. Wir haben eine Strompreisbremse in Höhe von 40 Cent. Ja ich weiss, für die ersten 80% des jährlichen Verbrauches. Da der PC aber ganz sicher nicht der einzige Verbraucher im gesamten Haushalt ist, muss man fairerweise genau ausrechnen, welchen Anteil allein die Grafikkarte hat und diesen dann 80/20 bei den Kosten aufteilen. Dann kommen am Ende natürlich etwas über 40 Cent raus, aber wie man auf 50 Cent kommen will...da muss der Anbieter für die letzten 20% schon vielfaches pro kWh berechnen das geht dann wohl eher in den 2-stelligen Eurobereich pro kWh.
3. 4 Stunden täglich im unteren Teil der Tabelle? 7 Tage die Woche, 365 Tage im Jahr? Keine Krankheit, kein Urlaub, keine anderen Verpflichtungen (Familienfeiern, Lebenspartner, Partys mit Freunden, Sport/Vereine, Volksfeste...) oder andere Hobbys, wo das Gaming mal ausfällt? Da würde ich echt mal mein Leben überdenken.
Ich kenne zwar einige Hardcoregamer, aber konstant auf durchschnittlich 120 Stunden im Monat kommen die lange nicht. Im Herbst/Winter mit 2-3 Wochen Urlaub klar, aber nicht in den anderen 11 Monaten. Da bleiben dann nur professionelle E-Sportler und Streamer/Youtuber über und die interessiert es vermutlich eher weniger, da sie damit Geld verdienen und den Verbrauch auch noch als Kosten von den Steuern absetzten können. Davon das bei denen mit oft 3 oder mehr Monitoren und extra Videoschnitt/Streaming-PC die 100 Watt mehr einer AMD-Karte im Grundrauschen untergehen mal ganz abgesehen.
P.S. alle diese Gründe gelten natürlich auch bei dem "Verbrauchskrieg" Intel vs. AMD. Ja Intel schluckt mehr, nur am Ende im realen Betrieb wird man auf der Jahresabschlussrechnung als Normal-Bürger/Gamer kaum etwas davon merken. Wenn man nicht gerade 24/7/365 im Jahr Cinebench in Endlosschleife laufen lässt oder ähnliches macht. Mich nervt da bei Intel eher die größere benötigte Kühlleistung bzw. die Lüfterlautstärke.