News Nachhaltigkeit: Ist der Stromverbrauch neuer Hardware noch zeitgemäß?

Naja die höhe Leistungsaufnahme behindert wenigstens die Miner die sich ne Karte kaufen.
 
the_pi_man schrieb:
Office PC: ca 20 Watt (24/7)
GamePC: ca 500Watt (2-3h)
Drucker: 5 Watt (24/7)
Switch: 5 Watt (24/7)
NAS: 80 Watt (24/7)
Monitor: 60 Watt (8-10h)
Lautsprecher: 50 Watt(?) (24/7)

Das macht 1,5 kWh/Tag für 3 h Zocken,
und 2,2 kWh/Tag für nichts (24 h - 10 h Monitorlaufzeit). Oder ist der Office-Rechner mit dem NAS ein Server ?

Wenn sich die Monitorlaufzeit auf 7 h Office und 3 h Zocken bezieht, geht sogar noch mehr drauf für den sinnlosen 24/7-Betrieb.
 
dernettehans schrieb:
Wer erinnert sich noch an die Zeiten, wo neue CPUs und besonders GPUs stets weniger Strom verbrauchten aber dennoch schneller waren als die vorherige Generation?
Ja und wie haben wir uns alle darüber gefreut dass der g92(b) weniger verbraucht als der G80....gleiche Leistung in 80nm, 65nm und 55nm über Jahre verteilt....
 
@SVΞN Ich finde, dass diese Umfrage zu früh kommt. Es sind noch keine echten Verbrauchswerte bekannt und, viel wichtiger, es ist nichts über die tatsächliche Leistung bekannt.

Generell hätte ich es gut gefunden, wenn dem Beitrag ein paar Fakten mitgegeben worden wären. Zum Beispiel: wie viele Karten verkauft NVIDIA/AMD pro Jahr eigentlich? Oder auch mal versuchen ein paar Zahlen zu ermitteln und aufzubereiten. Dabei hätte man gut öffentlich einsehbare Zahlen (bspw. haben nur 2.83% der Steam User eine 3080, 3080 Ti oder 3090) mit eigenen Annahmen kombinieren können. Bspw. diese User Anzahl nehmen, sich überlegen was die Karten verbrauchen, überlegen was bei theoretischem doppeltem Verbrauch rauskommt, das ganze mal in Relation zum Strombedarf in Deutschland setzen etc. etc.

Als Feedback für zukünftige Artikel :)
 
Zuletzt bearbeitet:
FuSiOnPaiNz schrieb:
Ich dachte mir bei meiner RTX 3080Ti WTF.
Und trotzdem hast du sie dir ja gekauft.

Du bist demnach mit ein Grund, warum der Trend diese Richtung einschlägt.
Da jetzt zu behaupten, dass der Trend in die falsche Richtung ist scheinheilig.
 
Ich bin schon eine Weile nicht mehr wirklich im Desktop-Segment aktiv.
Aber wenn ich meinen Dell Arbeits-Laptop mit i7 mit dem macbook air (M1) vergleiche, dann ist klar dass die Intel CPUs im Laptop-Bereich nicht mehr zeitgemäß sind. Evtl ist der Dell Laptop einfach nur überdurchschnittlich schlecht, aber die beiden Geräte sind kaum zu vergleichen. Der CPU Lüfter des Dell dreht ständig hoch, und der Laptop wird warm, wobei nicht klar ist warum.
 
OJK schrieb:
Aber wenn ich meinen Dell Arbeits-Laptop mit i7 mit dem macbook air (M1) vergleiche, dann ist klar dass die Intel CPUs im Laptop-Bereich nicht mehr zeitgemäß sind
Das wird auch mit der unterschiedlichen Ausrichtung/Optimierung der Architektur zu tun haben. Der M1 von Apple muss halt nur macOS (und kompatible Software) optimal ausführen können, welches wiederum explizit für den M1 entwickelt wird. Da kann man also beide Seiten optimal aufeinander abstimmen.

Die x86 Architektur ist dagegen vom Konzept erstmal betriebssystemunabhängig und in gewisser Weise die eierlegende Wollmilchsau. Auch stammen dort Hardware und Software nicht aus einer Hand. Da kann man also prinzipbedingt weniger gut optimieren.
 
Sunjy Kamikaze schrieb:
Macht es denn einen Unterschied im Game ob ich die CPU Limitiere auf eine bestimmte Wattzahl?

Wenn ich 100fps habe und im GPU limit bin dürfte sich das doch nix nehmen oder?

Der Prozessor taktet niedriger und verbraucht dadurch weniger Energie. Denn je höher die Kerne takten, desto mehr Energie wird überproportional benötigt. Die Leistungsaufnahmen steigt dann z.B. um 30% aber die Geschwindigkeit der CPU nur um 10%.

Stellst dir so vor:

Bei 65W TDP sind die 6 Kerne höher getaktet und dadurch prozentual weniger ausgelastet - z.B. 60% von 4,4GHz.
Bei 45W TDP sind die 6 Kerne niedriger getaktet und dadurch prozentual mehr ausgelastet - z.B. 80% von 4,1GHz.

Die CPU versucht immer aufs maximum zu boosten!
Da aber die Kerne aufgrund des niedrigeren TDP Limits weniger hoch boosten können, wird weniger Energie benötigt und somit ist es ohne Leistungsverlust beim Zocken möglich "Energie zu sparen".
 
@Ano_Dezimal wie sagte schon jemand hier. Die Amerikaner sind halt anders. Die bezahlen halt mit ihrer 12 Kreditkarte und weiter geht´s. Die kommen vielleicht auch noch drauf.
 
InspecTequila schrieb:
Hätte bock zu upgraden, aber glaube der ganze Mist lohnt nicht wirklich!!!
Die Gretchenfrage ist: Wie gut wird Nvidia die 4090 verkaufen.. Wenn die Leute dennoch kaufen, wird es keine Besserung geben.. Ich hoffe AMD wird diesen Wahnsinn nicht mitgehen.. Schauen wir mal

Mir macht die ATX3.0 Norm mehr sorgen.. Wenn ein 750W Netzteil bis zu 2,1 kW aushalten muss kurzzeitig, wird man auch diese Spielräume ausreizen. Ein Stecker, der nur 30 statt 75 Steckzyklen hat, ist da nicht wirklich besser..


FreedomOfSpeech schrieb:
"...doch haltet ihr das in Zeiten des ökologischen Wandels und globaler Energiekrisen noch für zeitgemäß?"


Die Energiekrise betrifft nur Deutschland aufgrund langjähriger verfehlter Politik.
Das ist immer noch falsch und wird auch durch Wiederholung nicht richtiger.. Himmel ist es soo schwer beim Topic zu bleiben? Nochmal.. die Energiekrise ist weltweit, wir hatten das aber schon mehrfach.. Zurück zum Thema Bitte!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TeKILLA1983 und dev/random
Wilson_Fisk schrieb:
Der Ryzen7000er wird ausgesetzt und die letzte Boardgeneration 370/470 bekommt einen günstigen 5900x draufgeschnallt der mit 65Watt läuft. Das reicht bis zum Ryzen 8000, wenn nicht gar bis zum 9000er :)
das reicht aber easy bis zum 9000er
Ergänzung ()

Meiner Meinung nach müsste man endlich die Technologie nutzen, um die Produkte auch sparsamer zu machen und nicht immer das Maximum auf Teufel komm raus.

Der Verbrauch und die Hitzeentwicklung der neuen Hardware ist ja nicht mehr feierlich, von den Preisen ganz zu schweigen.

In Zukunft sollten CPUs nicht mehr als 65 bis 95 Watt verbrauchen dürfen und GPUs nicht mehr als ~ 250 Watt
So ein Ryzen 5700x mit 65 Watt ist doch das Beste aus Leistung und Vernunft, was will man mehr.
Schade das diese CPU erst so spät gekommen ist, die hätte von Anfang an vorhanden sein müssen.

Zum Ryzen 5000 und RX 6000 Release hätte ich gesagt 5700x mit 6700 XT.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: dev/random, FuSiOnPaiNz und Creekground
Mir pers. sind 450W zuviel. Finde die 350W von meiner 3090 schon zuviel und hab sie deshalb undervolted. In BF1 braucht sie dann ca. 250-300W @ 3440x1440@178FPS. In WotLK Classic 110-150W. Allerdings herrscht hier Marktwirtschaft und jeder kann kaufen was er mag, und verbrauchen was er mag.
Die Frage ist nur wie wird der Markt das regeln? Die Strompreise in anderen Ländern sind ja deutlich niedriger als in Deutschland und in den wärmeren Gefilden laufen auch Klimanlagen 24/7 weil auch die Armen sich den Strom dafür leisten können. Und eine Klima braucht man bei 450W Grakas. Also nur weil der Strompreis in Deutschland durch die Decke geht wird Nvidia nicht reagieren. ;)


Rockstar85 schrieb:
Nochmal.. die Energiekrise ist weltweit, wir hatten das aber schon mehrfach.. Zurück zum Thema Bitte!
Nur weil du das wieder und wieder behauptest wird es nicht wahr. Bei uns ist Energie bald nicht mehr verfügbar. Woanders schon. Bei uns ist es dazu noch am teuersten. Die CO2-Steuer, Energiesteuer, Stromsteuer, Ökosteuer und Doppelbesteuerung des Benzins in Deutschland entfalten ihre Wirkung nicht im Ausland.
Ergänzung ()

TP555 schrieb:
Sollte AMD mit der Rx7xxx Serie auch so viel oder ähnlich Verbrauchen , sollte es da auch ein Verbot geben !
Gab es nicht die News, dass RX7000 bei 350W+ liegen wird?
Ergänzung ()

FuSiOnPaiNz schrieb:
Vorallem wenn man bedenkt, wie es aktuell mit den Strompreisen so aussieht.
Gilt allerdings nur für Deutschland.
Ergänzung ()

Ano_Dezimal schrieb:
Nur macht sich in anderen Ländern darüber kaum einer Gedanken. In Amerika würde sowas nie zur Debatte stehen. DIe produzieren einfach mehr Strom und fertig.
Deshalb bringt die Energiewende in Deutschland nicht die Klimawende. Es gibt dazu einen 30min Vortrag von einem Prof. für Spieltheorie.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sunjy Kamikaze
FreedomOfSpeech schrieb:
Die Frage ist nur wie wird der Markt das regeln? Die Strompreise in anderen Ländern sind ja deutlich niedriger als in Deutschland und in den wärmeren Gefilden laufen auch Klimanlagen 24/7 weil auch die Armen sich den Strom dafür leisten können. Und eine Klima braucht man bei 450W Grakas. Also nur weil der Strompreis in Deutschland durch die Decke geht wird Nvidia nicht reagieren. ;)
Bin ich voll bei dir.

Es müsste einfach angepeilt werden das jeder seinen Strom selbst Produzieren kann. Klar geht das in der Stadt nicht. Auf dem land aber umso mehr. Ich erzeuge jetzt schon soviel Strom das ich ein Einfamilienhaus mit versorgen kann. Daher ist mir der Stromverbrauch meiner Hardware auch egal.
Leider ist das ganze unverschämt Teuer. Daran muss gearbeitet werden. Nicht nur bei uns. Weltweit sollte das so laufen.

Der Stromverbrauch geht aber immer mit einer starken Wärmeentwicklung einher. Das nervt mich da viel mehr.
Klimaanlage läuft bei mir fast immer wenn der PC läuft.
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech
Nicht "der Markt" , sondern gestiegende Zinsen und der "Irre Wladimir" werden zu einer Beruhigigung der Immobilienpreise führen.
Ändert aner nichts daran, das PV im Verhältnis total billig ist.
Aktuell ist die Nachfrage kriegsbedingt höher, aber da wird die Produktion gesteigert.
 
  • Gefällt mir
Reaktionen: Rockstar85
Bonanca schrieb:
Und trotzdem hast du sie dir ja gekauft.

Du bist demnach mit ein Grund, warum der Trend diese Richtung einschlägt.
Da jetzt zu behaupten, dass der Trend in die falsche Richtung ist scheinheilig.

Ja, ich habe die mir trotzdem gekauft. Das bedeutet trotzdem nicht, dass ich den immer höheren Stromverbrauch weiter unterstütze. Ich lasse meine 3080Ti nur 280W ziehen. Ich finde auch, dass 350W und 600W ein deutlicher unterschied ist. Was passiert als nächstes? Ein 2 x 12 Pin Anschluss? Außerdem habe ich davon absolut keinen Nutzen scheinheilig zu sein.
 
Zurück
Oben