News Nachhaltigkeit: Ist der Stromverbrauch neuer Hardware noch zeitgemäß?

Ich verstehe diese Entwicklung allgemein nicht.
Vielleicht habe ich zu viele Äpfel gegessen, doch ich wurde Hardware bedingt durch Apple sehr verwöhnt und umerzogen.
Während die iPhones bei ähnlicher Effizienz jedes Jahr immer besser und Leistungsfähiger wurden. Und die iPads und Macs mit dem M1/M2 zu richtigen Performance Bestien wurden mit einem Stromverbrauch mit welchem Intel und AMD nur mithalten können wenn diese Ordentlich Strom fressen und nebenbei gut gekühlt werden. Die GPUs können nicht mit Nvidia und AMD mithalten, doch irgendwann können die großen GPU/CPU Hersteller endlich mal schauen dass ihre Hardware auch mal mit 150-300 Watt auskommt.
Denn in Zeiten wo die Energiekosten immer weiter steigen, kann es nicht sein dass Nvidia und Co. mit Hardware um die Ecke kommen welche Strom verbrauchen wie die Gäste auf der Wiesn Bier.
 
Also der Stromverbrauch des Stroms bzw. der Stromkosten wegen, juckt jetzt erstmal nicht in meinem Fall, da gibt es an anderer Stelle wichtigere Stellschrauben die mit großem Abstand noch weit vor PC Hardware auf der Prio Liste stehen.

Der Stromverbrauch und die daraus resultierende Abwärme bzw. der wieder daraus erhöhte gesamte Volumenbedarf sehe ich wesentlich kritischer.
 
anappleaday schrieb:
HiFi Forum und vor allem dem Avsforum wo Leute gerne 15-30.000k in ihre HiFi Anlagen stecken
Da kaufen sich die Leute wohl Statussymbole und weil sie es nicht besser wissen und kennen.
Meine Boxen haben mich im Selbstbau 1200 Euro pro Kanal gekostet .Dem geht aber eine sehr lange Planung und Überlegung voraus, Zeit in der die Eizelteile sehr langsam zusammengekommen sind. Die sind jetzt 20 Jahre alt . Und neue werde ich nie wieder brauchen. Und mit 92dB/W/m sind die auch sehr effizient. Und wenn ich noch mehr als das haben will , muss ich schon selber Musik machen. (playing in the band).
 
Absolut zeitgemäß, spart Gas da man mit dem Pc heizt !
 
FUSION5 schrieb:
Das wäre doch Blödsinn, wenn man das am absoluten Verbrauch festmachen würde. Wäre es nicht sinnvoller, die Bewertung an der Effizienz festzumachen?
Nein, wieso sollte es denn. Damals haben alle gemeckert als es eine Obergrenze für Staubsauger eingeführt wurde. Dennoch saugen die neuen deutlich besser als die alten, welche teilweise dreifache Leistung verbraucht haben. Wenn die Hersteller gezwungen werden, kommt die Effizienz sehr schnell von alleine.

Was nützt mir eine Grafikkarte 2025 mit 1000W und mehr, wenn die Effizienz angeblich so toll ist?
 
  • Gefällt mir
Reaktionen: janer77, Spottdrossel und Drullo321
shaggy86 schrieb:
Das in der aktuellen Zeit alles noch mehr Strom (ver)braucht, kann ich nicht verstehen oder gar nachvollziehen. Da sind neben den Konsumenten vor allem auch die Hersteller in der Pflicht - meiner Meinung nach
Da kann ich mich nur anschließen. Ich frage mich auch, woran es liegt, dass manche Spiele/Programme so ausufernd sind, was den Ressourcenverbrauch angeht. Wenn ich zurückblicke, bin ich der Meinung, dass ein C64 oder Amiga 500 wesentlich besser ausgereizt war als es heute der Fall ist.
Wenn man Studien liest, in denen z.B. ein Club of Rome bei einer Fortsetzung der Wirtschaftsweise einen Totalzusammenbruch der Wirtschaft für 2040-2045 vorhersagen - und Klimamodelle ähnliche Ergebnisse zeigen, da wundert es schon, dass weder Unternehmensvorstände noch Politiker ernsthafte Anstrengungen unternehmen, wirklich etwas zu ändern.
Ich kann die Beteuerungen: "Wer konnte sich so etwas vorstellen?", nicht mehr hören. Heuchler!
 
G3cko schrieb:
Die Gewinnung mit Wind und Sonne ist in Deutschland extrem aufwändig und unwirtschaftlich. Sonne und Wind schicken keine Rechnung. Aber die Millionen Anlagebetreiber tuen dies. Die höchsten Strompreise der Welt sind ja eine Folge dieser unwirtschaftlichen Gewinnung und unter anderem der doppelten Kraftwerksvorhaltung die notwendig ist für die Dunkelflaut. Aber wie gesagt, das ist Strom und nicht Primärenergie. Strom ist nur 1/5 des Kuchens.
Ich produziere Strom mit meiner Solaranlage.
Für den Strom, den ich nicht selbst verbrauche oder speichere, bekomme ich <7 Cent/kW.
Ich habe leichte Zweifel, dass Atomstrom oder Kohlestrom günstiger herzustellen ist, wenn man alles mit einrechnen.

Ist das Problem wirklich, dass bei Solarstrom die Gewinnung so teuer ist oder eher dass so viele nachträglich noch mit verdienen wollen?
 
  • Gefällt mir
Reaktionen: bl!nk
Ich bin erstmal versorgt was Hardware angeht und aktuell noch nicht im Hype. Es kann aber passieren das ich trotzdem eine RTX 4090 wenn ein tolles Angebot kommt und es könnte durchaus auch sein das ich auf Intels 13th Generation wechseln werde. Aber geplant ist davon derzeit nichts. Netzteil macht jedenfalls mit.
 
HasleRuegsau schrieb:
Es ist ne paradoxe Entwicklung: die Hardware braucht immer mehr Energie, aber auf Steam kommen fast nur noch Pixelgames und Early Access-Schrott raus. Einen brauchbaren AAA Markt gibt’s kaum noch.
Der AAA Markt hat sich selber kaputt gemacht. Ein unfertiges Spiel nach dem anderen, endlose Gier mit Mikrotransaktionen und Season Pässen, keinerlei Neuerungen/Innovationen mehr. Somit werden die Spiele immer unattraktiver, mehr und mehr Spieler wandern ab Richtung Indie wo es zwar fast keinen Grafikbombast aber dafür Spielspaß und weniger Bugs gibt.

Was die Leistungsaufnahme angeht, lässt sich mit UV gut entgegenwirken. Die kommende 4090 wird man mit minimalen Leistungsverlust leicht mit 100W weniger betreiben können.
 
  • Gefällt mir
Reaktionen: opoderoso
Seit dem Kauf meines Steam Decks merke ich, wie wichtig mir Effizienz ist. Wenn ich aktuelle Spiele mit leichten Abschlägen in der Grafik fast lautlos und mit einem Vebrauch von <18W im Gesamtsystem auf einem "Handheld" spielen kann, gefällt mir das besser als bei >600W die Grafik voll aufdrehen zu können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Foxel, msv und opoderoso
crazy_tomcat schrieb:
Du weisst schon das nur 12% der Energie in Deutschland aus Atomkraft gewonnen wird.Allein das mit Solarenergie auf den Hausdächern zu ersetzen dürfte wohl ein Klacks sein ,und zusammen mit Wind energie sogar Jahreszeiten und Tageszeiten unabhängig.

Dafür fehlt die nötige Speichertechnologie - und ohne die ist da absolut gar nichts Jahres- und Tageszeiten-unabhängig; weder der Wind geht immer noch die Sonne scheint immer!
Wenn es ein "Klacks" wäre, warum machen wir es wohl nicht? Warum haben selbst die Grünen jetzt dem Streckbetrieb zugestimmt, wenn man doch einfach die Atomkraft mit Solarenrgie auf den Dächern ersetzen könnte?!?
Bei deinen 12% solltest du auch berücksichtigen, wie viel Strom aus Atomkraft wir zukaufen.

Ich sehe das Problem bei der Atomkraft eher bei der Endlagerung als bei dem Risiko des Betriebs. Aber will man CO2-neutral werden, führt m.E. kein Weg daran vorbei. Wie gesagt, andere Länder, wie z.B. Frankreich, Japan, oder in Skandinavien, bauen massiv aus. Durch den Ausstoß durch die Verbrennung von fossilen Energien sterben in 20 Jahren so viele Menschen, als gäbe es jedes Jahr ein Tschernobyl:
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7262727/

Und die Effizienz und Sicherheit der AKWs hat sich natürlich erheblich gesteigert (bei Tschernobyl war es ohnehin massives menschliches Versagen).

Beim Fracking genau der gleiche Stuss: Fracking-Gas aus den USA ist okay, aber bitte nicht in Deutschland. Dabei haben wir seit den 70ern hier so Gas gewonnen, und dann aus fadenscheinigen Gründen damit aufgehört und große Deals mit Russland abgeschlossen um die Jahrtausendwende.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lex30, tritratrullala, laxus222 und 2 andere
ovanix schrieb:
Und die iPads und Macs mit dem M1/M2 zu richtigen Performance Bestien wurden mit einem Stromverbrauch mit welchem Intel und AMD nur mithalten können wenn diese Ordentlich Strom fressen und nebenbei gut gekühlt werden.

Das ist ein Vergleich zwischen Äpfel und Birnen. :D

Zugegeben ich kenne jetzt die CPUs von den aktuellen Macs nicht, aber das kann man doch nicht mit PC vergleichen bei dem Spiele u. a. mit Raytracing etc. aufwarten.
 
Bright0001 schrieb:
Ob bei GPUs +50% Leistung für +30% Energieaufnahme besser sind, ist eine persönliche Entscheidung, objektiv wäre der Fall nämlich eindeutig.
Objektiv braucht die Graka da 30% mehr Energie. Das die relative Leistungsaufnehme Leistung/Watt ggf. besser ist spielt da erstmal keine Rolle, nur weil du mehr Leistung hast macht ja dein Nachbar seinen Gaming PC nicht wenig an, um das "auszugleichen".
Ergänzung ()

Bright0001 schrieb:
Ferner: Ich finde es absurd, wie viele Leute einen kompletten Ofen auf ~200° heizen, nur um dann eine einzige Pizza darin zu garen.
:daumen:

Vor allem da ja im Durchschnittsofen "danach" x mal mehr Wärmeenerige drin ist als in der Pizza. Da wäre mal ein Fortschritt angebracht. Aber aus der Microwelle schmeckts halt doch anders... ;)
 
Banned schrieb:
Beim Fracking genau der gleiche Stuss: Fracking-Gas aus den USA ist okay, aber bitte nicht in Deutschland. Dabei haben wir seit den 70ern hier so Gas gewonnen, und dann aus fadenscheinigen Gründen damit aufgehört und große Deals mit Russland abgeschlossen um die Jahrtausendwende.
Es laufen Versuche, CO2 wieder in Gesteinsschichten zu verpressen, um den CO2-Gehalt zu senken - und Du denkst ernsthaft, dass es sinnvoll sein soll, durch Fracking gebundenes CO2 hochzuholen und freizusetzen???
 
Als ewiger PC Gamer der beim N64 mit Konsolen aufgehört hat muss man heute zur Konsole raten.

Effizienter in allem, man muss sich nicht mit irgendeiner Software in Form von OS/Treiber etc. auseinandersetzen und es funktioniert meistens einfach wie es soll.

V.a. mit den ersten OLEDs inkl. Low Latency, Sync usw. war das Thema klar. Sieht zig mal besser aus als auf den ollen PC Monitoren.
 
Es war und ist unzeitgemäß für ein paar Prozentpunkte Performance die Leistungsaufnahme überproportional nach oben zu treiben. Jedem für sich mag das Peanuts sein, aber es macht die Summe aller Geräte.
Gerade bei Grafikkarten ist hier ein Trend im Gange, der in meinen Augen untragbar ist.
Und da frage ich mich, wofür? Damit man sich kurz an der immer natürlicheren mit Darstellung mit immer mehr fps auf immer größeren Monitoren ergötzen können, bis dann der Gewöhnungseffekt eintritt und wir nach noch besserem gieren?
 
  • Gefällt mir
Reaktionen: daknoll
Ich sehe nicht wirklich ein Problem. Die meiste Zeit ist so ein PC im Idle und da ist der Verbrauch tendenziell eher weniger geworden.

Unter Gaming Last wird fast jeder die Frames auf einen Wert unter die Bildschirmmaximalfrequenz drosseln, da mit Freesync für die meisten etwas anderes keinen Sinn macht.

Eine 4090 mag zwar einen hohen Maximalverbrauch haben. Sehr viele Games können diese Karte aber selbst bei 4k120 nicht annähernd auslasten. Dadurch dürfte der durchschnittliche Verbrauch bei den Endnutzern sehr viel niedriger sein als wir hier bei Benchmarks sehen. So Spiele wie Cyberpunk mit dem neuen RT Setting sind absolute Ausreißer.

Unter dem Strich reden wir von vlt. 100 Watt unterschied zur letzten Gen (oder 100Wh Unterschied bei 1h Last).

Ein effizientes E-Auto kann damit etwa 660m weit fahren.
Ein effizienter Diesel kann mit dem Energiegehalt etwa 200m weit fahren.

Man sollte viel eher darüber nachdenken, ob man Mining mit Kohlestrom betreiben muss oder ob man da nicht verlangen kann, dass dies zumindest mit Grünstrom erfolgen muss.
 
Meine Series X begnügt sich gerade mit um die 160 Watt in 4K mit Immortals Fenyx Rising. Weiß gar nicht mit welchem PC ich so wenig Stromverbrauch zuletzt hatte während des Zockens.
 
  • Gefällt mir
Reaktionen: Alphanerd
Da ich seit ca. 5 Jahren eine Photovoltaikanlage auf dem Dach habe ist das Thema Effizienz und sparsamer Umgang mit Energie bei mir in den Fokus gerückt. Seither nutze ich nur noch Business-Notebook, Tablet oder für größere Aufgaben einen AiO-PC mit Notebook-Technik. Mit diesem Setting erledige ich auch anspruchsvolle Videobearbeitung in DaVinci Resolve sehr energiesparend.
 
  • Gefällt mir
Reaktionen: Alphanerd und Teckler
Wo habt ihr eigentlich die 150W PBT vom 13900K her? Auf der Intel Folie steht 125W (wobei es ja Am Ende des Tages egal ist, da eh immer MTP gilt)
 
Zurück
Oben