News Nachhaltigkeit: Ist der Stromverbrauch neuer Hardware noch zeitgemäß?

Tekwin schrieb:
Genug Atomkraftwerke als "Übergangstechnologie" und es gibt reichlich billigen Strom für extravagante PC Konfigurationen und insbesondere für eine stabile Industrie und Wirtschaft.
Und was machen wir in den 10+ Jahren bis die neuen AKWs ans Netz gehen (und das unter der Annahme, dass es nicht zu den in Europa üblichen Verzögerungen bei Großprojekten kommt)? Und wie lange ist für dich "Übergang"? Der Bau eines AKWs kostet Milliarden. Wie lange muss so ein Kraftwerk betrieben werden, bis diese Investitionskosten wieder drinnen sind (der Betrieb/Wartung ist ja auch nicht ganz billig) und wir wirklich "billigen" Strom bekommen?

Denkst du nicht, dass man die Zeit und (politische) Energie besser in erneuerbare Energien stecken sollte, die nicht nur eine Übergangstechnologie sind, nicht 10 Jahre brauchen, bis die erste KWh Strom erzeugt wird, bei der wir für den Betrieb nicht auf Brennstoff aus anderen Ländern angewiesen sind und bei denen wir uns nicht mit der Frage rumschlagen müssen, wo wur den Abfall für die nächsten zig tausend Jahre lagern?

Imho sind neue AKWs etwas mit dem Oppositionsparteien scheinbar einfache Lösungen für unsere Probleme anbieten und damit auf Stimmenfang gehen, aber bei näherte Betrachtung wenig realen Wert haben.
 
  • Gefällt mir
Reaktionen: iron_monkey und edenjung
crypto.andy schrieb:
Die Freiheit des Menschen ist wichtiger als ALLES andere. Diesen Satz sollten sich hier im global immer weiter fortschreitenden, zerstörerischen (EU)Sozialismus viele dringend merken!

Tja wenn man nicht allein auf einer Insel lebst gibt es halt mehr als die eigenen Wünsche.

Wenn die Gemeinschaft (in unserem Gesellschaftssystem vertreten durch die Politik) sagt das ist kein erwünschtes Verhalten weil das schädliche Auswirkungen hat wenn das (zu viele) machen dann ist das halt legitim.

Eine sinnvolle Abwägung zwischen Freiheit = Egoismus und Interessen anderer das ist das wichtige sobald mehr als 1 Person auf der Insel ist - sonst nutzt der eine den Schlafsack des anderen gleich als Toilette weil der doch bequem zu erreichen ist und muggleig warm im Winter xD

Europa und Deutschland haben halt nur noch die Energiemenge X, die halt nicht mehr für alles reicht und die somit sinnvoller genutzt werden muss als bisher.
 
  • Gefällt mir
Reaktionen: iron_monkey, edenjung, NoNameNoHonor und eine weitere Person
FUSION5 schrieb:
Letztendlich müssen die Menschen davon überzeugt werden, dass es in ihrem Interesse ist, das Ding nicht vor die Wand zu fahren.
Das.
Frankieboy schrieb:
da wundert es schon, dass weder Unternehmensvorstände noch Politiker ernsthafte Anstrengungen unternehmen, wirklich etwas zu ändern.
Ich kann die Beteuerungen: "Wer konnte sich so etwas vorstellen?", nicht mehr hören. Heuchler!
Auch einer meiner "Lieblingssprüche": "Ich bin kein Wissenschaftler" Urheber: jeder x-beliebige Republikaner.
PhoeniXYZ schrieb:
Nichts für Ungut, aber ich finde diese Umfrage ziemlich unsinnig. Die neue Hardware kann eine höhere Leistung aufnehmen, verbraucht aber für eine gewisse Menge an Rechenoperationen weniger Energie, als die vorherige(n) Generatione(n). Wenn eine Grafikkarte beispielsweise viermal so "schnell rechnet", aber nur das doppelte an Leistung dabei aufnimmt, verbraucht sie halb so viel Energie für eine gegebene Aufgabe.
Da wir hier sektenst von Aufgaben, sondern spillekes reden (und ja, ich spiele auch gerne) verbraucht die Karte doppelt soviel für vlt 3-5-8% bessere Grafik. Dahin verpufft die e 4facje Power. Spiele sehen nicht anders aus als vor 5 Jahren, wollen aber die x fache Rechenleistung.
 
  • Gefällt mir
Reaktionen: edenjung
crypto.andy schrieb:
Nein.
Meine Freiheit endet garantiert nicht da wo es vermeintliche "Fridays For Future" Weltretter gerne hätten.
Und "wir" sind auch nicht in einer Krise. Das sind Sie persönlich vielleicht, ICH bin es aber garantiert nicht. :-)

Nein.
Die tatsächlich egositische Person, die hier allen anderen Menschen Grafikkarten mit mehr als 600 Watt und noch weitaus mehr verbieten will, nur weil es die eigene Ideologie verlangt, bin sicher nicht ich. :-)

Nein.
Ich verstecke meine "konservativen" Ansichten nicht. Ich stehe dazu. Und ich nehme mir mein Recht der freien Meinungsäusserung gerne heraus. Und daher steht es mir auch problemlos zu wenn ich sage dass ich ihre Meinung als vollkommen irre erachte.

Es gibt im mittlerweile tief sozialistischen Deutschland leider bereits viel zu viele junge Leute mit ihrer kruden Meinung. Das ist mit ein Grund warum der Standort und das Land mittelfristig in der absoluten Bedeutungslosigkeit und Armut enden wird.
Sich freiwillig einen Schuldkomplex aufzusatteln liegt mancher Natur.
Ergänzung ()

Bohnenhans schrieb:
Tja wenn man nicht allein auf einer Insel lebst gibt es halt mehr als die eigenen Wünsche.

Wenn die Gemeinschaft (in unserem Gesellschaftssystem vertreten durch die Politik) sagt das ist kein erwünschtes Verhalten weil das schädliche Auswirkungen hat wenn das (zu viele) machen dann ist das halt legitim.

Eine sinnvolle Abwägung zwischen Freiheit = Egoismus und Interessen anderer das ist das wichtige sobald mehr als 1 Person auf der Insel ist - sonst nutzt der eine den Schlafsack des anderen gleich als Toilette weil der doch bequem zu erreichen ist und muggleig warm im Winter xD
Die Politik ist der Feind der Gemeintschaft.
 
  • Gefällt mir
Reaktionen: crypto.andy
Wenn man in Europa und Deutschland ausreichend Energie hätte und keinen Mangel - dann könnte jeder der will die "verschwenden" wie er will - ist aber halt nicht mehr der Fall. Die Energie, die wer verschwendet fehlt halt irgendwo, wo sie wichtiger wäre.

Wer Energie verschwender beraubt irgendjemand für den dann vielleicht für was viel Wichtigeres nicht genug da ist - ist halt eine Mangelwirtschaftslage auf dem Energiemarkt.
 
  • Gefällt mir
Reaktionen: thelittledevil
„Übermäßiger Konsum“, „unnötig“, „nicht notwendig“
Wenn es dafür nur eine allgemeingültige und universell anwendbare Definition gäbe.
Dann könnte man beispielsweise Smartphonekäufe nur noch einmal alle 5 Jahre zulassen und maximal einen Tweet pro Tag.
In der Theorie alles ein interessantes Gedankenexperiment. In der Praxis mMn nicht umsetzbar, ohne essentielle Grundpfeiler unseres Systems außer Kraft zu setzen.
 
  • Gefällt mir
Reaktionen: Kuristina und tritratrullala
Foxel schrieb:
Bei mir sinds 35W unter windows mit besten energiespar Settings CPU taktet runter auf 2,9 Ghz
Anhang anzeigen 1266406

2.9GHz klingt nicht nach einem richtigen idle bei Zen3. Unser 5800X idlet bei 2.2GHz.

Der SoC-Verbrauch ist auch hoch. Ob's am zweiten CCD liegt? Ich habe jetzt einemal bei einem 3900X gemessen: Cores bei 0.01W (in Summe, PkgWatt bei 11.39W, 2.2GHz bei den Cores); kann natuerlich sein, dass Zen3 die Ansprueche an den IO-Die erhoeht, aber ich glaube, auch unter Windows sollte noch weniger gehen (zumindest ist das sonst meist mindestens so sparsam wie Linux).

P.S.: Diese Server idlen bei ca. 40W (inkl. kleiner Grafikkarte); komischerweise brauchen die Rocket-Lake-Server im Idle auch aehnlich viel (ohne Grafikkarte).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Foxel
Wenn man nicht genug Energie hat hat man keine Wahl.

Wenn die Versorgung unkontrolliert zusammenbricht hat das sicher noch sehr sehr viel grössere schädliche Auswirkungen auf die Grundpfeiler des Systems.

Und an dem Punkt ist man halt - oder ganz kurz davor - auch essentielle Infrastruktur wie die Mobilfunkbetreiber halten das doch inzwischen für nicht mehr so unwahrscheinlich, dass es lange Ausfälle geben kann, kam doch erst was auf reuters dazu.
 
Zen3 und Package Power.. generell ist AMD hier noch weit hinter Intel.

da lob ich mir doch:
Screenshot 2022-10-03 113816.jpg
 
  • Gefällt mir
Reaktionen: Vigilant und Foxel
mae schrieb:
2.9GHz klingt nicht nach einem richtigen idle bei Zen3. Unser 5800X idlet bei 2.2GHz.

Der SoC-Verbrauch ist auch hoch. Ob's am zweiten CCD liegt? Ich habe jetzt einemal bei einem 3900X gemessen: Cores bei 0.01W (in Summe, PkgWatt bei 11.39W, 2.2GHz bei den Cores); kann natuerlich sein, dass Zen3 die Ansprueche an den IO-Die erhoeht, aber ich glaube, auch unter Windows sollte noch weniger gehen (zumindest ist das sonst meist mindestens so sparsam wie Linux).
also die 2.9 GHz standen jetzt im Taskmanager von Windows keine Ahnung ob die brauchbare angaben machen in HWINFO siehts anders aus:
1664790053465.png


ich wüsste aber auch nicht was man sonst noch machen kann es läuft schon nix weiter im Hintergrund
 
janer77 schrieb:
Hinzu kommt: Wenn man bis zu 70 Jahre im Schlaraffenland gelebt hat und es jetzt nicht ertragen kann, dass es auch andere Realitäten auf der Welt gibt hat meiner Meinung nach wenig von der Welt erlebt und wenig über sich selbst auf dieser Welt gelernt.

Die meisten sind noch nie in ihrem Leben verreist.

Irgendwo im All Inclusive-Hotel die Füße in den Pool zu halten ist keine Reise.
 
  • Gefällt mir
Reaktionen: doof123
Wie dem auch sei, ich sehe große Hardware mit massiver Abwärme, also Verlustleistung, neben dem hohen Verbrauch, also kann in vielen Fällen weder von Effizienz, noch von einer gelungenen Weiterentwicklung die Rede sein.
Wenn es sehr heiss wird, wird Energie verschwendet und die Kühlung kostet auch.
Es wird aufgebohrt und die Platinen werden vollgeklatscht, wo sind denn die Fortschritte?
Wir sehen am Monitor genau das gleiche wie vorher, es mag sich ein wenig schneller aufbauen bei höherer Pixeldichte, aber das war's im Prinzip auch schon.
Mittlerweile bilden sich ein paar Komponenten ab, wo das Verhältnis Leistung / Verlustleistung besser wird,
das lässt sich fast als zeitgemäß betrachten.

Diese ineffizienten, riesigen Komponenten mit ihrer riesigen Kühlung sind Ressourcenverschwendung, Energieverschwendung, einfach Umweltverschmutzung, das wird unseren Elektromüll nicht kleiner machen.

Schafft euch an, was ihr wollt, aber denkt nicht, dass ihr mit eurem 4000 93637x noch cool ankommt.
 
Evtl könntest noch mit Throttlestop rumspielen - in meinem Notebook habe ich Gen 9 Intel da bringt das viel mit Spannung reduzieren etc - das allerdings auch meine modernste Intel CPU xD bei AMD nutze ich Watt Vorgabe.

Denke Deine moderne Intel CPU läuft so schon gut out of the box.

Ich nutze da lieber für surfen und so Alltagskram einen NetTop - und schalten die grossen Rechner nur ein wenn ich die Leistung auch brauche - das spart denke ich am meisten.
 
Als "alter Overclocker" ist mir die Leistungsaufnahme unter Volllast erstmal relativ egal, solange die Effizienz nicht vollkommen den Bach runter geht. Heißt, wenn die Kiste mir ein Video in 5 min raus rendert und dafür 600W benötigt, nehme ich das statt 10min bei 250W gern in Kauf, solange sich der idle Verbrauch nicht massiv unterscheidet. Der ist bei einer den ganzen Tag über (auch für alltägliche Dinge) genutzten Workstation viel entscheidender, als der Spitzenverbrauch.
Beim Zocken hat man mit Frame Limiter und Qualitätseinstellungen auch oft einen sehr großen Einfluss auf die Leistungsaufnahme von HighEnd Hardware.

Nervig wird es dann, wenn die Komponenten sich aufgrund ihrer Leistungsaufnahme und Design nicht mehr leise kühlen lassen, und im Sommer auch noch das Zimmer um mehrere Grad aufheizen - hier liegt für mich eher der ärgerliche und begrenzende Punkt. Beim nächsten System gibt es eventuell wieder eine Custom Wakü, und der Radiator kommt mitsamt Pumpe ins kühle Nebenzimmer. Dann ist sowohl Ruhe als auch jedes Temp Problem gelöst.
 
Foxel schrieb:
ich wüsste aber auch nicht was man sonst noch machen kann es läuft schon nix weiter im Hintergrund
"Effective Clock" ist der relevante Wert. Insofern ist alles im grünen Bereich.

1664790712931.png 1664790751399.png
 
  • Gefällt mir
Reaktionen: McTheRipper und Foxel
matzep schrieb:
Ich denke wir kommen in Regionen in denen Cloudgaming günstiger wird wie die eigene Hardware zu nutzen

Welche Leistung wird denn per Cloudgaming zur Verfügung gestellt?

Bei Xbox Cloud Gaming meines Wissens maximal ein 1080p-Stream. Selbst wenn da am anderen Ende Xbox Series X die native Grafik berechnen, kommt beim Spieler eine deutlich verringerte Bildqualität an (1080p mit Streaming-Artefakten), die noch unter einer Xbox Series S liegt.

Da können vermutlich eine RTX 1070 / 2060 / 3050 oder eine RX 5700 / RX 6600 bereits eine bessere Kombination aus Bildqualität und Performance liefern. Eine zukünftige RTX 4050 und RX 7600 auf jeden Fall.

Bei PS Now / PS+ Premium sieht es noch übler aus. 720p bis 1080p, maximal PS4-Spiele.
PS5-Spiele lassen sich nicht streamen: https://www.play3.de/2022/05/24/ps-plus-premium-ps5-spiele-koennen-nicht-gestreamt-werden/

Somit maximal eine Leistung/Bildqualität, die ein Steam Deck mit 5 -15 Watt TDP-Limit (ca. 15 - 25 Watt für das komplette Gerät inkl. Display je nach Spiel und Settings) abdecken kann. Oder neuere PC-Handhelds mit AMD 6800U, die (bei ein paar Watt mehr) noch etwas schneller sind.

Bei Shadow-PC für mtl. 29,99 € (jährlich 360 €) ist man meines Wissens auf GTX1080-Performance stehengeblieben.

Stadia ist bald Geschichte.

Von Nvidia bekommt man maximal die Leistung einer RTX 3080, da gibt es noch keine Ankündigung, dass es für mtl. 19,99 € (jährlich 240 €) zukünftig mehr Leistung gibt. Aber warum sollten sie da die Performance für einen gleichbleibenden Preis weiter erhöhen ohne Streaming-Konkurrenz bei Performance über GTX 1080?

Mit einer zukünftigen RTX 4060 oder RX 7700 wird man vermutlich nahe an die RTX-3080-Streaming-Performance herankommen und bei Bildqualität (keine Streaming-Artefakte) und Input-Lag punkten... insgesamt vermutlich das bessere Spielerlebnis.

Und sowohl RTX 4060 als auch RX 7700 dürften effizienter und günstiger als eine RTX 3080 oder RX 6800 XT in den letzten Jahren sein, wogegen ich bei Geforce Now keine Preissenkuing für RTX-3080-Leistung sehe.


tidus1979 schrieb:
Wo ist denn der Mehrwert dieser Dinosaurier? All das für Videospiele? Die man auch vergleichbar gut auf einem Mini-PC ("Konsole") spielen kann? Mir kommt es so vor, als ob die Spieleindustrie und die Hardwareindustrie sich da aus Faulheit und Gier gegenseitig hochschaukeln. Spielentwickler sparen sich Optimierungen und verlangen von den Spielern nach immer stärkerer Hardware.
Wo schaukelt denn die Spieleindustrie derzeit mit?

Auch zwei Jahren nach dem Start von PS5 + Xbox Series X gibt es bisher kaum Spiele, die nicht auch auf PS4, Xbox One oder vergleichbarem PC laufen... selbst ein Cyberpunk läuft grundsätzlich auf dem Steam Deck mit über 30 fps.

Und was ist in den letzten zwei Jahren groß hardwareforderndes herausgekommen, was eine 4 Jahre alte Mittelklassekarte (RTX 2060 / RX 5600 XT) oder eine 6 Jahre alte Oberklassekarte (GTX 1080 / Vega 56/64) mit 1080p/60 fps auf "medium/high"-Preset nicht packt?
 
  • Gefällt mir
Reaktionen: VanBommel0617
Als Vollzeit-Linux-User bin ich nach vielen Jahren Intel/nvidia mit Zen3 und RDNA2 zu AMD gewechselt.
Seit dem werde ich auf absehbare Zeit auch nicht wieder zurück wechseln, CoreCtrl ermöglicht einfach mehr Kontrolle über die Hardware.
Da Dinge wie PBO und CoreCtrl sicher auch bei Zen4 (Optimum Tech hat es schon für den 7600 getestet) und CoreCtrl für RX 7000 funktionieren werden, bleibe ich dabei.
Allerdings wird es diesmal sicher kein unmittelbares update geben, da ich erst vor 6 Monaten nochmal innerhalb RDNA2 upgegraded habe von RX6800 auf die XT Variante.
 
Schwobaseggl schrieb:
Grüße gehen raus an alle Mieter in einem Altbau mit Nachtspeicherofen.
Die dann in der Regel keine Gasheizung haben und damit immer noch Geld Sparen.


Zum Thema:
Ich weiß nicht, ob es sinnig ist, den Tageszyklus eines Spielers als Kriterium zu nehmen. Es ist halt so:
Der eine Zockt nur, der andere schaut Youtube und macht 2h Video Editing etc. Es steht jedoch außer Frage, dass man für die letzten 5% Leistung die knapp 4-fache Energiemenge braucht. Und das ist in meinen Augen nicht hinnehmbar. Auch ist es nett, dass wir nun 80Tflops Rechenleistung in einer GPU haben werden, aber wieso braucht man das? Um Schlecht optierte Spiele zu spielen?
Bei den CPU sieht man eben, dass Intels 10NM++ nicht mehr mithalten kann, völlig egal was das Marketing da redet. Intels 12900K mag in Gaming noch mithalten und vllt 30W mehr als der 7700X verbrauchen, aber auch nur wenn man das PL1 eingrenzt. Also müsste man vllt in Zukunft in Tests genau das betrachten..

Zu den GPU kann und will ich nichts mehr sagen, dazu wurde alles gesagt.
 
Cohen schrieb:
Und was ist in den letzten zwei Jahren groß hardwareforderndes herausgekommen, was eine 4 Jahre alte Mittelklassekarte (RTX 2060 / RX 5600 XT) oder eine 6 Jahre alte Oberklassekarte (GTX 1080 / Vega 56/64) mit 1080p/60 fps auf "medium/high"-Preset nicht packt?
Das ist auch nicht der "Problem-Bereich", welcher die Entwicklung treibt.

Der liegt eher in der Erwartung 4K in höchsten Details mit Raytracing bei 165 FPS darzustellen. Diese Zielgröße ist eher problematisch und bestimmt aktuell die Produktentwicklung. Ich vermute, dass die neuen Mittelklasse-Karten für die "gesunde Mitte" bei gleicher Leistung sogar effizienter als die aktuelle Generation sein wird.

Und überhaupt nicht verwundern würde es mich, wenn DLSS 3.0 plötzlich auch auf der 3000er-Generation läuft.
 
  • Gefällt mir
Reaktionen: daknoll
Zurück
Oben