Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsEffizienz & Verbrauch: Wollt ihr mehr über effiziente o. sparsame Hardware lesen?
Danke für diesen Artikel. Ich kann nur hoffen, dass das Thema auch die Hersteller erreicht - und sie die Standardeinstellungen effizient wählen, statt für 3% mehr Leistung nochmal 50% Verbrauch draufzuschlagen. Wie im Fall der 4090. Die Umfrage bestätigt mich, dass sich sehr viele andere - daraunter eben gerade Enthusiasten - für das Thema interessieren. Ganz im gegensatz zu der oft herunter geleierten Aussage, wir Hardware-Interessierten wollten ja immer den längsten Balken.
Hätte gar nicht erwartet dass das so ein großes Thema hier ist.
UV und Effizienz ist für mich schon seid ca 2014 ein großes Thema. Nach ewigen Jahren vom AMD Phenom II umgestiegen auf nen AMD Bulldozer Prozessor und ganz kurze Zeit später auf einen Xeon E3-1231V3, merkte ich wie genial das ist wenn man einen sparsamen Prozessor hat. Anfangs nur wegen der geringeren Lautstärke begeistert, hat sich das mittlerweile zu ner Challenge entwickelt das letzte Watt irgendwie weg sparen zu müssen.
Mein aktuelles System würde ohne UV vermutlich so gar nicht funktionieren. Der 11400F ist vom Werk her ein ziemlicher Schluckspecht und mein erster Prozessor den ich nicht nur per Offset (-145mV) untervoltet habe, sondern auch im Turbotakt beschnitten habe (max. 3.6Ghz Multicore, 3,8Ghz Singlecore), weil die Effizienz bei den hohen Taktraten ab Werk einfach miserabel ist. Ich muss sagen die 2 Tage die ich dabei gesessen habe ihn zu optimieren haben richtig Spaß gemacht.
Da ist bei den Angaben aus der Sig definitiv weniger drin. Standardempfehlung: Als Energiesparplan "Energiesparmodus" wählen (in der klassischen Systemsteuerung), dort noch in den erweiterten Einstellungen bei PCI Express "Maximale Einsparungen" aktivieren. Dann mit AutoPowerOptionsOK oder ProcessLasso einen automatischen Wechsel in diesen Zustand nach wenigen Sekunden Abwesenheit definieren. So kann beim aktiven Arbeiten einfach genau so flüssig wie bisher gearbeitet werden, und das Absenken greift nur, wenn man inaktiv wird. Das kann dann 10-15 Watt sparen. Außerdem mal gucken, ob im BIOS V_SOC gesenkt werden kann, denn bei DDR4-3600 wird das IOD oft eine Stufe höher geschaltet und verbraucht dann mehr.
woldofoldo schrieb:
wo der Effizienztest um einen Framelimiter erweitert wird (z.B. bei 60 und 144 FPS)!
Im Hardwarebereich - und nicht nur dort - ist der ausschlaggebende Punkt die Leistung in Bezug auf die Energieaufnahme - also nichts anderes als das was der Begriff Energieeffizienz beschreibt. Ein sparsames Produkt ist nicht automatisch effizient, nur weil es weniger Energie benötigt und ein Produkt, das mehr Energie benötigt ist nicht automatisch ineffizient. Da CB in ihren Tests auch immer die Leistung in Relation zu der Energieaufnahme setzt, wird in den Tests eigentlich schon alles beantwortet.
Es wäre doch schon nur interessant zu wissen, bis zu welchem Powertarget die Komponente leistungsmässig linear abliefert. So erkennt man sehr rasch ab wann der Hersteller die Brechstange hervor nimmt.
Breite Designs wie 4090 oder eben ein 13900/7950 profitieren länger von einem hohen powertarget, während ein salvage Chip früher von der linearen Leistungskurve abbricht.
Ich finde es weiterhin relativ schade, dass die AMD rx6800 (non xt) so stiefmütterlich behandelt wird. Mit der Karte kann man echt einiges reißen was Effizienz angeht.
Wie wäre es z.B Mal mit einem Effizienz build testen? 5800x3d und rx6800 zusammen bringen, die CPU mit PBO optimieren und die GPU etwas undervolten und dazu ein FPS Limit von 60 bei 1440p.
Da werden zwar einige sabbern und meinen, der 5800x3d wäre hier Verschwendung. Aber da geht's ja nicht um die maxfpsnsondern die effizienz die diese CPU an den Tag legen kann.
Kann man Grafikkarten eigentlich physisch bei der Stromaufnahme limitieren, zb in dem man sie nur mit X4 anschließt oder den Slot auf PCIe 2.0 stellt?! Also ich meine bewusst nicht per Software. Ich könnte mir schon vorstellen eine RTX 4080 zu holen, aber ich will sie wenn nur im Sweet Spot betreiben (150 bis 200W).
Ja habe DELL,HP,Fuitsu. usw. mach auch seit Jahren schon ihr eigens 12V only ding und sind damit viel effizienter
(oder eben ca.20V für die ganzen ultra- small Form factor)
Echt traurig dieser uhr alt Standard im DIY Markt irgend wie unnötig am leben gehalten wird
Im DIY-PC-Bereich ist eigentlich alles veraltet. Netzteile im IBM-AT-Formfaktor liefern immer noch völlig überflüssige 3,3 V für den AGP. Optische Laufwerke waren bei 5.25"-Half-Height und DVD stehengeblieben und Festplatten bei 6Gbps SATA im 3.5"-Formfaktor (obwohl 2.5" schon lange besser war).
Selbst M.2-SSDs gibt es nur als 2280, obwohl Systemintegratoren längst auf kleinere Module umgestiegen sind. Mal abgesehen davon, daß die angebotenen APUs Schmalspurversionen der Konsolen-APUs sind, damit man ebenso veraltete PCIe-Karten verkaufen kann.
Einen technisch modernen und sparsamen PC selbst bauen? Geht eigentlich gar nicht.
Ich befürworte eine politische Berichterstattung zu diesem Thema. Die Ursachen der Energieknappheit, der explodierenden Stromkosten, der kommenden Blackouts ("Lastabwurf") und des Industrie-Exodus aus Deutschland sollte jeder Wissen. Wer das zu verantworten hat auch.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Egal, irgendwer wird schon schuld sein und ich hab da auf jeden Fall nix mit zu tun. So und jetzt muss ich mir ein neues 1000W Netzteil suchen, das alte 850W Teil ist nur noch für den Zweitrechner zu gebrauchen.
Apropo Boomer, die haben übrigens auch Advertorials damals in der New York Times und Co. nicht wirklich gebrauchen können. Hurra für Big Oil und Herbert Schmertz, Jahrgang 1930.
Die Boomer waren nur leider das Ziel dieser Fake News der 70er und 80er …
Gefühlt macht ihr das ja schon eine ganze Weile bei fast allen "größeren Tests" wie CPU & GPU launches.
Da finde ich es auch sehr interessant und passend. Wäre schon gut, wenn Ihr so die Redaktions-Ressourcen es zulassen sowas auch weiterhin macht, bzw zeitnah nachliefert. [Grade die "tatsächlichen IPC" vergleich oder "echte FPS" bei unterschiedlicher Leistungsaufnahme]
Ansonsten finde ich den ganzen Aspekt über "Effizens" hier in den Diskussionen teilweise sehr vergiftet, auch weil es anscheinend keinen Konsens gibt, was Effiziens denn bedeutet.
Und es ist ja m.M.n auch ein sehr subjektives Thema. Einer sieht nur Effizienz bei "gleiche Leistung wie bei X aber mit 20% weniger Verbrauch. Ein anderer denkt 75% Mehrleitung bei 20 mehr Verbrauch ist auch fair. Und beide "Seiten" feinden sich schon sehr an.
Persönlich bin ich mit der Leistungsaufnahme und [vor allem?] Wärmeabgabe meines PC mit 5900X [auf 280er AiO] und 6900XT [Referenzdesign] beide it Stock Settings zufrieden. Aber ich habe für mich auch entschieden, dass eine potentielle neue Graka [und ich bin sehr am RDNA3 release interessiert] ebenso nur auf zwei 8-Pin Stecker darf [sich die Leistungsaufnahme also nicht zu sehr erhöhen sollte].
Ansonsten gleichen wir zu Haus wenigstens durch "Ökostrom" aus.
[Eher OT: Und ich bin ja durchaus der Meinung das Verzicht bei Strom, im Gegensatz zum puren Verpulvern von Öl so gerne ich auch Auto fahre, höchstens Mittelfristig Sinn ergibt. Ausbau erneuerbarer Ernergien ist das a&o. Die Speichefrage (bzw "Dunkelflaute" Panik) - in der Massiv auch neue Konzepte dabei sind grade in die semi-Industrielle Testung zu kommen - kann man auch noch in den nächsten zehn Jahren lösen bis der Anteil überhaupt signifikant genug ist dafür. Am Ende kann man nur den Kopf schütteln, dass aktuell wieder Hunderte (!) Milliarden in Subventionen gesteckt werden, anstatt diese über die letzten 20 Jahre mal in irgendwelchen Ausbau gesteckt worden wären (und sei es nur den seit Jahrzehnten klar für die "Energiewende" benötigte Netzinfrastruktur.]
Also irgendwo ist für mich ein Limit, was den absoluten Verbrauch angeht und zwar, wenn ich die Gaming Hardware in kleinen (ggfls mITX) Gehäusen nicht mehr leise kühlen kann.
Effizienz ist mir immer wichtig. Wenn ich vorne Leistung reinstecke, will ich hinten auch Leistung rausbekommen.
Meine 3090 im 22 Liter Desktop ist auf 300W limitiert und ist bei der WQHD Anforderung hörbar aber nicht störend oder gar laut.
Die neue 3080 im 14 Liter mITX Gehäuse auf 250W limitiert und auch noch OK, wobei sich das Gehäuse schon spürbar aufheizt.
Ich finde es halt krass wie das in 2-3 Generationen in absoluten Zahlen angestiegen ist.
Die GTX 1080 hatte 180W TDP. Wir sind bei einer 3080 jetzt bei 320W und bei der 4080 werden es noch mehr.
Das sind halt auch mittlerweile Verbräuche die man, mit den gestiegenen Energiekosten, spürt.
Früher (tm) war relativ egal, ob die Karte jetzt 80W oder 100W gebraucht hat. Das hat am Ende keinen €uro Unterschied ausgemacht. Jetzt schafft man es mit Gelegenheitsspielen durchaus 20€ und mehr zu verblasen.
Kann man Grafikkarten eigentlich physisch bei der Stromaufnahme limitieren, zb in dem man sie nur mit X4 anschließt oder den Slot auf PCIe 2.0 stellt?! Also ich meine bewusst nicht per Software. Ich könnte mir schon vorstellen eine RTX 4080 zu holen, aber ich will sie wenn nur im Sweet Spot betreiben (150 bis 200W).
PCIe zu begrenzen bringt nix, dort läuft eh wenig Saft drüber. Einfach die Karte per Curve Editor untervolten, das ist sehr einfach und man holt sehr leicht 100 Watt weniger raus.
Der Unterschied mit der Sparsamkeit und Effizienz ist ja gerade das schlimme an der aktuellen Situation der Menschheit, wenn es um unsere Ressouren geht.
Effizienz bringt uns allgemein gar nix, die Menschheit muss sparsam sein mMn.
Was bringt es denn, einen schwere SUV zu fahren, nur weil er einen effizienten Dieselmotor hat.
Ein Kombi mit 100PS weniger verbraucht auch weniger.
Genauso ist es mit den CPU GPU.
Effizienz ist ja schön und gut, aber diese Käufer verbrauchen einfach mehr Strom, obschon es ganz normal auch mit einer Komponente mit weniger Stromverbrauch gehen würde.
Die aktuelle Situation der neuen Generationen ist in meinen Augen der falsche Weg.
Sonntagsfrage ist ja witzig, habe gerade gestern ein NUC11ATKPE mit Windows 11 aufgesetzt, und bin erstaunt wie viel Leistung heutzutage in eine Hand passt, und das ganze bei sehr wenig Verbrauch! 😁👍
Ich sagte nicht ohne Grund physisch. Nur für den Fall der Fälle dass die Software versagt, möchte ich kein 750W Netzteil verbauen. Der Plan ist es bei einem 400W Platinum Netzteil zu bleiben.
Ergänzung ()
Tiara G. schrieb:
PCIe zu begrenzen bringt nix, dort läuft eh wenig Saft drüber.
Das ist schon klar, aber weniger Lanes / Bandbreite limitieren die maximale Performance. Und weniger Performance heißt zwangsläufig weniger Stromverbrauch. So zumindest meine Idee dahinter.
Ein zunehmend wichtigerer Bereich, wobei PC Hardware für mich in erater Line mit Sicherheit nicht zum "Strom sparen" gekauft würde (denn dann wäre es effizienter und auch günstiger keine oder die alte weniger oft zu nutzen).
Ein Faktor war das für mich in jedem Fall beim CPU Kauf, da "X" oder "K" Versionen einfach für mich keinen Sinn mehr machen bzw. spürbaren Mehrwert bieten.
Bei dem noch ausstehenden GPU Kauf bin ich auch immer noch unentschieden, bspw. ob ich eher eine effizientere RX 6800 oder eine doch spürbar leistungsfähigere RX 6800 XT Grafikkarte kaufen würde; so ein mies abgestimmter/ineffizienter und mit Speicher bzgl. Leistung total unterdimensionierter Mist wie eine RTX 3070Ti käme für mich nicht in Frage.
Was ich (in der Umfrage) sehr vermisse sind PC Monitore (viel eher als Smart-TVs, die eher Konsolenspieler ansprechen/bedienen), denn da las ich vor kurzem, daß Hersteller ernsthafte Schwierigkeiten haben dürften die EU Energieeffizienzauflagen mit den Produkten, nicht nur bei 8K Monitoren sondern auch bei 4K/UHD Monitoren verbrauchstechnisch noch einzuhalten.