News Effizienz & Verbrauch: Wollt ihr mehr über effiziente o. sparsame Hardware lesen?

Nixdorf schrieb:
@TheOpenfield Oberhalb einer nicht bei allen Boards gleichen Schwelle beim RAM-Takt wird V_SOC angehoben, um den höheren Fabric-Takt zu ermöglichen. Dadurch steigt zwar der Verbrauch in der CPU, aber das Board-BIOS ist verantwortlich. Es ist gut denkbar, dass man sich auf B450 bei niedrigeren RAM-Takten mit dem Undervolting des IOD beschäftigen muss, um Strom zu sparen.
Nein, es liegt nicht nur an der SOC Spannung (wäre auch zu schön ;) ). Bei Zen 2/3 wird ab 1600 IF der Uncore OC Modus aktiviert und lässt sich nicht deaktivieren. Dabei steigt der Verbrauch (selbst bei identischer SOC Spannung) stark an.
 
jogbert schrieb:
Effizienz sollte also nicht nur am (eigenen) Stromverbrauch festgemacht werden, sondern am Gesamtverbrauch an Ressourcen.
Das bringt mich auf den Gedanken, dass der CO2 Abdruck bzw. der Energieaufwand bei der Herstellung interessant wäre. Interessant wäre da sicher auch, wann es sich Energetisch lohnt einen neuen Rechner zu kaufen.

Interessant wäre für mich auch Energieeffiziens im Server-Bereich, da hier die Problemstellung ein wenig anders ist: Während bei PC Spielen die Laufzeit ja meistens extern gegeben ist, hängt die bei Servern ja mehr davon ab wie schnell eine Aufgabe ausgeführt wird (z. B. das ausliefern einer Webseite). E = P * t (Energie = Leistungsaufnahme * Zeit), heißt beim spielen dürfte der Energieverbrauch nur von der Leistungsaufnahme abhängen, während bei Servern die Frage nach den Leistungseinbußen direkt im Raum steht.

Auch was Kühlung angeht find ich das Thema spannend. Während beim Supercomputing in DT die Wärme inzwischen fast immer zum Heizen nachgenutzt wird, und zum Teil in das Fernwärmenetz eingekoppelt wird, scheint das bei klassischen Servern weniger der Fall zu sein.

Energieeffiziente Software ist auch ein interessantes Thema, auch wenn das noch mal ne andere Größenordnung ist 😁.

Viele Grüße

Jesaa
 
  • Gefällt mir
Reaktionen: KitKat::new()

@Magellan


Na klar, da gehen wir uns gewissermaßen selbst auf den Leim. Medien, die uns immer aufs Neue den Spiegel vorhalten würden, oder gar unser Verhalten kritisierten, hätten in relativ kurzer Zeit keine Reichweite mehr. Und so sagen sie uns irgendwie, natürlich eher zwischen den Zeilen, was wir hören wollen.

Auf der anderen Seite ist es natürlich großartig Produkte zu haben wie den neuen FlightSim von Microsoft, oder Star Citizen (wenn es jemals das Alpha-Stadium verlassen sollte), aber dafür braucht man dann halt auch leistungsfähige hardware. Ich glaube nicht, dass man da mit effizienter Programmierung den Leistungshunger signifikant einschränken könnte. Allerdings bin ich kein Coder, ich nehme das also nur an.

Da es offensichtlich für viele Leute schwierig ist, aus der Nummer rauszukommen, schieben sie das Thema halt an den Rand, solange der Energieverbrauch bezahlbar bleibt.
 
  • Gefällt mir
Reaktionen: KitKat::new()
jogbert schrieb:
Auf der anderen Seite ist es natürlich großartig Produkte zu haben wie den neuen FlightSim von Microsoft, oder Star Citizen (wenn es jemals das Alpha-Stadium verlassen sollte),
Star Citizen sollte eigentlich für Windows 7 rauskommen und auf einer GTX 590 mit den höchsten Einstellungen laufen. Aber wenn es das Alpha-Stadium irgendwann verlassen sollte, wird es auf einer RTX 4090 nicht einmal mehr starten.
 
Mich packen diese Berichte von High End 1200W Monstern nicht. Umgekehrt. Angesichts der preispolitischen Situation und dem Klimaaspekt sind mir diese Themen sogar suspekt.

Mich faszinierte schon immer, wie viel man aus wie wenig herausholen kann. Es ist für mich viel spaßiger zu sehen, was ein kleiner Raspberry Pi mit einem TDP von 4W alles anstellen kann oder wozu ein kleiner Intel Atom mit TDPs von rund 10W in der Lage sind. Ich mag auch die Vorstellung dass eine ganze Büroetage voll mit solchen kleinen Office Maschinen weniger Energie verbraucht als so manches EINZELNES Gaming-Rig.
 
zentausend schrieb:
Ein Mac mini M1 zeigte mir dann, wie ein Rechner im Jahre 2020+ sein sollte: Klein, kompakt, leistungsstark und dabei absolut geräuschlos.
Einen Mac Mini (oder auch viele andere Mini-PCs) kann man aber nicht aufrüsten oder noch selbst durch Teileaustausch reparieren. DIY ist eben ein komplett anderes Marktsegment als Mini-PCs.

Notebook-Hardware wäre dennoch für Desktop-PCs sehr interessant. Die wenigsten Spieler brauchen wirklich mehr CPU als einen Ryzen 6000 oder 12th Gen Core mobile mit 15-25W TDP. Desktop CPUs brauchen das mindestens im Idle.
 
Epistolarius schrieb:
Einen Mac Mini (oder auch viele andere Mini-PCs) kann man aber nicht aufrüsten oder noch selbst durch Teileaustausch reparieren. DIY ist eben ein komplett anderes Marktsegment als Mini-PCs.

Notebook-Hardware wäre dennoch für Desktop-PCs sehr interessant. Die wenigsten Spieler brauchen wirklich mehr CPU als einen Ryzen 6000 oder 12th Gen Core mobile mit 15-25W TDP.
Da gibt es eine Community, die mit dem Mainboard des Framework-Laptops ihre NAS und Surf/Arbeitsmaschinen baut. Sehr interessant tatsächlich.
 
  • Gefällt mir
Reaktionen: Epistolarius
BoardBricker schrieb:
Aber für das ganze Bild muss man auch die Softwareseite betrachten und dann wäre es etwas unfair, den schwarzen Peter für die steigenden Verbräuche nur bei den Hardwareherstellern abzuladen.
Sieht man sich die aktuelle Entwicklung an, dann liegen die steigenden Energiebedarf aber alleine an den Hardwareherstellern zur Zeit, weil sie über jede Not hinaus mehr Energie in die Schaltkreise jagen, als notwendig wäre.

Die 4090 ist bei 450 W kaum schneller als bei 350 W und selbst bei 300 W verliert sie NUR 10 % an Leistung. Selbst mit 300 W verprügelt die 4090 aktuell alles was auf dem Markt ist. Es geht hier alleine darum, dass man den längsten Balken hat.

Und auch im weiteren Feld ist das mit der Softwareseite so eine Sache, auch wenn DirectX12/Vulkan deutlich nähere Programmierung an der Hardware ermöglicht, es ist immer noch eine Abstraktionschicht, die einiges an Leistung benötigt.

Genauso sind es die zwei unterschiedlichen, jetzt drei unterschiedlichen Architekturen bei den GPUs, die keine wirkliche "Optimierung" zulässt. Ampere und Ada wollen zwei Tasks pro SM am besten mit 64 Werten, GCN wollte 4 Task pro CU mit 64 Werten, RDNA will 2 Taks pro CU mit 32 Werten. Das sind heute Sachen, die an den Treiber ausgelagert werden.

Die Möglichkeiten der Optimierung der Software sind heute wegen den Hochsprachen und den APIs teilweise begrenzt. Das dient der Portierbarkeit der Programme auf verscheidene Hardware.
KitKat::new() schrieb:
Wenn bei der Zielgruppe genug Leistung da ist, warum dann viele Arbeitsstunden in Performanceoptimierungen stecken?
Da Optimierungen heute oft nur noch auf Algorithmen-Ebene möglich ist, erübrigt sich vieles andere auch wegen der Portierbarkeit automatisch. Ein Spiel, dass man auf ein Prozessor oder eine GPU hin optimiert, müsste für jede GPU und jede CPU eigene Programmierpfade enthalten, dass macht man heute nicht mehr.
BoardBricker schrieb:
Tatsächlich wird aber wohl fest damit gerechnet, dass beim Release in x Jahren die Rechenpower y vorhanden ist.
Ja und Nein zur gleichen Zeit. Es kommt immer darauf an, von was für einem Spiel man redet und was die Intention hinter dem Spiel ist. Es gibt Spiele, die sich über die Grafik definieren und die die Maßstäbe verschieben wollen - FarCry, Crysis 1 - die absichtlich versuche heutige Hardware maximal auszureizen mit dem Ziel, die Grafikqualität voran zubringen.

FarCry und Crysis haben damals nur "DX9" verwendet, also die Schnittstelle, die seit 2002, auf den Markt kam, und wollten damit zu dem jeweiligen Zeitpunkt (DirectX9 und DirectX9c) die beste Grafik zaubern, die möglich war. Das führte unweigerlich dazu, dass man natürlich die Rechenleistung der damaligen Karten sprengte.

Es gibt aber auch in diesem Fall das Gegenbeispiel, nämlich die Unreal Engine 3: Diese hatte sich damals das Ziel gesetzt bei bestimmter Hardware die bestmögliche Grafik zubieten. Beide Vorsätze hören sich ähnlich an, sind aber ein entscheidener Unterschied.

1. Bestmögliche Grafik, die technisch möglich ist.
2. Bestmögliche Grafik, die mit betimmter Hardware möglich ist.

jogbert schrieb:
Ich glaube nicht, dass man da mit effizienter Programmierung den Leistungshunger signifikant einschränken könnte.
Ja und Nein. Auch hier ist das beste Beispiel Crysis und Unreal Tournament 3 (UE3). Gerade Spiele mit der Unreal Engine 3 haben damals qualiativ sehr viel auf den Bildschirm gezaubert. Crysis sah besser aus, hat damals aber bei den gängigen Auflösungen jede Hardware überfordert. Selbst die GeForce 8800 Ultra hatte bei 1280 * 1024 durchaus Probleme und in den damals aufkommenden Auflösungen des 16:10 Zeitalters mit 1680 * 1050 war in Crysis oft bei "Hoch" bereits schluss, wenn man über 30 FPS bleiben wollte: https://www.computerbase.de/2008-04/test-nvidia-geforce-9800-gtx-sli/18/ (Crysis)
https://www.computerbase.de/2008-04/test-nvidia-geforce-9800-gtx-sli/14/ (UnrealTournament 3)

jogbert schrieb:
Allerdings bin ich kein Coder, ich nehme das also nur an.
Kann man und viele Spiele zeigen auch, dass es möglich ist. Das Problem heute sind teilweise wir Spieler, aber auch die Auflösung. Wer heute noch in FullHD spielt, kommt teilweise mit recht schwachen Karten zurecht. Auch WQHD (also 1440p) ist heute relativ normal mit der Hardware. Der Leistungsfresser ist heute 4k und dass hier eben eine gewisse Rechenleistung benötigt wird.

Und ebenso wollen natürlich auch die Entwickler die Grafik weiter bringen, das "RT"-Zeitalter ist, was Echtzeitberechnung angeht, noch am Anfang. Die ersten Gehversuche mit SSAO waren auch höllisch, was die Leistung anging oder die ersten Screenspace-Reflections, bis die Entwickler damit immer besser umgehen konnten und die Algorithmen sich verbessert haben.

Klar, wurden da die Effiziengewinne gleich in bessere Effekte überführt, aber was früher die Grafikkarte hat teilweise massiv einbrechen lassen, kann man heute quasi an lassen, da es kaum mehr Leistung frisst.
 
  • Gefällt mir
Reaktionen: BoardBricker und mr_clark
In der Umfrage wurden leider Effizienz und Sparsamkeit vermischt. Das sind 2 Paar Schuhe. Effizienz hat in der Regel den Vorzug, da mehr Effizienz letztlich auch mehr Leistung bedeutet, wenn das Chip-Design nicht irgendwelche harten Design-Limits hat (zB wenn der Takt einfach nicht hoch kommt). Mit der letzten Generation wurde die absolute Leistungsaufnahme zwar etwas hochgesetzt aber im Großen und Ganzen sehe ich da dennoch recht deutliche natürliche Grenzen, wenn man nicht Wasserkühlung zum Standard machen möchte.

Die TDP herunterregeln zu können gehört inzwischen schon seit einer Weile zum guten Ton und somit ist Sparsamkeit fast immer erreichbar, wenn man das möchte. Effizienz hingegen ist eine Grundeigenschaft eines Produkts. Klar kann man die Effizienz drücken, wenn man das Produkt hochprügelt. Aber das lässt sich durch herunterregeln dann auch wieder korrigieren. Und eben dieses Potenzial gilt es in den Tests auszuloten. Das wurde bisher hier großteils ohnehin schon sehr löblich gemacht.

Absolute Leistung (im Rahmen besagter natürlicher sinnvoller Grenzen, sonst ist bald LN2 Kühlung der Standard) wird dennoch nie ganz verschwinden, das liegt in der Natur der Sache.

In diesem Zusammenhang beobachte ich mit gewisser Sorge, dass es seit einiger Zeit offenbar einen Trend zu immer größeren Grafikkarten Custom-Designs gibt. Bald ist es so, dass man eine leistungsfähige Grafikkarte, die sich nicht mehr als 2 Slots gönnt und dann noch in ein Gehäuse passt, das nicht überlang ist, vergeblich sucht oder man zumindest auf einen Großteil der Modellpalette verzichten muss. Wenn das nur paar Top of the Line Modelle sind, ist das eine Sache. Bei AMDs letzter Generation ist es oberhalb der 6600XT schwer solche Karten zu finden (die Referenzmodelle erfüllen das ja noch zum Glück).
 
  • Gefällt mir
Reaktionen: Deadsystem
neben der üblichen PC-Hardware, wären auch Verbrauchstests von Monitoren von Relevanz. Diese verbrauchen gerne mal so viel wie ein komplett ausgestatteter effizient eingestellter Spiele PC.

Falls CB künftig auf das Effizienzthema eingehen möchte, wäre es bestimmt sehr hilfreich Beispielkonfigurationen zu nennen um zB einen angestrebten Maximalverbrauch von 400w oder ähnlich nicht zu überschreiten. Und wieviel (rechen)Leistung von diesen 400w im Vergleich zu anderen Konfigurationen mit mehr oder weniger Leistungsaufnahme zu erwarten ist.
Hat sich beim Testen ein Board als besonders effizient erwiesen, kann dies als Referenzwert dieser jeweiligen Generation herhalten, womit man ein sparsames System aufbauen kann.
Bei CPU und GPU wird eher danach entschieden, wieviel (rechen)Leistung benötigt wird. Die Unterschiede der Leistungsaufnahme der unterschiedlichen Grafikkartenhersteller wäre dann neben dem Mainboard wohl der größte Faktor, den es zu ermitteln gilt.
 
Nero2019 schrieb:
Einen Stromverbrauch GPU-Tabelle mit FPS=60 wäre extrem nützlich.
Bei welchen Grafikqualitätseinstellungen? Einheitlich für alle(so, dass die schwächste halt gerade noch 60fps schafft und der Rest nicht voll ausgelastet ist) oder bei jeder Graka die höchste Einstellung, die gerade noch 60fps auf der jeweiligen Graka erlaubt?
 
eher so maximale Details und FPS=HZ.Also bei 60 hz =60 FPS und bei 144 HZ 144 FPS.Mehr auch nicht und alles bei Full HD.
Dann werden wohl die kleinen entlastet und die stärkeren werden wohl nicht ganz ausgelastet.Das wird dann wohl der Fall sein.
Ist dann halt dann die frage,wie wird sich dann das ganze sich verhalten.Nebenbei wird auch noch die CPU entlastet und dann noch am besten bei GPU und CPU die SPannung senken.Mehr geht halt dann auch nicht mehr.
Bisher habe ich ja nur überall die Spannung der CPU soweit es ging runter gesetzt und die FPS Limtiert.
ALs letztes könnte ich also die Spannung der GPU senken.VIelleicht schaffe ich ja durch das nicht nur aus einem 75 Watt GPU das die FPS Limitiert wird nicht nur 60 Watt sondern sogar noch weniger,wer weis.

Man weis also erst wenn man das getestet hatte das Maximale aus dem ganzen geholt zu haben,ob es das Limit ist oder nicht,das sieht man nur dann sonst ja nix.

Aber selbst dann braucht der PC noch immer sehr viel Strom.Da hilft nur das System gegen eines mit Onbaord zu wecheseln.Dann fallen gewiss auch die 10 Watt die die GPU im idle verwendet hat ebenso weg.
Aber ne ganze Plattform nur wegen der GPU zu wechseln ist freilich Quatsch.
 
Epistolarius schrieb:
Notebook-Hardware wäre dennoch für Desktop-PCs sehr interessant. Die wenigsten Spieler brauchen wirklich mehr CPU als einen Ryzen 6000 oder 12th Gen Core mobile mit 15-25W TDP. Desktop CPUs brauchen das mindestens im Idle.
Das ist totaler Stuss. Eine schnelle Grafikkarte benötigt auch eine schnelle CPU.
 
ja sehe ich auch so,sonst könnte man ja auch ne RTX 4090 mit einem Pentium 4 oder niedriger oder sonst was kombinieren.Das Ergebnis wäre wohl sehr eindeutig.
 
Tom_111 schrieb:
Das ist totaler Stuss. Eine schnelle Grafikkarte benötigt auch eine schnelle CPU.
Aha. Weil die meisten Spieler natürlich die schnellsten Grafikkarten haben (und brauchen...). Natürlich rede ich nicht von mobile CPUs gepaart mit 4090er.

Den "totaler Stuss" Kommentar hättest dir auch sparen können...
 
Nixdorf schrieb:
Einen 5600/5700X/12400/12500 kann man prima auf 65W limitieren und dann eine RX 6600 dazu stecken, die mit -6% Leistungslimit bei maximal 124W landet. Passt also, und die Produkte sind jeweils innerhalb der letzten 20 getesteten Produkte für den Desktop.
Ich verstand (und verstehe) die Frage im Artikel so, dass es um Hardware für die Allgemeinheit geht, die das out of the box kann, nicht um DIY Tuning Guides für versierte Anwender. Liege ich damit falsch?
 
Zurück
Oben