.Sentinel. schrieb:
Wird ja dann alles effektiv in Rechenleistung umgesetzt, was wiederum die Berechnungszeiten verkürzt und somit hinten raus die Energie wieder einspart.
Ein Grund, warum wir sehr viel öfter Diagramme brauchen, die beschreiben, wie viel für einen festgelegten Task verbraucht wurde, statt einfach nur einen Momentanwert an Verbrauch auszugeben.
Ist ja schön, wenn man z.b. den Spitzenverbrauch während Blender angibt. Deutlich interessanter wäre aber, wie viel W/h insgesamt für das Rendern eines Bildes verbraucht wurden.
Bringt ja nichts wenn CPU A 150W verbraucht und CPU B nur 130W, zu sagen dass CPU B weniger verbraucht.
Das stimmt zwar so erst mal, wenn dann aber CPU A 1:00 Minuten für das Bild braucht und CPU B 1:30 Minuten, dann ist man mit CPU A am Ende deutlich sparsamer unterwegs.
Gilt natürlich nicht für Aufgaben, die kein definiertes Ende haben, wie z.b. Spiele. Hier kann man nur nach eigenem Ermessen definieren, ob sich eventuelle Mehrleistung für mehr Verbrauch lohnt.
Das kann man sich natürlich selbst ausrechnen, wenn man es mit der Renderzeit kombiniert, die ja meist auch getestet wird, schöner wäre es aber das in einem separaten Diagramm direkt berechnet zu haben.
Vor allem da es einfach viel zu viele gibt, die diesen simplen Zusammenhang ignorieren und dann alleine basierend auf den Verbrauchsdiagrammen von Stromfressern schreiben.
Man muss sich ja nur mal vor Augen führen, wie viele reine Spieler, die eine CPU niemals zum Rendern o.ä. nehmen würden, gegen eine CPU argumentieren, weil diese in Cinebench mehr Maximalverbrauch zeigt.