Da hier aktuell so viel über die Leistungsaufnahme gestritten wird (ich nehme mal an hier sind keine Elektroniker beteiligt) und dabei schnöde Software-Messungen irgendwelcher Tools oder selbst auch die CB Messungen herangezogen werden, möchte ich auf einen Artikel von Igor's Lab (Toms Hardware.de) hinweisen.
In diesem Artikel ging primär um die Abschaltung von Seasonic Netzteilen, (Angeblich) ausgelöst durch zu hohe Stromaufnahme (Peaks/Spitzen) seitens AMD Vega Karten.
Diese Peaks (kleiner 20ms) führen dazu, dass eine Software-Messung falsche Ergebnisse ausspuckt, weil die Leistungsaufnahme nicht im ms-Bereicht ausgewertet wird, sonder in viel längeren Abständen. Dabei werden immer die Höchstwerte festgehalten.
Wird also -z.B.- bei einer Software-Messung pro Messintervall nur einmal 300W gemessen, sei es auch nur 20ms von einer ganzen Sekunde (1000ms) gibt die Software 300W aus, selbst wenn die restlichen 980ms lediglich 100W anliegen würden.
So krass ist es natürlich nicht, aber Igor kommt selbst im Stresstest aus eine durchschnittliche Leistungsaufnahme von 250W, also ein Verbrauch von 250Wh (0,25kWh) wenn der Stresstest eine Stunde laufen würde.
Da AMD höhere Peaks zulässt als nVidia, fallen dann auch die Leistungsaufnahmewerte teil sehr hoch aus. So dramatisch ist es aber dann doch nicht.
So benötigt eine Vega 64 etwa genausoviel Strom wie eine 1080Ti, das ist klar weniger effizient, aber eben nicht so dramatisch wie es immer kolportiert wird
Vergleicht mal Seite 2 und 3
https://www.tomshw.de/2018/12/01/de...hme-und-lastspitzen-entmystifiziert-igorslab/