chillipepper schrieb:
Ich meine auch früher in Vergleichen gesehen zu haben, dass AMD mehr verbraucht.
Kann mich natürlich auch täuschen, in dem Fall sorry.
Ayo34 schrieb:
Du vergisst dabei, dass die Nvidia 4080 und 4090 quasi nie sich das TDP Limit genehmigt beim Gaming. Die AMD hingegen schon. Zusätzlich skaliert die Nvidia auch noch sehr gut mit Framelimit oder mit geringerer TDP.
Ich muss zugeben, dass mir das auch aufgefallen ist, als ich mit meiner neues 7900 XTX experimentiert habe (richtiges UV/OC-Verhältnis finden).
Fängt leider schon damit an, dass man nur max. -10% beim PT geben kann.
Ein Stück weit hab ich das zwar darauf geschoben, dass ich das FPS-Limit jetzt nicht mehr unbedingt auf 60 setze wenn, die Leistung da ist (eher auf 90-100, wenn es im Spiel auch sichtbare/genießbare Vorteile bietet), aber auch da habe ich für mein Verständnis unnötigerweise oftmals über 200 W gesehen.
Bei der Lovelace kann ich es nicht aus eigener Erfahrung sagen, aber auch Ampere hat da besser skaliert, wenn ich ehrlich sein soll.
Selbst bei knapp 100% Auslastung habe ich nicht immer die 280W Verbrauch gesehen, auf die ich meine 3080 eingebremst hatte.
Die 7900 XTX klebt zwar nicht immer an den 315 W, die ich ihr zugestehe (weniger geht ja leider nicht), aber sie genehmigt sich das Maximalbudget bei sehr hoher Auslastung auffällig häufiger als meine 3080.
Kann die 7900 XTX schlicht nicht weniger Watt verbraten oder ist das Energiemanagement da einfach schlechter? NV-Karten haben ja auch z. B. ein besseres VRAM-Management.
Ayo34 schrieb:
Selbst die 4090 mit 450 Watt TDP genehmigt sich 30 Watt weniger als die 7900xtx.
Das tut schon ein wenig weh, wenn man daran wieder erinnert wird. 😅