Im Worst-Case-Szenario (F1 22) verliert die neue Grafikkarte mit 300 statt 450 Watt (-33 Prozent) 17 Prozent FPS.
Ich glaube, dass viele der aktuellen UE5 Spiele sich ähnlich verhalten (Achtung: Reine Mutmaßung), was bedeuten würden, dass man auch mit der 4090 teilweise viel Leistung verliert bzw. eben ähnlich viel, als wenn man andere Modelle (z.B. 4080) mit weniger Powerlimit betreibt. "Viel" ist natürlich eh relativ und Ansichtssache.
Denn natürlich ist das Verhältnis selbst hier noch 2:1 (33% Energie-Einsparung. 17% Leistungs-Verlust), das werden viele wohl mitnehmen wollen.
Aber 17% sind halt einfach viel für meinen Geschmack, alles über 10% finde ich persönlich viel, ist aber natürlich Ansichtssache.
Ich will damit sagen, dass das Perfomance-Rating
*, welches vor über einem Jahr mit entsprechenden Spielen erstellt wurde, wahrscheinlich heute schlechter ausfallen würde (mehr Leistungsverlust mit 350 und 300 W gegenüber den stock 450 W)
*
450W: 99,9%
350W: 96,8%
300W: 90,6%
F1 22 (und möglicherweise viele moderne UE5-Spiele):
450W: 100%
350W: 94%
300W: 83%
Alle Daten aus diesem Artikel.
Man muss an der Stelle auch noch mal erinnern, dass 450 W wohl eh selten anliegen, sondern eben etwas weniger. Daher ist der Leistungs-Verlust von 450 auf 350 W auch nicht so groß.
Bevor sich irgendjemand mit seiner 4090 angegriffen fühlt: Ich möchte sie keineswegs hiermit schlecht(er) machen.
Wenn sie zu einem vernünftigen Preis verfügbar wäre (~1.600 - 1.700 EUR) würde ich wohl von meiner 4080 upgraden. So warte ich aber noch auf die 5000er Serie. Dank DLSS vermisse ich mit der 4080 eh keine Leistung, aber das Upgrade könnte ich für mich selbst mit dem Stichwort Hobby/Haben-Wollen rechtfertigen.