RTX 4090 - Power target und Power Spikes

Paddy0815X

Cadet 3rd Year
Registriert
Jan. 2023
Beiträge
47
guten Abend zusammen,



eine frage die mich beschäftigt, und zwar gibt es ja bei der 4000er Series der Nvidia Karten Exemplare die Hörer Power Spikes haben als andere.

Als Beispiel:



RTX 4090 FE: 468W -> Power Spikes bis auf 499W (7% Spikes)



RTX 4090 Strix: 517W -> Power Spikes bis auf 547W (6% Spikes)



RTX 4090 Palit: 461W -> Power Spikes bis auf 535W (16% Spikes)



RTX 4090 Gaming OC: 450W -> Power Spikes bis auf 492W (9% Spikes)



Wie man sieht sind die Spikes der Palit z.B teilweise mehr als doppelt so hoch wie die der Top Modelle.



Jetzt zu meinen 3 eigentlichen Fragen:



1.) In wie fern sind Power Spikes von 16% für einen normalen Nutzer wie mich von Nachteil?



2.) Wirken sich derartige Spikes negativ auf die Langlebigkeit meiner Komponenten aus? Speziell was Netzteil & die GPU selbst angeht.



3.) Kann man derart hohe Spikes mit Undervolting bzw. Verringerung des Power Targets verhindert oder verringern?





Ich danke euch schon mal für eure Antworten



Beste Grüße!
 
Aber hat das früher oder später irgendwelche Konsequenz für das Netzteil und/oder die GPU?
 
Glaube nicht dass es da von der Haltbarkeit viel unterschied geben wird.
 
Aber 16% im Vergleich zu 6-9% klingt halt schon extrem finde ich.
Oder übertreibe ich?
 
Paddy0815X schrieb:
Aber 16% im Vergleich zu 6-9% klingt halt schon extrem finde ich.
Die älteren Generationen wie 1080ti oder 2080 ti hatten Spiks von teilweise über 40%.
Dagegen sind die aktuellen richtige Musterknaben.
 
Ich frag mich echt wieso dann teilweise von gewissen Leuten so ein Aufstand diesbezüglich gemacht wird.

Gabs bei den 3090er Karten nicht aber auch mal Probleme mit den spikes bei einem bestimmten Spiel? (Der Name des Spiels fällt mir leider nicht mehr ein). Glaube da ging es hauptsächlich um die Karten von EVGA die teilweise kaputt gingen
 
tja die meisten hier im Forum achten garnicht drauf:

Was auf der Seite der Hersteller steht an "PSU Recommended", gilt nur für die GPU, man muss den Stromverbrauch der anderen Komponenten auf max. Belastung mit dazurechnen + ein gewisses Polster an Reserve, weil man möchte ja nicht, wenn man z.B 6 Stunden durchgängig zockt das Netzteil auf extrem hoher Last lassen.

Bester (peak) Wirkungsgrad der Effizienz wird eh nur meistens bei 50% - 80% Last erreicht und das Netzteil wird leiser beim Gaming bspw. wenn es nicht nonstop am straucheln ist, das ist halt Fakt.

Da kaufen leute neue Komponenten für extrem viel Geld ein - hier im Forum - aber sparen beim Netzteil... immer wieder... wieso? wiesooooo spart ihr genau am Netzteil?
 
Paddy0815X schrieb:
die Karten von EVGA
Die Karten hätten früher oder später auch so den Geist auf gegeben. Die wurden schon defekt geliefert.
Lost ARK war nur das Spiel was zu dem Zeitpunkt viele Leute gespielt haben und was eine ausreichende Last erzeugt hat.
Es war der Auslöser aber nicht die Ursache.
 
Zurück
Oben