News Seasonic: Netzteil-Hersteller nennt TDP für RTX 5090 und RX 7990 XTX

Es geht nicht nur um den Stromverbrauch, wenn man die Watt zu Watt Leistung betrachtet sind die Karten schon effizienter mit der Zeit geworden, aber die selbe Summe wird dann extra nochmal durchs Brecheisen erkauft.
 
ben12345 schrieb:
sollte es doch so kommen das der Verbrauch deutlich höher wird dann senkt man ihn selber ein wenig bei 3% Leistungsverlust...
Macht auch gar nicht die Platinen teurer und Kühler größer wa? Aber nein es muss ja immer Exzess gefahren werden, zur Not spart man dann....
 
@Gigaherz Teuer werden die Dinger so oder so. Um die Preise zu senken braucht es ernst zu nehmende Konkuurenz. AMD versagt hier schon seid Jahren und Intel ist auch noch nicht so weit. Vielleicht gibt es in der darauffolgenden Gen in 3 Jahren wieder einen echten Preiskampf aber zur zeit sehe ich Nvidia in einer Position in der sie fast machen können was sie wollen und das sieht man halt auch an den Preisen.
 
  • Gefällt mir
Reaktionen: Gigaherz
Ich weiß nicht, wie es euch da geht, aber mir als GPU-nicht-Enthusiasten sind mir noch nicht genug Rs, Ts und Xe in den Modellbezeichnungen beider Hersteller. 🥴 Es gibt doch noch soooo viele andere schöne Buchstaben in der Alphabetsuppe.
 
  • Gefällt mir
Reaktionen: Blende Up und Dorimil
ben12345 schrieb:
Nvidia war schon sehr effizient in dieser Generation, wenn man noch ein bissl selber einstellt ist es teils extrem wie gut die Karten sind. Keine Ahnung warum man sich hier so ärgert über eine mögliche Erhöhung des Stromverbrauchs. Es ist nur ein Gerücht und ich sehe absolut Null Grund für Nvidia die Karten am Limit zu betreiben ohne echte Konkurrenz.
Der normale Spieler braucht diese Brachiale Power doch überhaupt nicht. ich kaufe mir also eine Karte für viel Geld, um diese dann im "Stromsparmodus" zu betreiben, weil ich diese Power gar nicht brauche... und durch das immer besser werdende Upscaling sogar immer weniger. Es gibt absolut keinen Grund, eine sehr gute Karte durch eine bessere zu ersetzen.

Und ja, nicht jedes Spiel braucht die volle Power der Karte und man sollte sie bändigen. Der verbratende Strom war mir egal, aber die Temperatur des Chips lag bei mir im Vordergrund. Meine Erfahrung war mit Doom Eternal halt, dass ich mit 300 Watt spielen kann oder aber auch nur mit 130 Watt und es gibt keinen Unterschied, was das Bild angeht... (RX 6900 XT, die rennt sogar in 4K ohne Probleme)

Jedes Spiel bekommt eine eigene Konfig bei mir.
 
Es kann ja jeder selber für seine Adresse einen Stromvergleichsrechner anschmeißen und schauen wie teuer der Strom derzeit ist. Ich habe vor Kurzem erst gewechselt und zahle jetzt zwei Jahre lang 23,5 Cent für die Kilowattstunde - was zumindest bei mir sogar weniger ist als ich vor Corona bezahlt habe. Von daher mag Strom bei uns teurer sein als in vielen anderen Ländern, macht aber auf der Liste der monatlichen Ausgaben bei den meisten wohl dennoch einen der eher vernachlässigbaren Posten aus. Und wer freiwillig auf Wechsel verzichtet und schon seit Ewigkeiten in irgendwelchen Basistarifen feststeckt - und das ist hierzulande nach wie vor jeder Dritte bis Vierte - der ist sowieso selber schuld, wenn er zu viel bezahlt. Das sind übrigens auch genau die Leute, die den - deshalb wenig aussagekräftigen - Durchschnittsstrompreis verzerren.

Meine 4090 läuft undervolted, mit 141 FPS-Limit und über eine geplante Nutzungszeit von 6-8 Jahren, und nach mittlerweile anderthalb Jahren kann ich sagen: bester Kauf ever.
 
  • Gefällt mir
Reaktionen: Simonte
Gigaherz schrieb:
Wir brauchen fettere Netzteile.
Ich hab das 1KW starke Dark Power 12 bei meinem Neubau reingehauen in weiser Voraussicht^^
Ergänzung ()

Independent schrieb:
Der normale Spieler braucht diese Brachiale Power doch überhaupt nicht.
die 4090 reicht nichtmal für Outlaws 🌚
 
Zurück
Oben