News GeForce RTX 5090 mit 32 GB: Ein erster Blick auf ein Custom-Design des neuen Topmodells

Leute 600W habt ihr einen Rappel?!? Vergleicht das mal mit anderen Haushaltsgeräten.

Für 20 Fps mehr bei einer vielleicht anderen Auflösung. Zeitlich hat man das Spiel damit auch nicht schneller durch…

Früher war es nur der Preis wo man gesagt hat es sind einmalige Kosten aber das nun gibt dem Ganzen die nächste Krone auf….
 
Araska schrieb:
War im Bus, hab das noch mal angepasst.
Ano_Dezimal schrieb:
Die 4090 zieht bei mir etwas über 300W effektiv. Die war auch mit deutlich mehr angegeben. Hier wird einfach maßlos übertrieben.
Es ist schön für dich, dass deine RTX 4090 nur etwas für 300 W zieht, meine zieht auch nur 320 W und hat UV drin.

Das ändert aber nichts, dass die Karte bis zu 450 W TDP spezifiziert ist ohne die Limitierungen gut gerne je nach Spiel auch 420 W sich genehmigt, sofern die Fesseln gelöst sind.

Wenn man zu den 420 W - Worst-Case den ich bestätigen kann - noch die 80 W hinzurechnet, die die meisten Prozessoren in Spielen zu sich nehmen, ist man bei 500 W. Bei 750 W hat man also noch ca. 250 W, die sich alle anderen Komponenten sichern können und hat auch noch eine Reserve.

Sollte Nvidia die RTX 5090 bei 575 W TDP anbieten, dann kann man je nach Szenario ohne Limitierung von 530 W ausgehen, mit den 80 W für die Prozessoren bei Spielen ist man bei 610 W und hat für das restliche System 140 W noch frei und das ist verdammt auf Kante kalkuliert.

Und ein Netzteil sollte man nicht nach den durschnittlichen Verbräuchen kalkulieren, sondern nach dem, was im Worstcase gezogen werden kann. Bei einer RTX 4090 sind also 750 W je nach Prozessor eher das, was man als Minimum einplanen sollte. Bei einer RTX 5090 mit 125 W mehr, wäre der Griff je nach Prozessor zu 850 - 900 W also zu überlegen.

Und Wärme ist gerade für Netzteile auch so ein Problem. Klar, kann man es auf Kante nähen, nur wenn die Netzteilelektronik wirklich zu 100 % ausgelastet wird, dann ist das nicht wirklich hilfreich. 20 % Puffer sind nicht verkehrt.
 
Also wenn die 5090 wirklich 575 Watt ziehen darf, wäre ich dafür, dass man diese nur in der Mittagszeit nutzen darf (100% Last), damit die Stromspitzen der PV Anlagen ausgeglichen werden :P scnr :D

Jetzt mal im Ernst: Dann wird das Spielen in Deutschland ja zum Luxusgut bei 30-35 Cent/KWh.
Musste grad hier dran denken:
Staubsauger dürfen gemäß der EU-Verordnung maximal 900 Watt verbrauchen. Obwohl die Leistung von Staubsaugern durch das Watt-Limit eingeschränkt wird, hat das in der Regel keine Auswirkungen auf ihre Reinigungsfähigkeit, da moderne Technologien die Effizienz verbessern.

Und die laufen nur eine kurze Zeit am Tag / in der Woche :D ...

Mal schauen, wann sich die EU den Gamern mit übertrieben stromhungriger Hardware annimmt :D
 
zig*zag schrieb:
Niemals 3k, schätze so 2-2,5k werden es werden.
Wenn man ein paar Monate wartet, kann das sein. Am Anfang wird man sicher nur bestimmte Modelle bekommen, welche dann teurer sind.

Ich habe für meine 4090 am Anfang 2.149 € bezahlt und der tiefste Preis lag ein paar Monate später bei 1.600 € und ich wollte aber nicht warten. Aktuell habe ich allerdings noch keine Not, so dass ich vielleicht sogar Mal warten kann. :daumen:

Allerdings sind die nvidia Aktien so gut gelaufen, dass der Preis fast egal ist. :D
 
Ferax schrieb:
Früher war es nur der Preis wo man gesagt hat es sind einmalige Kosten aber das nun gibt dem Ganzen die nächste Krone auf….

Früher hatten die Enthusiasten die deutlich vierstellig für Grafikkarten ausgegeben haben aber auch gerne 2,3 oder 4 Karten mit je 250 Watt im Rechner. Der einzige Unterschied, heute bekommst du das in einer Karte.

Wer sich ernsthaft über Stromkosten beim Zocken Gedanken macht, sollte von so einer Ausgabe absehen. Wie viel Anteil das am Gesamthaushalt hat, hängt stark vom Haushalt ab. Gibt global haufenweise Haushalte, wo die meiste Zeit die Klimaanlage läuft. Da macht es einen kleinen Teil bei den typischen Gamingzeiten die man so hat aus.
 
  • Gefällt mir
Reaktionen: xexex und calippo
Shoryuken94 schrieb:
Wer sich ernsthaft über Stromkosten beim Zocken Gedanken macht, sollte von so einer Ausgabe absehen.

Ich hadere eher mit der Abwärme - zum Einen ist die derzeit benutzte Lüftertechnik, die heiße Luft im Gehäuse zu verteilen anstelle die Abluft nach hinten hinauszubefördern, ein wenig unschön für die CPU (die hat schon genug eigene Abwärme), zum Anderen wird irgendwann die Bude unangenehm warm.

Klar kann man den Mehrverbrauch der Graka mit einem Bonus-Mehrverbrauch der Klimaanlage kompensieren, aber irgendwann wird es dann doch ein wenig doof.
 
  • Gefällt mir
Reaktionen: Shoryuken94
Shoryuken94 schrieb:
wenn das Spiel nicht technische Probleme hat
Das ist ja leider ein immer größeres "Wenn". Offenbar gilt auch bei einigen Entwicklern, dass man doch im Zweifel einfach ne neue GPU kaufen kann. Optimierung braucht es nicht.
 
Engelsen schrieb:
Jetzt mal im Ernst: Dann wird das Spielen in Deutschland ja zum Luxusgut bei 30-35 Cent/KWh.
Was kostet eine Zigarette? Lt. Internet 42 Cent und 20 Minuten Lebenszeit. Ich kenne Raucher, die sich pro Stunde eine Kippe anstecken. Da redet kaum jemand von Luxusgut.

Man sollte den Stromverbrauch im Auge behalten und ich hoffe auf baldige Umsetzung von variablen Stromtarifen und noch viel mehr PV/Balkonkraftwerke.
Aber die Stromkosten sind nun wirklich das kleinste Problem beim Zocken. Wer in finanzielle Engpässe gerät, weil eine Stunde zocken 35 Cent kostet, der sollte ggf. mal überlegen, ob er zu viel Zeit am PC verbringt.


Araska schrieb:
zum Anderen wird irgendwann die Bude unangenehm warm.
Da sehe ich aber noch großes Potential in Sachen Kühlung und Abwärme. Würden Gamer sich tatsächlich mehr für die Abwärme/Kühlung statt für Optik interessieren, gäbe es schon längst ein besseres Abwärmekonzept.
Man könnte z.B. die Abwärme mit einem Schlauch aus dem Fenster pusten, so wie das die mobilen Klimaanlagen tun oder den PC einfach in ein Zimmer stellen, bei dem Lautstärke und Abwärme weniger problematisch sind. Aber dann hat man kein RGB Geblinke auf dem Schreibtisch auf Augenhöhe ;)
 
  • Gefällt mir
Reaktionen: thuering
Und wieder labern alle nur über die 575W-600W? Habt ihr alle noch nie was von UV gehört? Meine Güte.
 
Terrschi schrieb:
Welcher der NVIDIA Boardpartner hatte bei den RTX 4000 nicht auf minderwertige Wärmeleitpaste gesetzt?
Nach gerade einmal 2 Jahrne könnte das noch nicht so klar sein; wenn Du bzgl. der Wärmeleitpaste Bedenken haben solltest, dann wechsele diese doch selber aus auf der neu gekauften Karte mit der Wärmeleitpaste Deines Vertrauens ;).

Ansonsten ist der (nachfolgende) Buying Guide von O!Technology evt. hilfreich, auch wenn dieser sich auf Vorgängermodelle (RTX 4080) bezieht und das nicht automatisch heisst, dass bei den kommenden 5000er Karten auch wieder die Modelle der bevorzugten Boardpartner der Vorgängerkarten die Nase vorne haben werden.

 
Zuletzt bearbeitet:
Bevor auf den Karten mehrere 12V-2x6 Anschlüsse verbaut werden, hoffe ich eher auf einen erweiterten Standard wie 12V-2x8 oder gleich was mit 48V. Den Mist mit mehreren Kabeln braucht kein Mensch, wofür hat man überhaupt einen neuen Standard entwickelt.

Von mir aus auch gleich GC-HPCE standardisieren, der Anschluss soll bis zu 900W übertragen können, aber für die Verbindung vom Netzteil zum Board bräuchte man trotzdem einen neuen Standard.
 
  • Gefällt mir
Reaktionen: mscn und Quidproquo77
@alkaAdeluxx Ich würde nicht fragen wenn das letzte Update des Artikels von 2020 wäre…
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
Ferax schrieb:
Leute 600W habt ihr einen Rappel?!? Vergleicht das mal mit anderen Haushaltsgeräten.

Für 20 Fps mehr bei einer vielleicht anderen Auflösung. Zeitlich hat man das Spiel damit auch nicht schneller durch…

Früher war es nur der Preis wo man gesagt hat es sind einmalige Kosten aber das nun gibt dem Ganzen die nächste Krone auf….
Die wird nicht 600W ziehen, also zumindest nicht bei Standard Einstellungen. Und wer UV nicht nutzt ist selber schuld. Meine 4090 läuft bei Standard Boost (2760Mhz) mit 0,975V und zieht in der Regel 270W und bei diversen Spielen maximal 380W aber auch nicht durchgehend! Also wird mit der 5090 auch deutlich weniger Watt @ Standard Boost möglich sein. Wer sie natürlich bis zum Erbrechen übertaktet, der kann u.U. das max. TDP ausreizen.
 
Rein von den Technischen Daten würde ich vermuten das 5080 und 5090 weiter auseinander liegen als 4080 und 4090. Insgesamt glaube ich nicht das sich ein Update für mich in irgendeiner weise auszahlen würde.
 
Sturmwind80 schrieb:
Bin auf die Preise gespannt... aktuell würde ich noch etwa 1.500 € für meine 4090 bekommen und müsste dann sicher noch Mal 1.500 € draufpacken. Dafür muss aber auch der Leistungssprung stimmen.
Wird keine 3k kosten, glaubt doch nicht alles diesen preishypern hier...
 
  • Gefällt mir
Reaktionen: Player49
oldBeat schrieb:
Und wieder labern alle nur über die 575W-600W? Habt ihr alle noch nie was von UV gehört? Meine Güte.
Die 4090 hatte ja angeblich schon 600w.
 
  • Gefällt mir
Reaktionen: thuering
Zurück
Oben