News Nvidia GeForce „Blackwell“: 575 Watt für RTX 5090 und 360 Watt für RTX 5080 im Gespräch

ArrakisSand schrieb:
14900KS + RTX5090 FE = Tödliche Kombination (Erwartete Zeit bis dir das System abraucht 100ms)
14900KS + RTX5090 Custom = Tödlichste Kombination (Erwartete Zeit bis die Funken sprühen 1ns)
Wat habt ihr alle mit eurem 14900KS? 'N anständiger Threadripper schafft deutlich mehr Watt wech als so eine Spielzeug-CPU...
 
  • Gefällt mir
Reaktionen: MalWiederIch, ElliotAlderson und iceshield
SKu schrieb:
Luft würde ich das trotzdem nicht kühlen wollen

Das wird das geringere Problem, die 4090er Heatsinks zeigen ja schon wo die Reise hingehen kann.

Was ich aber als größeres Problem sehe ist das ich mir nicht vorstellen kann sowas in einem Wohnraum ohne Klimaanlage zu betreiben. Die Watt gehen ja ungehindert in den Raum und an die 600 Watt heizen gewaltig. Da dürfen im Sommer Zimmertemperaturen von 30 Grad an der Tagesordnung sein.
 
MrWaYne schrieb:
meine 4090er fand ich für meine 4K Bedürfnisse auch zu schlecht. Ging vor kurzer Zeit auch sehr gut weg. 1:1, quasi kein Verlust gemacht.
Deinen 5900X kannste ruhig gegen den 9800X3D tauschen. Die Frametimes wirst Du definitiv merken;)
Ich bin selbst vom 7950X3D auf den 9800 gewechselt und bin mehr als zufrieden. Frametimes deutlich besser.
 
  • Gefällt mir
Reaktionen: iron_monkey und MrWaYne
Also ich weiß nicht so recht..für den Preis der aufgerufen wird und die prognostizierten speccs wirkt das irgendwie schlecht. Ich habe noch die 7900xtx, die hält vlt. noch ein Jahr und Intel wird langsam aber sicher auch zum ernstzunehmenden player.

Ka ob ich je wieder eine nv haben werde - für das bisher gebotene in Relation gesetzt, jedenfalls eher weniger.
 
Serandi schrieb:
Ich Wette bei meiner extrem sparsamen Nutzung einer 5090 würde diese maximal 300 Watt ziehen. Würde die nicht anders als meine 4090 verwenden: max UV, immer mit DLSS Quality, Raytracing und Pathtracing off, und FPS Limit ✅
Einen Bugatti oder was auch immer würde ich wahrscheinlich auch als Millionär nicht anders fahren. So bin ich nun mal als Mensch eingestellt 🤷🏻‍♂️
Sorry aber da ist schon ein ziemlicher Knick in der Logik. 😂
Überlege mal alleine bei 500€ Aufpreis, wie viele Stunden du zocken müsstest bei sagen wir mal ca. 200 Watt Mehrverbrauch, um das Geld wieder wett zu machen.
Also bei 0.30€/kwh wären das 8333 Stunden.
Sagen wir mal zu zockst wirklich jeden Tag ohne Ausnahme 3 Stunden, dann müsstest du mehr als 7,5 Jahre zocken.
Naja den Preisverfall der GPU in der Zeit kannste dir ja selber denken.
Meiner Meinung nach "gegeizt am falschen Ende". 🤣
 
  • Gefällt mir
Reaktionen: [SM]Valen und MalWiederIch
@Kenjiii Das ist mir ja auch völlig klar und das meine ich ja gar nicht! Da hast auch völlig Recht 💯
Eine 4080 hätte mir auch völlig gereicht 🙌🏻
Aber dieses Gefühl die stärkste GPU zu haben und diese dann auch nutzen zu können, WENN man die volle Leistung braucht oder haben will, das ist das was ich meine. Es ist ein Kick, den man genießen kann aber nicht ausreizen muss! Aber wenn man mal Bock auf diese "Spritztour" hat, kann man Vollgas geben. Letztendlich nur ein Luxus, den man nicht braucht aber natürlich dennoch gerne hat, wenn man es sich leisten kann😁👍🏻

Ich persönlich leiste mir gar nicht so viel. Ich lebe in einer kleinen Wohnung, bin solo und habe kein Auto, weil ich es nicht benötige und arbeite Vollzeit. Finde da darf man sich dann auch mal was gönnen fürs Hobby. Hoffe du verstehst. 🤝
 
  • Gefällt mir
Reaktionen: Kenjiii
  • Gefällt mir
Reaktionen: iceshield
Wird wirklich unattraktiver was nVidia mit jeder Gen auf den Markt bringt, abgesehen von der reinen Leistung der 5090 hat absolut jede Karte Ihren Genickbruch vorprogrammiert also quasi die geplante Obsoleszenz... Wie kann es bloß sein das sich jedes immer schlechtere Portfolio, was noch immer absurdere Preise annimmt, gut verkauft... Wir brauchen so dermaßen dringend Alternativen bzw. die vorhandenen Alternativen sollten der Masse mal aufgezeigt werden und aktiv weg von nVidia gebracht werden.
 
  • Gefällt mir
Reaktionen: AlanK
@Serandi ja, also ich glaube mit deiner näheren Beschreibung verstehe ich es jetzt :)
Es geht mehr um das Feeling, dass man die Power eben hat, auch wenn man sie nicht unbedingt benutzt.........aber man könnte jeder Zeit 😉
Und ja warum solltest du dir nicht auch mal das Beste vom Besten gönnen, wenn du sonst eher bescheiden lebst.
Irgendwo muss man sich ja auch mal gönnen. ^^
Im Grunde war die 4090 auch nicht so enorm viel teurer, im Anbetracht der Mehrleistung. (Darum habe ich damals auch zugeschlagen)
Ich glaube damals hat die 4080 auch 1400€ - 1500€ gekostet und so gesehen hat die die 4090 für 2000€ halt 33% - 40% mehr gekostet, aber das leistet sie ja auch mehr. (zumindest in 4k)
 
  • Gefällt mir
Reaktionen: Serandi
@Kenjiii Exakt 👍🏻
Wobei ich die auch immer wieder los werden wollte, da ich die Leistung wie oben genannt nicht wirklich benötigt habe und meistens eben nicht benötige nur wollte ich im Nachhinein auch nicht wirklich sinnlos verkaufen und einen herben Verlust riskieren und hinnehmen. Deswegen habe ich sie bisher behalt und irgendwo darüber auch froh. Wenn sie jetzt für über 1600€ weggeht, sei es drum, wenn nicht, auch gut, denn mehr Leistung benötige ich erst mal absolut nicht.
 
  • Gefällt mir
Reaktionen: Kenjiii
Serandi schrieb:
Würde die nicht anders als meine 4090 verwenden: max UV, immer mit DLSS Quality, Raytracing und Pathtracing off, und FPS Limit ✅

Da hätte auch eine 4060 gereicht. lol.
 
  • Gefällt mir
Reaktionen: MalWiederIch, cookie_dent und nuestra
Mimir schrieb:
Ich hab doch überhaupt nichts von Stromkosten geschrieben.
Dann schau doch nochmal auf welchen Beitrag du mit dem von mir zitierten Beitrag von dir geantwortet und bezogen hast :rolleyes:
Sun-Berg schrieb:
@Mimir Und wieviel Spiele spielst du mit Pathtracing?

edit: Ja man kann es natürlich ausreizen aber dann bezahlt man halt den Watt Preis.
Und die von dir erwähnten ~6 Stunden jede Woche im Schnitt sind schon eher mehr als weniger - und dennoch bleiben die Stromkosten mit 7€ im Monat in DE absolut im Rahmen und das obwohl wir erst vor wenigen Jahren Strompreisweltmeister waren … dementsprechend noch weniger relevant sieht es international aus …
 
BAR86 schrieb:
nein, ist es nicht.
Denn es kommt dann drauf an was hinten noch rauskommt.
Eine 4090 bei 300W ist immer noch deutlich schneller, hat mehr RAM etc als eine 4080@400W.
Die 4090 mit 300W ist aber nicht mehr deutlich schneller, als eine 4080 mit 300W, sodass man auch 1000€ sparen könnte und einfach die 4080 nutzt.
 
MrWaYne schrieb:
Da hätte auch eine 4060 gereicht. lol.
Das bezweifle ich wohl sehr stark. Eine 4070 Ti Super eher. Immerhin spiele ich auch gerne Spiele mit bis zu 120 FPS in 4k, die kein DLSS verfügen.
 
Worüber ich mir persönlich Sorgen mache ist die Grösse der 5090. Habe meine PNY 4090 gerade so diagonal ins Gehäuse eindrehen können und noch Front FANs ausbauen müssen. Wenn die noch größer wird habe ich vielleicht keinen Bock auf die Suche nach einem Geäuse zu gehen und dann alles von Neuem aufzubauen. Kommt natürlich auf die Mehrleistung an. Aber die 4090 läuft bisher genial, habe gerade die Luke Ross VR Mods mit CP2077 und StarWars Outlaws angespielt, das ist Gaming von einem anderen Stern.
 
  • Gefällt mir
Reaktionen: Serandi
Chaz schrieb:
Die 4090 mit 300W ist aber nicht mehr deutlich schneller, als eine 4080 mit 300W, sodass man auch 1000€ sparen könnte und einfach die 4080 nutzt.
Natürlich ist sie das, und nein könnte man nicht
 
  • Gefällt mir
Reaktionen: shaboo
hab meine CPU & GPU beide voll ausgelastet

IMG_4906.jpeg

mit einer 5090 könnten es dann ca 950 W sein (unter Vollast CPU & GPU)

In SW Outlaws hab ich 626 - 680 W
(100 / 115 % GPU Power Target)
(kurze Spitze 739)

da ca 100 W drauf rechnen für die 5090
Gefühlt zu viel, wenn man täglich mehrere Stunden zockt.

(alles zzgl Monitor)
 
Zuletzt bearbeitet:
Dieser Stromverbrauch geht leider in die Komplett falsche Richtung.
 
  • Gefällt mir
Reaktionen: Fyrex, dohderbert und TP555
Das klingt ja nach ziemlich heftigen Preiserhöhungen (jetzt für die RTX 5000er Grafikkarten), wenn nVidia jetzt angeblich von TSMC auf Samsung wegen der Kosten (die die hohe nVidia Profitmarge gefährden dürften) umsteigen will (bei der 2nm Fertigung).

Erwartbar dürfte es mit Samsung Fertigung in Zukunft aber noch ineffizienter werden als jetzt bei TSMC und dann evt. RDNA5(UDNA1?) effizientechnisch (durch mutmaßlich TSMC Fertigung, wenn das kostenreduzierende MCM Design passen sollte) interessant werden (was man abwarten muss). Naja, noch sind das alles nur Gerüchte.
 
Zuletzt bearbeitet:
Zurück
Oben