News Nvidia GeForce „Blackwell“: 575 Watt für RTX 5090 und 360 Watt für RTX 5080 im Gespräch

LamaMitHut schrieb:
Nvidia lässt anscheinend nichts anbrennen, sondern stürmt weiter nach vorne.

Bei der 4090 und dem 12V HPWR Stecker haben sie aber einiges anbrennen lassen :lol:
 
  • Gefällt mir
Reaktionen: eXe777, BlackVally, w0wka und 15 andere
Kraft kommt von Kraftstoff.
 
  • Gefällt mir
Reaktionen: BobMahoo, wtfNow, Hovac und eine weitere Person
bekloppt. ich musste schon für die 263W meiner 7800XT über meinen Schatten springen. Passt daher ganz gut, dass die 9070 XT mit 26xW vermutet wird. Eine höhere TDP würde ich in Kombination mit meinem 550W Netzteil zum jetzigen Zeitpunkt nicht in Betracht ziehen.
 
  • Gefällt mir
Reaktionen: baizer, Bänki0815, Serandi und 3 andere
Cleaner57 schrieb:
Naja, wer voraussichtlich 2500€ für eine 5090 ausgibt, dem werden die Stromkosten wohl nicht unbedingt stören.
Es gab ja auch Zeiten mit SLI wo manche gleich 2 starke Grakas hatte,
Das denke ich auch, zumindest sollte man sich dann nicht beschweren, naja SLI ist nun doch schon ne weile vorbei und die Strompreise waren damals anders, das Bewusstsein hat sich da schon über die Jahre etwas verschoben, mehr Richtung Effizienz, die neue Challenge sollte sein soviel wie möglich mit sowenig wie möglich, mir wäre es auch lieber wenn noch mehr die Unnötigkeit solcher Grafikmonster ins Bewusstsein rutscht und man ehr geneigt ist die 250Watt Grenze nicht zu überschreiten.

Ich will das keinem "madig" reden, besonders nicht im Bezug auf Arbeit mit diesen Grafikkarten, vor 25 Jahren hätte ich wohl auch noch mit dem Portmonee gewedelt und HIER geschrien. Insgesamt leistet Nvidia schon geniale Arbeit, das man auch mal zugestehen, der Preis ist halt ne andere Sache. Aber es geht auch ohne die Grünen ... ☺️
 
  • Gefällt mir
Reaktionen: rentex, Gothic47 und Creekground
  • Gefällt mir
Reaktionen: Gothic47 und the_IT_Guy
Meine 500-550W max, an der Steckdosenleiste vom gesamten Schreibtisch, ist in meiner 70er Jahre Dachgeschosswohnung schon kein Vergnügen😅
Im Winter toll, im Sommer eine Katastrophe.
 
  • Gefällt mir
Reaktionen: Mut4nt
Ist eigentlich schon bekannt ob die RTX 5090 tatsächlich mit 2x 12V-2x6 kommen wird?

Ich sehe das nicht so dramatisch mit dem Stromverbrauch, wenn es wie bei der 4090 der max. Verbrauch ist. Diese läuft UV deutlich kühler und entspannter als gedacht.
 
Fast 400W und nur 16 GB Vram. Soll Nvidia stecken lassen.
 
  • Gefällt mir
Reaktionen: Gothic47, Balu_, Ralf74 und 6 andere
Merke:
Für einen neuen PC braucht man nicht nur regelmäßig ein neues Mainboard, sondern auch ein stärkeres Netzteil oO
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Cleaner57 schrieb:
Ich denke aber auch dass PC-Komponenten Stromsparfunktionen haben und sogar ausgeschaltet werden können wenn sie nicht in Gebrauch sind. Ich lasse meine 4090 auf jeden Fall nicht 24/24 laufen, mein Gaming Pc ist höchstens 2 Stunden am Tag an.

Genau das ist der Punkt. Ich hab am PC ca. 360 Stunden gespielt dieses Jahr (hab Steam ausgelesen und die Zeit in WoW addiert). Der Einfachheit halber gehen wir von einer Stunde pro Tag aus (in der Realität sind es eher 7 Stunden, aufgeteilt auf Samstag und Sonntag).

Da wären mir Dauerverbraucher wichtiger. Wie wird geheizt? Wieviel wird am TV geguckt (läuft oft dauerhaft im Hintergrund, Verbrauch zwischen 100 und bei OLED mit aktiviertem HDR bis zu 280 Watt)? Wird ein E-Auto geladen? Gut, E-Auto betrifft auch noch nicht die Masse, zieht aber erheblich mehr.

Eine 4090 hat doch kaum Verbreitung (siehe Steam Surveys, eine 5090 wird wohl auch nicht vom Massenmarkt gekauft). Glaube, nichtmal eine 4080/5080 kann als Produkt für die Masse bezeichnet werden. Aber jeder Haushalt besitzt einen Fernseher (fast alle aktuellen TVs werden in die Effizienzklasse F eingestuft).

Natürlich wäre es BESSER, wären die Karten effizienter. Alles fließt in die Summe. Aber den ganz großen Umwelthammer kann man bei High-End Grafikkarten stecken lassen.
 
Cleaner57 schrieb:
Naja, wer voraussichtlich 2500€ für eine 5090 ausgibt, dem werden die Stromkosten wohl nicht unbedingt stören.
Es gab ja auch Zeiten mit SLI wo manche gleich 2 starke Grakas hatte, ob das nun viel weniger Strom gezogen hat?
Es gibt ja 1000+W Netzteile, dann kann wer will diese ja auch ausreizen.

Geht zB mir nicht um die Stromkosten. Ich zahle 11cent/kWH.

Aber die Hitze unterm Schreibtisch ist ne Hausnummer - Das will ich hier nicht haben.
Im Sommer läuft zwar die Klimaanlage, aber dennoch 550++ Watt unten rumpusten braucht doch kein Mensch
 
  • Gefällt mir
Reaktionen: Pro_Bro, Larnak, Bänki0815 und 5 andere
Dann bin ich doch mal neugierig, was die Testergebnisse hergeben werden. Auch wenn ich mir so einen Boliden nicht leisten kann, bin ich trotzdem gespannt wie ein Flitzbogen zu sehen, wie viel schneller diese Karten sind und wie viel Strom sie verbrauchen werden.
 
  • Gefällt mir
Reaktionen: Laphonso
Jan schrieb:
Noch bleibt es ein Gerücht, aber nach Meldungen, die RTX 5090 könnte ab Werk ohne OC bereits 600 Watt TDP aufweisen, nennt ein neuer Leak jetzt 575 Watt für das neue GeForce-RTX-Topmodell. Das wären 125 Watt mehr als bei der RTX 4090. Die RTX 5080 soll auf 360 Watt kommen – 40 Watt mehr als die RTX 4080 (Super).
Für mich das Indiz, dass locker 15-20% des Performancezwuches (den ich bei 35-40% sehe 5090 vs 4090) alleine über die "Drehzahl" kommen bzw mehr Taktfrequenz = mehr Verbrauch.
Na, mal sehen....
 
  • Gefällt mir
Reaktionen: Bänki0815 und Fighter1993
Die Argumentation von der steigenden TDP ist ohne Kenntnis der Architekturverbesserungen und der Taktraten komplett haltlos.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Simanova
Man möchte fast sagen "geht ja noch". Aber keine dieser Grafikkarten kommt für mich noch in frage, ich betreibe schon seit Jahren nichts mehr was mehr als mein 550W Netzteil benötigt. Wäre bei mir auch pure Geldverschweindung. Letztlich kommt diese Leistung bei mir einfach gar nicht mehr zum Einsatz.
In Steam war dieses Jahr mein meistgespieltes Spiel "Retroarch" gefolgt von Elden Ring. Und dann kam lange einfach gar nichts.
 
Die Diskussionen über den TDP der Nvidia-Karten erinnert mich an gleiche Threads zum Release der 3000er und 4000er...
Ich denke man kann da auch mal gut reinschauen um zu sehen wie es ausgeht.
Sie werden trotz des Verbrauchs gekauft...
 
guggi4 schrieb:
und selbst das nur bei der 90er Karte.
Wegen der hab ich sorgen um die Effizienz der Karten. Wenn die nennenswert effizienter werden, müsste die 5090 mehr als doppelt so schnell wie eine 4090 werden und dazwischen gibt es dann einfach nix.

guggi4 schrieb:
5080: 76 -> 84 SM
wodurch die beim Rasterizing wohl weit von einer 4090 entfernt sein sollte. Ich schätze mal, dass die nur unter Ray-Tracing-Last irgendwie mit der 4090 schritt halten kann und nVidia wird genau die Folien am 21. zeigen und dann allen erklären wollen, dass man jetzt "quasi" ne 4090 für ~$1000 bekommt.

Son Sprung zwischen der 5080 und 5090 empfinde ich irgendwie auch unverschämt. Da ist einfach soo viel Platz für weitere Produkte und die Produkte darunter sind dann kaum ein Upgrade für Besitzer der Vorgänger. Ggf. will man diese Gen einfach nur weiter ausloten wie viel der absolute Enthusiast noch bereit ist, für eine GPU zu zahlen.
 
  • Gefällt mir
Reaktionen: Solavidos und guggi4
Ich prognostizsiere ebenfalls eine mind. 20% Leistungssteigerung, was ich auch hoffe. Ich schaffe es locker meine RTX4090 unter 4k voll auszureizen und bei dem einem oder anderen Game nichtmal die für meinen nat. 120hZ die entsprechenden Frames bereitzustellen. Ich denke das die 5090 die erste Karte sein wird die tatsächlich 4k der aktuellen Grafikengine Mal ordentlich mit alle Optionen in hohen fps darstellen kann.
Mit DLSS 4 ein Genuss.

Ich denke es könnte noch eine RTX 5080ti oder Super geben, wo dann 24GB Vram angeboten werden. Doch am Anfang verkaufen sich die Top Karten und die skalpierten einfach am Besten.
 
  • Gefällt mir
Reaktionen: Kosti
Rotznase6270 schrieb:
Die Diskussionen über den TDP der Nvidia-Karten erinnert mich an gleiche Threads zum Release der 3000er und 4000er...
Ich denke man kann da auch mal gut reinschauen um zu sehen wie es ausgeht.
Sie werden trotz des Verbrauchs gekauft...
4000er? 🤔 Die 4080 verbraucht genau so viel wie die 3080.
 
drago-museweni schrieb:
Es bleibt nur die Frage, wird das jetzt mit jeder Generation mehr, da es anscheinend anders nicht mehr möglich ist solche Leistungssteigerungen zu erreichen die vermutet werden.

Das kann man nicht mehr Vergleichen. Früher waren es einfach nur eine GPU heute ist das viel mehr als nur GPU. Das sollte auch berücksichtigt werden wenn die Reviews kommen. Man kann eine moderne GPU nicht einfach nur als GPU bezeichnen da die viel mehr können als "Bilder ausgeben".
 
  • Gefällt mir
Reaktionen: Sinatra81
Zurück
Oben