News Gerüchte zu GeForce RTX 50: RTX 5090 mit 600 Watt und RTX 5080 50 Prozent schneller

Halte die Gerüchte für sehr fragwürdig. Warum sollte Nvidia diesen Weg gehen des höheren Stromverbrauchs wenn die Konkurrenz nicht Mal mit konkurriert
 
  • Gefällt mir
Reaktionen: Bullz, schneeland und Quidproquo77
Dr. MaRV schrieb:
Gleich geht das Geheule über Stromverbrauch, Leistungsaufnahme und Effizienz wieder…
Dem ist ja aber auch so! Eine Grafikkarte die 400 Watt+ verbraucht ist einfach nur krank.
 
  • Gefällt mir
Reaktionen: >_<, Kitsune-Senpai, Nobbenator und 12 andere
Klingt relativ glaubhaft, bei der RTX 4xxxer Reihe kam halt ein riesiger Fertigungssprung von Samsung zu TSMC diesmal wird der vermutlich deutlich kleiner sein. Umd 400W für 4090 Leistung plus 10% klingt doch gut und wäre ja ebenfalls eine Effizienz Steigerung.
 
  • Gefällt mir
Reaktionen: Clark79 und 9t3ndo
Ich hätte keine Sorge um den Verbrauch, sondern die Kühlung. 600W mit Luft wird sportlich. Die mögliche 5080 wirkt interessanter.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Romanow363, sikarr und 2 andere
gähn Dieselbe Diskussion wie zur 4090
Und der Absatz wird es zeigen wie sehr die Leute drauf sche**** ob die 600 Watt säuft
 
  • Gefällt mir
Reaktionen: Simonte, Grestorn, sucuk_mit_eii und 17 andere
Super, dann müssen sich Entwickler noch weniger Gedanken beim Ressourcenverbrauch ihrer Software machen...
 
  • Gefällt mir
Reaktionen: Veitograf, Brati23, DrTimeWaste und 2 andere
Solus schrieb:
Wieviel an Stromkosten im Schnitt kostet dann eigentlich so eine RTX 5090, wenn man sie eine Stunde laufen lässt?
Naja bei 600 Watt sind das halt 0,6kWh, bei einem durchschnittlichen Strompreis für Neukunden von zur Zeit 28ct, sind das knapp 17ct.

Bei durchschnittlich 3h am Tag zocken wären das im Jahr 184€ nur für den Strom der GPU. Also 15€ im Monat, was kostet noch gleich Cloudgaming?
 
  • Gefällt mir
Reaktionen: Winston90, XKing, Triz und 8 andere
Bald muss man sich endlich keine Sorgen um den Anschluss der Grafikkarten und zu kleine Netzteile machen.
Sie erhalten einfach einen eigenen Kaltstecker.

Und im nächsten Schritt:

1725427764881.png
 
  • Gefällt mir
Reaktionen: >_<, Kitsune-Senpai, Simonte und 30 andere
Vielleicht sollte jemand NVIGAGA mal stecken, dass wir effizientere Karten wollen und keine 500 Watt Toaster im Rechner. Aber das interessiert die sowieso nicht, denn bei NVIDIA geht nur noch AI-Chips. Der Rest ist unter ferne liefen...
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Clonedrone und TheAnswer42
+50% bei der RTX 5080 glaube ich erst wenn ich's sehe...

Tornavida schrieb:
600W ? WTF Nvidia? Glaube ich erst wenns so kommt.
Wie sonst soll nvidia die Leistung signifikant erhöhen?

Letztes mal gab's viel Mehrleistung über einen deutlich besseren Node. Diesmal gibt's beim Node kaum was zu holen. Daher wird nvidia einen größeren Chip mit mehr Leistungsaufnahme produzieren müssen.
 
  • Gefällt mir
Reaktionen: Coeckchen, RogueSix und danyundsahne
12VHPWR goes brrrrr?

Bald sollte es die Möglichkeit geben einfach zwei Netzteile einzubauen, wie damals bei SLI/Crossfire...
 
  • Gefällt mir
Reaktionen: Derenei, Bänki0815, Benj und 3 andere
Der max. Verbrauch einer Grafikkarte ist mir ziemlich egal. Den kann ich reduzieren, wie ich es bei meiner 4080 auch getan habe. Der Leistungsverlust ist dabei meist zu vernachlässigen.
Wichtig für mich ist die Leistungsaufnahme im Idle, weshalb es dieses Mal überhaupt erst eine RTX wurde. Bei etwa 16h, die mein Rechner an einem normalen Arbeitstag läuft, sind mindestens 10h Idle. Da sollte das System, vornehmlich die Grafikkarte, sehr genügsam sein.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Bccc1, ben12345 und 10 andere
hoffentlich wird es eine 5090Fe auch inkl. WaKü-Block geben - für die Custom WaKü!
Wäre Genial!
 
  • Gefällt mir
Reaktionen: AJsw0, Boxito, AndyUT und eine weitere Person
Ich begrüße ja den Fortschritt, aber so langsam sollen sie wirklich mal den Strombedarf Optimieren.

Des weiteren denke ich, das die 4090 noch lange nicht am Limit angekommen ist und ich bezweifel auch hier, das keiner diese Brachiale Power benötigt.
Immer mehr Strom ist nicht die Lösung, um ein Leistungsplus zu bekommen.
 
  • Gefällt mir
Reaktionen: ThePlayer, danyundsahne und ThomasK_7
Dr. MaRV schrieb:
Gleich geht das Geheule über Stromverbrauch, Leistungsaufnahme und Effizienz wieder los und natürlich über den zu erwartenden Wucherpreis oder Preiswucher.
Und womit? Mit Recht!
 
  • Gefällt mir
Reaktionen: >_<, Kitsune-Senpai, schlangski und 10 andere
Gibt doch auch Modelle der 4090 für 600 Watt. Weiterhin kann man mit UV viel machen.
Meine 4090 läuft meistens bei 60% da es bisher kein Spiel gab das mehr benötigt hätte um mir meine persönlichen Min fps nicht zu geben. Gut Cyberpunk wars dann 70% ;-)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ChrisMK72 und sikarr
Dr. MaRV schrieb:
Gleich geht das Geheule über Stromverbrauch, Leistungsaufnahme und Effizienz wieder los und natürlich über den zu erwartenden Wucherpreis oder Preiswucher.
Du weist schon, das du Öl ins feuer gießt? Mal ganz ehrlich zu dir selbst: 600 Watt für eine Graka...
Hier geht es gar nicht um den Strompreis an sich, aber 600 Watt für eine Grafikkarte, damit ich paar Bilder auf dem Bildschirm sehe...

Die Kühlung wird mit Luft nicht zu bewältigen sein.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, RaiseHell und Fliz
Witzig, diejenigen die noch vor einigen Monaten bei Fridays for future rumgeschrien haben bzgl. Klimaschutz und Nachhaltigkeit, sind jetzt schon ganz gierig wg. der neuen Grafikkarten mit 600W.
Verkehrte Welt, super Doppelmoral. Jedes elektrische Gerät wird auf Effizienz getrimmt, nur die Amis interessiert das Null und wir hecheln vor lauter Gier diesem Wahnsinn hinterher.
Ich würde Grafikkarten per Gesetz auf 400 W begrenzen und die Hersteller zwingen effizienter zu entwickeln, anstatt über die pure Leistung.
 
  • Gefällt mir
Reaktionen: Flunkiii, Kitsune-Senpai, Zaphi und 11 andere
Zurück
Oben