News Gerüchte zu GeForce RTX 50: RTX 5090 mit 600 Watt und RTX 5080 50 Prozent schneller

ruthi91 schrieb:
Und jetzt setz mal den Kaufpreis einer Highend Grafikkarte oder eines PCs mit dem jährlichen Stromverbrauch ins Verhältnis.
Beispiel auf 1 Jahr gerechnet:
Der PC verbraucht 350W und du spielst 4 Stunden 4 Tage die Woche bei 35Cent/kwh: 101,92 €
Der PC verbraucht 450W und du spielst 4 Stunden 4 Tage die Woche bei 35Cent/kwh: 131,04 €
Mitteklasse Gaming PC 1000-1500€
Highend Grafikkarte alleine >1500€

Bei CPUs auch? Hast du irgendwie die letzten Jahre verschlafen und X3D nicht bekommen?
Es geht allerdings nicht nur um die Kosten - aber das interessiert natürlich die wenigsten. Wir wollen weniger fossile Brennstoffe nutzen. Das geht nur, wenn man anfängt, den Verbrauch zu mäßigen :)
 
DevPandi schrieb:
Nein, brauchen tut man es für echten Spielspaß nicht. Und doch:

Es geht bei gewissen Hobbys nicht darum, dass man vernünftig ist. Ich habe ein Highend-PC und einen guten Monitor. Bei beiden kann man bereits anhand der Daten durchaus die Frage stellen, ob das "energetisch" gut ist. Am Ende des Jahres hatte ich allerdings erneut nur ca. 750 kWh Verbrauch im Ganzen und liege damit sogar unter dem Durchschnitt für einen Personenhaushalt und sogar unter dem Durchschnittsverbrauch vieler Menschen in größeren Haushalten.

Selbst mit einer RTX 5090 würde das nicht massiv ansteigen, weil dafür einfach pro Woche viel zu wenig Zeit zum Spielen bleibt.

Naja der PC ist bei mir der absolute Topverbraucher, mit HO und 2 Bildschirmen seit April nun alleine fast 400 kwH durchgeballert. Von der Hitze im Sommer ganz zu schweigen. HW 7800X3D + 7900XTX.

Würde mich daher auch sehr auf sparsamere GPUs freuen.

1725446280746.png
 
  • Gefällt mir
Reaktionen: DeVIce
Mimir schrieb:
Lol, und wo bohrst du dann hin?
In den Keller ist ne gute Lösung, in der Küche stört Abwärme und Lärm auch nicht immer. Hab ja geschrieben, dass das nicht für jeden passt, aber wenn die Möglichkeit grundsätzlich besteht, dann investiere ich lieber in diese Lösung als in Wasserkühlung und sonstiges Gebastel und habe meine Ruhe und keine Abwärme im Zockzimmer.
 
Wenn das Leak mit den kolportierten Daten so käme, dann wäre Blackwell/RTX5000 nicht sonderlich effizient sondern nur geringfügig besser als Ada Lovelace.

Angeblich 10% Mehrleistung als bei einer RTX 4090 (größerer 102er Chip) mit einer RTX 5080 (die natürlich schneller sein sollte) mit gerade einmal 50W weniger (kleinerem 103er Chip), wäre effizienztechnisch sicherlich kein großer Wurf.

Allerdings ist das alles sehr fragwürdig, da man vor den RTX 4000er Karten auch übertrieben hohe Verbrauchswerte per Leaks kolportiert hatte, die in der Realität nicht zutrafen und evt. wieder nur gezieltes nVidia Marketing (per vorab bewusst übertrieben geleakten Details) war, um es dann als viel effizienter als gedacht vermarkten zu können.

Das wäre bestimmt nicht das erste Mal, dass falsche Infos geleakt werden um die potentiell diesbzgl. höhrige Kundschaft dann "überraschen" zu können.

Wenn man sich nach dem nVidia Aktieneinbruch um ca. 10% die aktuell unterstellten nVidia Insideraktienverkäufe und den zufällig vorher statt gefundenen Aktienpaketeverkauf vom nVidia CEO abschaut, dann würden mich solche dubiosen Methoden/Leaks nicht verwundern.
 
@kachiri gibt ja Stromanbieter die mit 100% Atomstrom oder Ökostrom werben.
 
oldi46 schrieb:
Halte die Gerüchte für sehr fragwürdig. Warum sollte Nvidia diesen Weg gehen des höheren Stromverbrauchs wenn die Konkurrenz nicht Mal mit konkurriert
Achtung, noch kurz Bedenkzeit...

..."weil sie es können!" (und die Konkurrenz selber nicht mal mit höherem Stromverbrauch an sie heran kommen) 😁 .

Es stimmt schon, dass sie ohne Konkurrenz die neuen Karten nicht veröffentlichen müssten. Allerdings "müssen" sie es für den Datacenter Bereich und dann wäre es schon merkwürdig, wenn sie die Consumer Karten zurück halten würden.
Da die kolportierte Leistung aktuell von den wenigsten gebraucht wird und es theoretisch keinen echten KI Anwendungsfall für den Privatanwender gibt, bin ich mal so naiv und hoffe, dass dieses Mal die großen
Preissteigerungen ausfallen werden.

Egal, welcher Preis dann ausgerufen wird, wäre für mich eine Anschaffung dann doppelt so teuer, weil bei der Leistung automatisch auch ein 4k Monitor (oder höher) mit angeschafft werden müsste.
 
Da verstehe einer die Konsumenten:
AMD bringt sparsame Prozessoren raus, die sogar sogar etwas schneller aus ihre Vorgägner sind, welche deutlich mehr Strom brauchen: Viele sind am meckern, weil sich ein Upgrade nicht lohnt.

Nvidia bringt Grafikkarten raus, die deutlich mehr Power bei mehr Stromverbrauch liefern: Es wird wieder gemeckert.

Mein Vorschlag: Einfach die Entwicklung nicht nur von einer auf die andere Generation betrachten, sondern die Entwicklung der letzten 10 Jahre mit einbeziehen.
Wie viel Strom hat eine Grafikkarte vor 10 Jahren gebraucht?

Nvidia 780 ti: ca. 250 Watt

Aktuell: Nvidia 4090: 450 Watt
Der Stromverbrauch hat sich fast verdoppelt, die Leistung hat sich jedoch versechs- bis verachtfacht.

Ich sehe da eine positive Entwicklung.
 
  • Gefällt mir
Reaktionen: Rensch
ruthi91 schrieb:
@kachiri gibt ja Stromanbieter die mit 100% Atomstrom oder Ökostrom werben.
Und weiter? Wenn jeder von uns heute 100% Ökostrom-Tarifen rumrennen würde, dann hätte wir ein Problem. Wir halten uns die ineffizienten und teuren Kohle-, Gas- und Ölkraftwerke ja nicht, weil sie so toll sind, sondern weil wir sie zur Versorgung (noch) benötigen.
Aus dem selben Grund ist auch der Quark mit den E-Fuels Quark. So viel E-Fuels wie wir benötigten, könnte man gar nicht produzieren...

Aber wir schweifen ab. Wie gesagt... Flaggship. Soll mir egal sein.
 
Chismon schrieb:

Wo soll denn die Effizienzsteigerung gegenüber Ada herkommen? Der Wechsel von N4P auf 4NP bringt nur marginale Verbesserungen mit sich. Es hat sich schon anhand der rohen Leistungsdaten der Server-GPUs abgezeichnet, dass sich bei Blackwell wenig tut und die Effizienzsteigerung beim Training neuer Modelle primär aus den überarbeiteten Transformer-Einheiten, dem aufgebohrten NVLink und den stark verbesserten NVLink Switches kommt, um Flaschenhälse zu eliminieren. Das sind einmalige Effekte und haben auf die Grafikleistung schlicht weg keinen Einfluss.

Es wäre ein anderes Thema, wenn Blackwell in N3E gefertigt würde, aber offenbar wollte nVidia nicht warten.

Was die 4090 angeht: als die 600 W aufkamen, stand noch die Fertigung bei Samsung im Raum und wäre nVidia dabei geblieben, hätten wir nun auch GA102 mit 600 W TGP. Erst der Wechsel auf TSMC in N4P hat die Senkung auf 450 W ermöglicht. Das ist aber ein einmaliger Effekt und spielt für Blackwell keine Rolle.
 
Zuletzt bearbeitet von einem Moderator:
Das kann ich mir nicht leisten. Bin eher an einer 5070 (Ti) interessiert oder einer 5080 wenn max 1000 €. Muss auch nicht sofort nach Launch gekauft werden, schließlich zahle ich meine 4070 Ti Super noch zwei Jahre lang auf Raten ab. Also in 2-2,5 Jahren sollten sich die Preise für 5070 und 5080 eingependelt haben für neuen Ratenkauf. Hoffe auch mein 750w Netzteil behalten können mit UV.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rensch
Solange die Effizienz (Performance pro Watt) gesteigen ist, sehe ich in höheren TDP-Limits absolut kein Problem.

Für wen das ein Problem ist... Gleiche Lösung wie bei allen Grafikkarten: Dann könnt ihr euch halt keine RTX xx80/RTX xx90 holen, sondern nur ne RTX xx70 oder so. 🤷‍♂️

Als größeres Problem sehe ich die Preise an, die garantiert noch höher ausfallen werden...
 
Nighteye schrieb:
Das ist ja nur für die RTX 5090 allein.
Unsere Stromrechnung (2 Personen Haushalt) beträgt 75€ im Monat.
Also durch die Karte würde sich der Stromverbrauch im Haushalt um fast 80% steigern.
loool was ist das denn für eine Rechnung?
Natürlich erhöht sich der Stromverbrauch, wenn du:
1. Im Monat 200 Stunden zockst
2. Anscheinend ca. 0.50€ pro kWh zahlst
3. Ihr im Vergleich dazu zu zweit davor nur ca. 1500 kwH pro Monat gebraucht habt und du gar nicht gezockt hast.
4. Du dann mit einer Enthusiasten-Highend-Grafikkarte in 4k auf max. settings alles rausholst.

Also bitte, da sind diese 50€ pro Monat doch ein Witz für 200 Stunden Primetime in deinem Hobby.
Mal ganz abgesehen davon, dass es wohl nur ca. 30€ wären, wenn du zu einem normalpreisigen Stromanbieter wechselst.
Aber anyway, diese Investition ist so oder so ein Tropfen auf den heißen Stein angesichts der langen Zeit, die du damit verbringst.
 
  • Gefällt mir
Reaktionen: calippo
MadCat[me] schrieb:
Wo soll denn die Effizienzsteigerung gegenüber Ada herkommen?
Durch massive Architekturanpassungen (anstelle von großen Nodensprüngen/viel besserer Fertigung), siehe bspw. Intel Lunar Lake, aber klar, einfacher und günstiger wäre es natürlich für nVidia massiv den Verbrauch zu erhöhen von Ada Lovelace auf Blackwell für mehr Leistung oder die Chips größer zu machen (was aber mehr kosten/Profite nicht maximieren würde).
 
Laphonso schrieb:
Dann bin ich gerne unvernünftig, weil Spielspaß für mich auch aus der grafischen Inszenierung und daraus folgenden Immersion entsteht und dabei meine "somoothness" Wohlfühlzone ab 80-90 min fps erst beginnt.
:)

P.S.: Und ja, ich bin selbstgewähltes Ultrasettings "Opfer" ;-) Aber alle Slider auf Anschlag ist eben meine Präferenz.
Selber Schuld. Ich mag es zwar auch lieber mit mindestens 90 fps zu spielen, aber bei 60 fps Titel vergesse ich das Ruckeln dennoch nach Minuten und habe Spaß dran.
Immersion ist mir auch wichtig, spiele oft im abgedunkeltem oder dunklen Raum auf dem 42 Toll OLED in 40 cm Entfernung mit Kopfhörern und bin mitten im Spiel. Und klar liebe ich tolle Grafiken mit 4k Texturen, Raytracing und Co, so realistisch wie möglich!
Habe aber genauso viel Spielspaß mit N64 & GameCube Spielen/Mods, Indietitlen, SNES Mods, Portal 2 Community Level seit über 10 Jahren oder andere Source Engine Mods ohne Hi Res Texturen Raytracing und Co.
Und bei Freunden habe ich zu dritt oder viert auch am 1080p Fernseher in 2 Meter Entfernung bei Mario Party, Mario Kart und Co ebenfalls meinen Spielspaß, ja gar manches Male holen wir noch die PS3 raus und Spielen paar tolle Spiele mit 30 fps ohne Antialiasing. Das alles vergesse ich nach 10 Minuten ebenfalls und habe dann Freue dran!
 
  • Gefällt mir
Reaktionen: thom_cat
iGameKudan schrieb:
Dann könnt ihr euch halt keine RTX xx80/RTX xx90 holen, sondern nur ne RTX xx70 oder so.
Alternativ ginge wohl noch untervolten, wenn das Geld dafür locker sitzt und man Effizienz haben möchte und trotzdem mehr als nVidia (RTX 50)70er Klasse Leistung.
 
Sas87 schrieb:
Wir brauchen mehr Leistung, und nicht mehr Stromverbrauch.
Es wundert mich, dass die Politik da nicht mal aktiv wird. Jedes Jahr 20% mehr Stromverbrauch. lol
Das ist eine Milchmädchenrechnung.

Effizienz ergibt sich aus gesteigerter Performance pro Watt. Die Karte kann auch 10000 Watt ziehen, wenn sie entsprechend mehr Leistung bietet, ist sie schlichtweg effizienter als Karten, die weniger Leistung pro Watt liefern. Der Kunde ist es, der sich fragen muss, ob er diese Leistung überhaupt braucht/abrufen kann. Wenn ich mir eine 5090 kaufe und sie dann mit Tetris auslaste (16k pathtracing Unreal Engine 12-Tetris natürlich 😜 ), dann bin ich doch der Bekloppte und nicht NVIDIA.
 
  • Gefällt mir
Reaktionen: R3DN4X und ThomasK_7
fireblade_xx schrieb:
Der reine Verbrauch interessiert mich (mit zunehmendem Alter) immer weniger - läuft nicht mehr oft. Was aber wirklich problematisch ist, ist die Abwärme in einem Neubau. Mein bisheriges System ist auch kein Stromsparwunder, läuft aber komplett UV mit 300-350 Watt bei Spielelast und das reicht für ein 12qm Zimmer (KfW40) aus um es in 2-3h um 4-5 Grad aufzuheizen. Das ist im Winter ja ganz lustig, aber selbst da muss man dauernd die Temperaturen nachregulieren...
Ja das scheint hier allen egal zu sein. Und wenn hier Karten mit 500-700w kommen ist das nochmal eine andere Hausnummer. Das ist auch das Problem was ich sehe. Ich Zocke auch nur noch selten und selbst dann sind das maximal 2-3 Stunden am Stück. Aber selbst bei meiner Konfig wie in der Signatur zu sehen. Wird es im Winter etwas kuscheliger im Zimmer und im Sommer wird es dann schon ziemlich heiß.
 
Waelder schrieb:
leider haben die Grünen wie jede andere Firma nichts zu verschenken, wenn es sich bewahrheitet, das AMD bei der nächsten Generation keine High End Modelle auf den Markt wirft, hat nvidia quasi Narrenfreiheit beim Preis
Ich bin so naiv und glaube, dass sie wegen der Konkurrenzlosigkeit den Apple Weg gehen und über "gute" Preise versuchen werden, die Leute zum Austausch ihrer alten Karten zu bewegen. Was nach den letzten Jahren natürlich trotzdem nicht "günstig" im herkömmlichen Sinne bedeutet.
 
n0g3l schrieb:
Bei RTX40 gab es doch vor Marktstart auch schon Gerüchte über 500w und mehr.
Als sie dann raus kam, waren alle entspannt, weil es "nur" 450 bei der 4090 sind.
Wird hier ähnlich sein. Erst mal wilde zahlen raushauen, am Ende sind es "nur" 520 oder so
und mit frame limiter sind es dann wieder knapp 300W oder drunter (je nach Spiel)
Dann noch etwas Undervolting und schon liegt man wieder zwischen 150W und 250W
 
  • Gefällt mir
Reaktionen: Rensch
Solange man die Karten wieder gut undervolten kann, ist mir die TDP fast egal.
 
  • Gefällt mir
Reaktionen: Rensch
Zurück
Oben