News Gerüchte zu GeForce RTX 50: RTX 5090 mit 600 Watt und RTX 5080 50 Prozent schneller

Früher gabs eben quad SLI Gespanne für Leute mit zu viel Geld und kalten Füßen.

Alle anderen können ja weiterhin kleinere Karten kaufen.
 
Laphonso schrieb:
Und so wie ich werden hier und anderswo vieeeele viele andere die 5090 "trotzdem" kaufen 🤷‍♂️
Sofern die Performance stimmt :D
Die hat für mich persönlich Prio 1 bei einer GPU.
OMG.
Damit man beim benchen den Längsten hat 😂.
Arme Seelen 😢
 
Eine undervoltete 5080 (auf ca. 300W) wäre ein super Nachfolger für meine 3080ti.

Ich bin gespannt was am Ende wirklich kommt.
 
S.Kara schrieb:
Was jucken mich die Watt wenn die Effizienz stimmt.

Die 5080 scheint mir aber auch ganz nett wenn es denn so stimmt. Da könnte ich schwach werden.
Hoffentlich mit mehr als 16GB. Alles andere wäre bei geschätzt ~1.500€ ein Armutszeugnis.
 
Ich überspringe auch die 5000er Serie.
Oder nehme höchstens Refresh.
 
Solus schrieb:
Wieviel an Stromkosten im Schnitt kostet dann eigentlich so eine RTX 5090, wenn man sie eine Stunde laufen lässt?
Das kann man ganz einfach errechnen: Je nachdem wieviel du bei deinem Stromanbieter zahlst, gehen wir mal von 30 ct/kWh aus (derzeit in D recht üblich), kommst du bei 600 Watt auf 0,6 kWh, ergo 18 Cent pro Stunde.

Daher ist das Gelaber von wegen "Strompreis" bei Grakas ziemlicher Quatsch, weil die Kosten dafür nur minimal sind verglichen mit den vierstelligen Preisen solcher Hochleistungs-Grakas.
 
Soviel Text über einen Tweet und auch so "absurd" sich so viel Gedanken über ein Gerücht (ungelegte Eier) zu machen, darin liegt die einzige und eigentliche Energieverschwendung hier 😉

Ich warte einfach, bis die Karte da ist. Dann schaue ich, was die Karte in dem Lastbereich verbraucht, in dem ich sie meistens nutze. Und dann entscheide ich für mich, ob das akzeptabel ist. *

Keine Ahnung wer 24/7 auf seinem System Benchmarks laufen lässt, aber in meinem Fall langweilt sich die CPU und GPU eigentlich die meiste Zeit. Selbst beim "Gamen" verbraucht meine 4090 weniger als meine 3090 zuvor und weniger als meine dual 2080 Ti NVLink Gespannt davor. Durch Framelimits kommt sie selten ans Leistungslimit und ist somit sogar ziemlich sparsam** 😀

* Gekauft wird sie eh, weil ich damit Geld verdiene und da ist nunmal jede gesparte Minute = mehr Geld.

** Bei einer Runde League of Legends in UWQHD in 140 FPS verbaucht die Karte ganze 12 Watt mehr als auf dem Desktop. COD MWIII 120 Watt mehr als auf dem Desktop, WuKong 270 Watt etc pp
 
Zuletzt bearbeitet:
j-d-s schrieb:
Das kann man ganz einfach errechnen: Je nachdem wieviel du bei deinem Stromanbieter zahlst, gehen wir mal von 30 ct/kWh aus (derzeit in D recht üblich), kommst du bei 600 Watt auf 0,6 kWh, ergo 18 Cent pro Stunde.

Nur dass die Karte eben real niemals 600 Watt verbrauchen wird, außer du meinst, auf deinem 240Hz Monitor unbedingt 600 Frames haben zu müssen. Mit DLSS und Co kommst du selbst in anspruchsvollen Spielen nicht ans Limit und Solo Spiele musst du nicht bei 4K in kompetitiven 600 FPS spielen.

Anstatt wild um sich zu flamen, sollte man die Testberichte lesen oder die Erfahrungsberichte von Nutzern herbeiziehen.

Im Schnitt scheinen die 4080/90 Nutzer alle Limits zu nutzen und verbauchen damit weniger, als Leute, die mit kleineren Karten den letzten Frame aus ihrer Hardware kitzeln wollen/müssen.

PS Wie oben geschrieben, verbaucht meine 4090 beim League of Legends Spielen weniger, als die Mobile GPU bei einem Kumpel und das bei weit besseren Settings und das System bleibt flüsterleise, weil nicht mal der Lüfter anspringt 👍
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: piccolo85
Robo32 schrieb:
Wenn die Chipfläche mitwächst (was der Fall sein wird), dann ist die Übertragung an den Kühler zwar kein Problem, loswerden muss man die Wärme am Ende jedoch trotzdem und da gibt es real nur zwei Möglichkeiten abseits einer Flüssigkeitskühlung
  • mehr Fläche (die Kühler sind inzwischen ja so klein^^)
  • höhere Lüfterdrehzahl
Ja, die Luft muss natürlich trotzdem raus. Daran ändert sich nichts.
Das mit der Dichte der Wärme ist halt nur die Erklärung dafür, wieso z.B. Turing so supersimpel zu kühlen war.
 
Wäre halt schön wenn man den Murks auch irgendwann kaufen könnte
Warte die ganze Zeit auf die x870 den 9800x3d und die 5090 ti aber da werde ich wohl noch lange warten müssen

Der oled Moni ist schon da aber verstaubt so langsam
 
die 5090 hat nur eine Marktberechtigung: Preissenkungen der Vorgänger.
 
Bin raus. Gibt eh nur noch scheiß Spiele.
 
  • Gefällt mir
Reaktionen: Blood011, Nekkepenn und sucuk_mit_eii
Nachrichten über die Ferrari-Klasse ... finde ich mal wieder schade. Von einem kritischen Magazin hätte ich einen kritischen Satz darüber erwartet, dass es nicht gut ist, dass evtl am Anfang nur Ferrari und S-Sklasse veröffentlich werden, während über 90% der Kunden aber halt auf Golf und Co warten. Zumal es eine Einstiegsklasse irgendwie gar nicht mehr richtig gibt.

Ist auch nicht so, dass ich irgendwas dagegen hätte wenn ein paar Prozent der Gamer eben diese HighEnd-Klasse kaufen.
Aber es ist und bleibt eine kleine Minderheit. Sich darüber ab und zu mal gewahr werden, könnte nicht schaden und dann einen Satz über die 90% des Marktes zu verlieren ... wär nicht völlig unangebracht.
Inhaltlich ist sowieso wurscht wie viel Sprit der neue Ferrari nun verballert oder wie viel Millisekunden er nur noch von 0 auf 100 braucht.
 
joel schrieb:
Wie man sieht braucht man eine 5090 für die aktuellen Spiele.

icezolation schrieb:
Du unterschätzt den Trend zur nicht-Optimierung bei den AAA Spielen massiv.

Weltraumeule schrieb:
in 2-2,5 Jahren sollten sich die Preise für 5070 und 5080 eingependelt haben für neuen Ratenkauf.

Wer meint, immer die neuesten Spiele mit extrem teuren Grafikeffekten in höchsten Auflösungen und Bildwiederholraten spielen zu müssen, kauft sich das halt mit seinem (oder geliehenem) Geld. Aber ich denke es ist in jeder Hinsicht ein schlechter Deal und ein extremes Beispiel für sinkenden Grenzertrag.

Neue, teure, unoptimierte, fehlerhafte, unvollständige Spiele mit unausgereiften Effekten auf neuer Hardware mit mäßigen Treibern zu benchen (ich meine natürlich: spielen), dafür hohe Abschreibungen, Betriebskosten, Umweltkosten (für sich und andere) in Kauf zu nehmen; obwohl mit 35% des Mitteleinsatzes 98% des Spielspaßes erreicht werden können. Da kann man natürlich "Hobby" oder "Enthusiasmus" drüber schreiben, aber es bleibt ziemlich irrational.

Aber gönnt euch und trotz allem ein herzliches Danke, dass ihr für mich die Kinderkrankheiten wegtestet.

Marmormacker schrieb:
weiß schon jetzt nicht was spielen um sie wirklich zu "brauchen"

digitalangel18 schrieb:
gut Zocken war noch nie so billig zu haben wie heute
 
FreedomOfSpeech schrieb:
Durch die erneuerbaren Energien braucht man kein schlechtes Gewissen zu haben und die Kosten sinken und sinken und sinken.
Wie kommst Du da drauf!?
 
Spawn182 schrieb:
** Bei einer Runde League of Legends in UWQHD in 140 FPS verbaucht die Karte ganze 12 Watt mehr als auf dem Desktop. COD MWIII 120 Watt mehr als auf dem Desktop, WuKong 270 Watt etc pp
Das finde ich auch immer beeindruckend, dass man bei z.b. league nur so 30watt verbrauch hat :D .
Die 600w die hier beschrieben werden sind sicher nur was für Benchmarks. Die 4090 habe ich nur in 3DMark am Watt-Maximum gesehen, selbst bei StarWars Outlaws oder Cyberpunk bleibt die unter 350W (undervolted)
 
  • Gefällt mir
Reaktionen: Spawn182
Zurück
Oben