News Gerüchte zu GeForce RTX 50: RTX 5090 mit 600 Watt und RTX 5080 50 Prozent schneller

meine Schmerzgrenez sind 300 W

höher werd ich nie gehen
 
  • Gefällt mir
Reaktionen: Flunkiii, Kitsune-Senpai, Michael vdMaas und 6 andere
Bis zu den 3.6kW, die so eine Haushaltssteckdose verträgt, ist ja noch Luft....
 
  • Gefällt mir
Reaktionen: Independent, Kitsune-Senpai, Winston90 und 14 andere
Sofern die ursprünglichen Gerüchte stimmen, dass der GB103 ein zersägter GB102-Chip ist und der GB102 wiederum ein 512bit-Interface füttert sowie das RecticleLimit* ziemlich ausnutzt, dann klingt das mit den 600W gar nicht so vollkommen abwegig. Also abwegig in Bezug auf den Realismusgrad der News. Dass die PowerTargets, die OutOfTheBox genutzt werden absurd sind, benötigt mittlerweile eigentlich (kaum) noch einer Darstellung. Aber Nvidia möchte halt lieber die letzten Prozent Performance aus dem Silizium pressen als OutOfTheBox einen guten Auftritt hinzulegen.

*Wieso ist das wichtig? Weil es immer auch auf die Dichte der Leistungsaufnahme ankommt. Wenn die Chipfläche um ein Drittel wächst, dann kann auch das PowerTarget um ein Drittel wachsen und der Chip bleibt unterm Strich ähnlich gut kühlbar.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, AJsw0, daVinci und eine weitere Person
Lässt mich im Moment echt ziemlich kalt. Ich komm mit meiner 2080 immer noch zurecht. Vielleicht ergibt sich durch die 50x0 Generation dann mal die Möglichkeit für "ne schmale Mark" (:lol:) ein sinnvolles Upgrade (z.B. ne 4080s oder sowas) zu bekommen.

Das Einzige, wo ich dann doch neugierig werde - wie sieht's mit der Stromzufuhr aus? der 12VHPWR - oder wie auch immer man den jetzt korrekt abkürzt - war ja hier und da "auffällig".
Ganz grundsätzlich ist mir persönlich der Stromverbrauch aber erst mal völlig egal. Hat bei mir eh nur recht wenig Betriebszeit unter Last im Jahr und wenn, kommt's überwiegend von der PV-Anlage. (Wenn nicht grad tiefster Winter)

@Elderian
Frag mal die Ami's. Da ist glaube bei 2,4kW Anschlussleistung pro Steckdose (120V*20A) schluss.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
Jetzt is es dann soweit. Da kannst eine eigene Leitung aus dem Hauptanschlusskasten legen für den GamingRechner. :evillol::evillol::evillol:
 
  • Gefällt mir
Reaktionen: Veitograf
Beste Aussichten eine 4090 zu einem guten Gebrauchtpreis ergattern zu können.
 
  • Gefällt mir
Reaktionen: cllN, DaBa und Bert
600 Watt … wie viele Grafikkarten werden wohl zurückgeschickt weil sie massives Spulenfiepen aufweisen ^^

Umso mehr elektrische Leistung man in die Bauteile jagt umso höher natürlich die Resonanz - mal schauen ob es sich bewahrheitet.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Ghost_Rider_R, Bänki0815 und 2 andere
Der Teletobi schrieb:
Irgendwie hieß es doch auch bei der 4000er Generation das sie 600W ziehen soll....und dann kam es anders
Und genau da is die Kirsche auf der Sahne bei der 4090. Die Kühler wurden für 600W ausgelegt und mussten dann "nur" 450W max. wegschaufeln. Das geht dann schön leise. Wenn ich meine Karte im Bench auf 500W hochdrücke und dann abwarte, was die Lüfter machen, dann wird das echt schon laut.
Ich hoffe, dass die Kühler der neuen Generation dann auch wieder ähnlich laut sein werden. Aber abwarten und Tee trinken :-)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Der Teletobi
DrPinguin schrieb:
Bei durchschnittlich 3h am Tag zocken wären das im Jahr 184€ nur für den Strom der GPU. Also 15€ im Monat, was kostet noch gleich Cloudgaming?
Die restlichen Teile im Rechner benötigen ebenfalls Strom. Dann wären da noch die Anschaffungskosten.
Von der P/L her ist Cloudgaming gar nicht so teuer.
nebukadnezar.ll schrieb:
Vielleicht sollte jemand NVIGAGA mal stecken, dass wir effizientere Karten wollen und keine 500 Watt Toaster im Rechner.
Wer ist "wir"? Dir sollte auch bewusst sein dass die Leistungsaufnahme alleine nichts über die Effizienz aussagt.
 
  • Gefällt mir
Reaktionen: stevefrogs
Aber ich finds echt krass wie nVidia performt, wenn die Gerüchte stimmen. nVidia ist aktuell die einzige Firma, die einfach konstant immer signifikant bessere Produkte abliefert.

Gut, vom Stromverbrauch und den aufgerufenen Preisen mal abgesehen. Aber bei der aktuellen Generation hat man ja auch gesehen, dass man durch UV einiges bewirken kann.

Dann schiele ich auf die AMD-GPUs und sehe (möglicherweise) eine Nullrunde für die nächste Generation... Intel braucht auch noch ne Zeit um sich zu erholen und AMDs CPU-Markt bedient immer noch fast drei Generationen parallel, im Mobilmarkt sieht man sie auch nicht so oft...

Schräge Zeiten. Erinnert mich etwas an die Core i-Zeit zwischen 4.Gen und 9.Gen... nur dass irgendwie alle mitmachen (nVidia mal abgesehen...)
 
  • Gefällt mir
Reaktionen: Grestorn
Na wenn die 7990xtx <1000€ kostet werde ich wohl meine 6900xt ultimate in den ZweitPC stecken.
 
Rukizz schrieb:
jetzt hier im Sommer bin ich froh, dass mein PC abends "nur" 300w zieht.
Auf jeden Fall. Ich hab gestern auch ne Stunde gespielt und da lief die Karte bei 200-330W, je nach Szenario. Da wurde es auch schon merklich wärmer unter dem Schreibtisch.
 
Ja, ja...
Jetzt über den (angeblichen) Stromverbrauch meckern und dann ein 1000W-BIOS auf die Karte flashen...😜
 
  • Gefällt mir
Reaktionen: 9t3ndo, Enyo79 und the_IT_Guy
Myki schrieb:
Man muss als Familienvater ja auch mal die Vorteile genießen, dass man keine Zeit hat. So spart man sich teure Anschaffungen und den daran hängenden Rattenschwanz an Kosten. Das ist einfach nur noch krank, was die Teile verbrauchen und was sie in der Anschaffung kosten. Ich weiß, Fortschritt und so.
Mhm, traurig aber wahr. Als Nicht(mehr)Zocker aus denselben Gründen geht es mir ganz ähnlich. Ich verfolge zwar regelmäßig die Entwicklung und hoffe auf Besserung, aber gut kann ich das auch nicht heißen.
 
Das Bild im Artikel ist cool.

Wir brauchen mehr Leistung, und nicht mehr Stromverbrauch.
Es wundert mich, dass die Politik da nicht mal aktiv wird. Jedes Jahr 20% mehr Stromverbrauch. lol
 
Ich mag diese Gerüchte nicht, gab es sowas 2004 auch?

Auch solche angaben ohne preis sind wertlos. NVIDIA X70er sind in meinem Kopf immer noch die 300€ Grafikkarten.
Anhand des Namen kann ich einfach kein Preis Segment mehr erkennen, nur höher und höher..
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai und TheHille
großartig! dann werden die miner ihren CO2 Ausstoß verdoppeln können bei gleicher Fläche
 
Elderian schrieb:
Bis zu den 3.6kW, die so eine Haushaltssteckdose verträgt, ist ja noch Luft....
Inzwischen wird idR. ein 3x1,5 aber nur noch mit 13A abgesichert, das sind dann also nur noch 2.990 Watt. 😅
 
  • Gefällt mir
Reaktionen: 9t3ndo
n0g3l schrieb:
Bei RTX40 gab es doch vor Marktstart auch schon Gerüchte über 500w und mehr.
Als sie dann raus kam, waren alle entspannt, weil es "nur" 450 bei der 4090 sind.
Wobei man sagen muss, dass die 4090 im Alltag sogar deutlich weniger zieht und trotz dass sie so ein Monster ist, auch mit eine der effizientesten Karten aktuell.
Die damalige Diskussion führte aber daher, dass sie 600W gebraucht hätte, wäre der Chip bei Samsung (wie bei den 3000ern) gefertigt worden, statt bei tSMC
 
  • Gefällt mir
Reaktionen: Coeckchen, Grestorn, stevefrogs und 4 andere
Zurück
Oben