News RTX 5090 & 5080: Gerücht nennt 600 Watt und 32 GB GDDR7 für das Topmodell

Also, bei 400 und 600 Watt bin ich raus.
Das ist 1x mein ganzer Rechner unter Volllast, und 1x 200 Watt mehr. 🥴

1727380799953.png


Wenn die 5080 mit 256 Bit kommt, und die 5070 wieder so ein 12GB 192 Bit Krüppel wird, dann ist letztere genau so unattraktiv wie das bisher kolportierte Portfolio.
 
  • Gefällt mir
Reaktionen: Jagdwurst, JackA, Three of Nine und 29 andere
Also mehr als 300 Watt würde ich für die vermutlich dann erscheinende 5070Ti nicht haben wollen
 
  • Gefällt mir
Reaktionen: lynx007
Also wird meine 4080 Super noch sehr lange im PC bleiben. 🥰
 
  • Gefällt mir
Reaktionen: DagdaMor und w33werner
Das einzige was an dieser News viel schlimmer ist, dass es möglicherweise einfach keinen gegen Konkurrent geben könnte.

Wenn es AMD nicht mal versuchen wird, wird das unser Untergang werden 😭
 
  • Gefällt mir
Reaktionen: n0dau42, TheHille, Zockmock und 2 andere
mibbio schrieb:
Also 600W finde ich schon grenzwertig. Weniger wegen Abwärme/Kühlung oder Stromkosten, sondern aufgrund des 12VHWR bzw. 12V-2x6 Steckers. Denn 600W lasten a) dessen Spezifikation dann komplett aus und b) ist der mit recht wenig Sicherheitsmarge entworfen.

Ich persönlich würde mir wünschen, wenn sich die Hersteller auf eine sinnvolle TDP beschränkten. Sagen wir mal maximal 300w.

Und trotzdem hab ich kein Problem damit, wenn NVIDIA solche Karten auf den Markt bringt. Muss ja niemand kaufen. Oder man schränkt die TDP ein, undervolted etc.

Von daher darf NVIDIA gerne solch ein Modell anbieten. Ich bin dann halt nicht die Zielgruppe.
 
  • Gefällt mir
Reaktionen: DagdaMor, RainbowSix5, el_zoido und 4 andere
600 watt wahnsinn. da kannst beim strom zahlen stündlich draufshcauen wie der ansteigt. ein spiele tag kostet mehrer euro nur an strom lmao der ganze pc dann 1200 watt wenn es auch noch eine intel cpu sein soll. unfassbar
Ergänzung ()

jps20 schrieb:
Das einzige was an dieser News viel schlimmer ist, dass es möglicherweise einfach keinen gegen Konkurrent geben könnte.
warums schockt dich das nvidia hatte bis auf rdna 2 seit zig jahren null konkurrenz da oben. 🤷‍♀️
 
  • Gefällt mir
Reaktionen: DagdaMor, Rockstar85, Nefcairon und 3 andere
Kein (richtiger) Node-Shrink, +33% Shader, 512-bit SI. Auf der anderen Seite nur effizienteren Ram und ggf. Architektur...

Da kann die sicher mehr verbrauchen als eine 4090er, sofern man +25% Rohleistung als erwartbar ansetzt, auch wenn ich eher 500W Spitzenverbrauch annehmen würde.

Außer Jensen hat jede Menge Secret Sauce drübergekippt.
 
  • Gefällt mir
Reaktionen: DarkHazard, Kitsune-Senpai, 9t3ndo und 2 andere
Genauso wie die Redaktion bezweifle ich die 600W, hat ja bei der 4090 auch nicht gestimmt, sondern waren 450, aber selbst bei 350 hatte man nahezu keinen Verlust, ist nur wieder Übertreibung bei den Gerüchten.
 
  • Gefällt mir
Reaktionen: DarkHazard, Zockmock, 9t3ndo und 3 andere
jps20 schrieb:
Wenn es AMD nicht mal versuchen wird, wird das unser Untergang werden 😭
Das ist doch so gut wie sicher, oder? Bereits jetzt ist die 7900XTX ja eher mit der 4080 vergleichbar. Wenn ich mich richtig erinnere, soll die Next-Gen. sogar laut Gerüchten nur bis in die 7900XT-Klasse (also 4070ti) gehen ... Da kann NV dann darüber natürlich machen, was sie lustig sind.
 
Was viele mal wieder vergessen: Das ist nur der "dropout" der neuen GPU-Generation. Die werden entwickelt für KI und Supercomputer in Rechenzentren. Und für die Suchtis wird das dann als Gaming-Grafikkarte ausgekoppelt.
 
  • Gefällt mir
Reaktionen: Gee858eeG und Newbie_9000
  • Gefällt mir
Reaktionen: coxon
Ich könnte mir auch vorstellen, dass die RTX 5090 trotzdem "nur" mit 448 bit kommen wird, und die vollen 512 bit exklusiv bei einer RTX Titan Ada zum Einsatz kommen werden. Aber zum jetzigen Zeitpunkt ist das alles ja nur Spekulation. Bezüglich der Leistungsaufnahme hoffe ich, dass man die 450 Watt nicht überschreiten wird!

@Jan
An einem 256-Bit-Interface sollen 16 GB GDDR7 angebunden sein, die TDP bei 400 Watt liegen. Das wäre ein Aufschlag von 130 Watt oder 41 Prozent gegenüber der GeForce RTX 4080 (Super).
Aber die RTX 4080 (SUPER) hat doch 320 Watt TDP? 400 Watt wären also "nur" 80 Watt bzw. 25 Prozent mehr. Ich nehme an, du hast kurz an 450 statt 400 Watt gedacht? ;)
 
  • Gefällt mir
Reaktionen: Jan
Rickmer schrieb:
Nö, zuletzt hieß es noch, dass die 5090 nur 28GB VRAM bekommt.
Habe das Posting angepasst, damit klar wird, dass es ein Hin- und Hertingeln war. Auch bzgl. GB203 ist ein zersägter GB202 vs kein zersägter GB202 fiel das ja bereits auf.
 
Da muss man ja bald drauf achten, dass am Stromkreis des Rechners nichts anderes mehr mit dranhängt...
 
  • Gefällt mir
Reaktionen: el_zoido und Mika46
War das nicht so, dass die Lovelace Generation ursprünglich für 600W 4090 und 450W 4080 konzipiert wurde? Das war ja angeblich, weil man den ziemlich ineffizienten Samsung Prozess weiterhin benutzen wollte wie in der Ampere Generation, was ja anscheinend auch ein Grund für die überdimensionierten Luftkühler war, die angeblich auch bereits in Massen produziert wurden bevor man dann doch auf TSMC geswitched ist. Und dann hatte man gigantische 600W taugliche Luftkühler für eine 320W 4080, bei denen Leute Probleme hatten/haben, die in ihr Gehäuse zu stecken, vor allem mit dem Standard Nvidia Adapter, wo man ja auch noch Platz zum Biegen des Kabels braucht, weshalb ja das Adaptergeschäft für die Kabel an Boomen ist.
Schade eigentlich, dass Nvidia nicht bei Samsung geblieben ist, die Ampere Preise waren um einiges attraktiver durch den günstigen Samsung Chip.
Ich persönlich denke das beste Upgrade der 5000er Generation ist die gebrauchte 4090 der 5090 Kunden hoffentlich relativ günstig abzukaufen.
 
  • Gefällt mir
Reaktionen: windeskælte und Viper816
Das sind alles Gerüchte und 600 Watt. Also ich würde sagen der Leaker hat erfolgreich einen Clickbait verbreitet um die wahren Spezifikationen zu verschleiern.

Leute, nehmt Gerüchte und „Leaks“ nicht so ernst bevor es nichts offizielles gibt. Euer Blutdruck wirds euch danken.
 
  • Gefällt mir
Reaktionen: Oudenstekelig, Flaschensammler, Fighter1993 und 2 andere
Marcel55 schrieb:
Glaubst du wirklich an 600W Dauerleistung?
Ja, wirklich.

Beim Node ist kaum was zu holen, da kann nvidia wenig machen. Daher -> +33% Shader und +33% Speicherbandbreite -> +33% Power ist naheliegend.

Das könnte man natürlich kompensieren wenn nvidia mit dem Takt etwas runter geht, aber dann wäre das Upgrade von 4090 auf 5090 extrem enttäuschend. Nvidia muss auch mit dem Takt hoch, vermutlich auf über 3GHz.

Da die 4090 in anspruchsvollen Titeln ihre 450W auch zieht sehe ich nicht, wie nvidia die 600W vermeiden kann bei der 5090.

ApexPred4tor schrieb:
Schade eigentlich, dass Nvidia nicht bei Samsung geblieben ist, die Ampere Preise waren um einiges attraktiver durch den günstigen Samsung Chip.
Bei Samsung hätte das keine +40% Takt bei niedrigerer Leistungsaufnahme gegeben. Da zahle ich lieber ein paar Euro mehr für die bessere Fertigung.
 
  • Gefällt mir
Reaktionen: DarkHazard, stevefrogs, 9t3ndo und 2 andere
Naja, aber es führt kein Weg an VRAM vorbei. Um jedes GB bin ich froh, wenn die 5090 dann auf 32GB aufgestockt wird, sehr sehr gerne.

Gaming einerseits, aber für KI lokal (FLUX1.dev mit ComfyUI & Forge) und Davinci Resolve Studio da ist jedes GB herzlich willkommen.
 
  • Gefällt mir
Reaktionen: Solavidos, el_zoido, Raidiri und 3 andere
Zurück
Oben