News RTX 5090 & 5080: Gerücht nennt 600 Watt und 32 GB GDDR7 für das Topmodell

Reden wir jetzt von dem GPU Chip oder dem RAM? Letztes kann ich mir nicht vorstellen wenn GDDR7 komplett neu ist? Aber he, ich gebe mich auch mit um die 2k zufrieden. 😬

Mal abwarten, die 4090 hat noch genug Dampf unter der Haube. 😁
 
Puh, ob ich mit meinen 2499€ für ne 5090 jetz noch hin komm?
Ergänzung ()

RogueSix schrieb:
Muss nicht sein. Die Fertigung dürfte mittlerweile relativ günstig sein. Die 5nm Node ist inzwischen sehr "mature" mit Top-Yields.
Das spielt doch bei der Preisgestaltung schon lange keine Rolle mehr.
 
Top Nachricht, 32GB sind zwar nicht 48, aber Flux und LLms werden sich freuen. Was die Karte an Watt zieht, kann jeder selbst fuer sich entscheiden, dass ist nicht in Stein gemeißelt.
Find es es aber bedenklich, dass die 5080 mit 16GB auskommen soll, da wird man dann zum groeßten Model "gezwungen".
 
Wie im anderen Thread schon angemerkt: Energieaufnahme +33% (5090) bzw. +25% (5080) im Vergleich zum Vorgänger wäre schon ein ziemlicher Sprung. Und wenn die 5080 wirklich als "halbe 5090" und mit 16GB VRAM kommt, frag' ich mich schon ein bisschen, wer das Ding kaufen soll.
 
Ich kann mir auch schwer vorstellen das nochmals dieser Sprung von der 3000 zur 4000er Serie was Verbrauch und Kühlung betrifft nochmal so schnell kommt, haben ja schon damals von Samsung auf TSMC gewechselt, mehr geht da nicht, kochen ja auch nur mit Wasser. 😌
 
RogueSix schrieb:
Muss nicht sein. Die Fertigung dürfte mittlerweile relativ günstig sein. Die 5nm Node ist inzwischen sehr "mature" mit Top-Yields.
Lol

Die Preise werden nur teurer und noch teurer:
https://finance.yahoo.com/news/tsmc-may-increase-wafer-pricing-104033184.html?guccounter=1

TSMC hat mehrfach die Preise erhöht - die News gabs auch u.A. bei ComputerBase zu lesen. Die Yield sind vielleicht besser, aber der Preis pro funktionalem Chip ist nicht runter gegangen.

2020 wurden $17.000 für einen 5nm Wafer genannt.
In diesem Artikel von 2024 wurden jetzt $18.000 genannt mit Annahme, dass der Preis nächstes Jahr auf $20.000 steigen wird.


Und da selbst bei perfekten Yields bestenfalls ca. 90 AD102 Dies auf einen Wafer passen?...
1727385491157.png


bzw. auch habe ich schlechte Nachrichten bezüglich der Yields:

1727385776016.png
Grademal die Hälfte der Dies ist unbeschädigt. Klar, viele der Defekte kann man ignorieren weil irgendein Shader kaputt ist, der einfach deaktiviert werden kann. Aber es wird auch so mancher Chip einen Defekt an einer Stelle haben, für die es keine Redundanz gibt.

Dass die Defekt-Dichte bei 0,1 oder knapp darunter liegt ist aus diesem Artikel bekannt:
https://www.anandtech.com/show/16028/better-yield-on-5nm-than-7nm-tsmc-update-on-defect-rates-for-n5
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Paddii
Warum sollte auch TSMC was verschenken? Die Kosten werden eh nach unten weitergegeben, sprich zu uns. Oder haben TSMC bzw. NV Konkurrenz im Genick sitzen, glaube nicht. 😬
 
"An einem 256-Bit-Interface sollen 16 GB GDDR7 angebunden sein, die TDP bei 400 Watt liegen. Das wäre ein Aufschlag von 130 Watt oder 41 Prozent gegenüber der GeForce RTX 4080 (Super)."

@Jan: Korrektur: Die 4080 (Super) hat eine TDP von 320W, daher wäre es ein Aufschlag von 80W oder 25%.
 
  • Gefällt mir
Reaktionen: schneeland und Jan
Gut MS lässt nen alten Reaktor wieder hochfahren für ihrer KI, ich kaufe mir weitere 10kw Speicher für meine PV Anlage. Dann kann die Karte gerne mehr Strom saufen. 😅
 
Gut möglich, dass man eine Karte für 2000 oder 2500€ sehen wird. Besonderer Knüller: Daran orientieren sich künftig die mies programmierten AA und AAA-Titel. 50 Frames zu Release, bei 400-500w Verbrauch der GPU.

Ich sehs in den Forenkommentaren schon wieder vor meinem geistigen Auge:
"Bei mir läufts ganz gut"

Hoffentlich liege ich falsch mit der Vermutung.
 
Amiga500 schrieb:
Also mehr als 300 Watt würde ich für die vermutlich dann erscheinende 5070Ti nicht haben wollen
Same. Es wir halt auch eifnach Laut. Und ich will keinen Staubsauger im PC haben....
 
  • Gefällt mir
Reaktionen: schneeland
Na toll, bei ner 5080 mit 16GB kann man ja gleich auf die 5080 Super/Ti/Super Ti mit mehr Speicher warten. Würde ja in die Verkaufsstrategie von NVIDIA passen. Erst den Leuten sagen, dass der VRAM ausreicht, um dann später ein teureres Modell mit mehr VRAM herauszubringen. 😄🥲
 
  • Gefällt mir
Reaktionen: schneeland, Cinquedea und Hatsune_Miku
Willst du mehr, dann zahle mehr. Irgendwie ekelhaft aber so ist das halt. 😅
 
  • Gefällt mir
Reaktionen: CruellaDE
Taxxor schrieb:
Vor Allem werden die kleineren Chips gleichzeitig noch kleiner oder bleiben gleich groß.
Man weis natürlich nicht welche Karte welchen Chip bekommt, aber es sieht ganz danach aus als könne man sich wieder drauf einstellen, nur bei 5090 und 5080 große Gewinne zu sehen.

Sind wir doch ehrlich...das ist die größte Gefahr für die nächste Generation.

Wenn nVidia erneut im Mainstream praktisch Mini-Schritte für viel Geld anpreisen möchte. Dann müssen wieder irgendwelche Feature-Locks dafür herhalten, dass Teil irgendwie an den Mann zu bringen.

Es war ja diese Generation schon extrem, dass zwischen einer 3060 Ti und ein 4060 Ti lediglich 7-8% Leistungsunterschied sind. Sind es dann nächste Generation zwischen 3060 Ti und 5060 Ti ganze 15% ?

Das ist in meinen Augen das größte Problem, denn so wird es einfach kaum Fortschritt geben.
 
Die Frage wird für jemanden wie mich sein ob es die 5070 oder 5070 Ti werden soll. Mein Ziel ist es die Blackwell-Karte zu kaufen die am besten zu einer FullHD-Auflösung passt.

Eine 4080 ist wie wir ja bekanntlich wissen too much für FullHD, eine 5080 wird es erst recht sein (außer sie ist nicht der Nachfolger der 4080 sondern eine 5080 Ti oder sowas).
 
Zurück
Oben