Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRTX 5090 & 5080: Gerücht nennt 600 Watt und 32 GB GDDR7 für das Topmodell
Reden wir jetzt von dem GPU Chip oder dem RAM? Letztes kann ich mir nicht vorstellen wenn GDDR7 komplett neu ist? Aber he, ich gebe mich auch mit um die 2k zufrieden. 😬
Mal abwarten, die 4090 hat noch genug Dampf unter der Haube. 😁
Top Nachricht, 32GB sind zwar nicht 48, aber Flux und LLms werden sich freuen. Was die Karte an Watt zieht, kann jeder selbst fuer sich entscheiden, dass ist nicht in Stein gemeißelt.
Find es es aber bedenklich, dass die 5080 mit 16GB auskommen soll, da wird man dann zum groeßten Model "gezwungen".
Wie im anderen Thread schon angemerkt: Energieaufnahme +33% (5090) bzw. +25% (5080) im Vergleich zum Vorgänger wäre schon ein ziemlicher Sprung. Und wenn die 5080 wirklich als "halbe 5090" und mit 16GB VRAM kommt, frag' ich mich schon ein bisschen, wer das Ding kaufen soll.
Ich kann mir auch schwer vorstellen das nochmals dieser Sprung von der 3000 zur 4000er Serie was Verbrauch und Kühlung betrifft nochmal so schnell kommt, haben ja schon damals von Samsung auf TSMC gewechselt, mehr geht da nicht, kochen ja auch nur mit Wasser. 😌
TSMC hat mehrfach die Preise erhöht - die News gabs auch u.A. bei ComputerBase zu lesen. Die Yield sind vielleicht besser, aber der Preis pro funktionalem Chip ist nicht runter gegangen.
2020 wurden $17.000 für einen 5nm Wafer genannt.
In diesem Artikel von 2024 wurden jetzt $18.000 genannt mit Annahme, dass der Preis nächstes Jahr auf $20.000 steigen wird.
Und da selbst bei perfekten Yields bestenfalls ca. 90 AD102 Dies auf einen Wafer passen?...
bzw. auch habe ich schlechte Nachrichten bezüglich der Yields:
Grademal die Hälfte der Dies ist unbeschädigt. Klar, viele der Defekte kann man ignorieren weil irgendein Shader kaputt ist, der einfach deaktiviert werden kann. Aber es wird auch so mancher Chip einen Defekt an einer Stelle haben, für die es keine Redundanz gibt.
Warum sollte auch TSMC was verschenken? Die Kosten werden eh nach unten weitergegeben, sprich zu uns. Oder haben TSMC bzw. NV Konkurrenz im Genick sitzen, glaube nicht. 😬
"An einem 256-Bit-Interface sollen 16 GB GDDR7 angebunden sein, die TDP bei 400 Watt liegen. Das wäre ein Aufschlag von 130 Watt oder 41 Prozent gegenüber der GeForce RTX 4080 (Super)."
@Jan: Korrektur: Die 4080 (Super) hat eine TDP von 320W, daher wäre es ein Aufschlag von 80W oder 25%.
Gut MS lässt nen alten Reaktor wieder hochfahren für ihrer KI, ich kaufe mir weitere 10kw Speicher für meine PV Anlage. Dann kann die Karte gerne mehr Strom saufen. 😅
Gut möglich, dass man eine Karte für 2000 oder 2500€ sehen wird. Besonderer Knüller: Daran orientieren sich künftig die mies programmierten AA und AAA-Titel. 50 Frames zu Release, bei 400-500w Verbrauch der GPU.
Ich sehs in den Forenkommentaren schon wieder vor meinem geistigen Auge: "Bei mir läufts ganz gut"
Na toll, bei ner 5080 mit 16GB kann man ja gleich auf die 5080 Super/Ti/Super Ti mit mehr Speicher warten. Würde ja in die Verkaufsstrategie von NVIDIA passen. Erst den Leuten sagen, dass der VRAM ausreicht, um dann später ein teureres Modell mit mehr VRAM herauszubringen. 😄🥲
Vor Allem werden die kleineren Chips gleichzeitig noch kleiner oder bleiben gleich groß.
Man weis natürlich nicht welche Karte welchen Chip bekommt, aber es sieht ganz danach aus als könne man sich wieder drauf einstellen, nur bei 5090 und 5080 große Gewinne zu sehen.
Sind wir doch ehrlich...das ist die größte Gefahr für die nächste Generation.
Wenn nVidia erneut im Mainstream praktisch Mini-Schritte für viel Geld anpreisen möchte. Dann müssen wieder irgendwelche Feature-Locks dafür herhalten, dass Teil irgendwie an den Mann zu bringen.
Es war ja diese Generation schon extrem, dass zwischen einer 3060 Ti und ein 4060 Ti lediglich 7-8% Leistungsunterschied sind. Sind es dann nächste Generation zwischen 3060 Ti und 5060 Ti ganze 15% ?
Das ist in meinen Augen das größte Problem, denn so wird es einfach kaum Fortschritt geben.
Die Frage wird für jemanden wie mich sein ob es die 5070 oder 5070 Ti werden soll. Mein Ziel ist es die Blackwell-Karte zu kaufen die am besten zu einer FullHD-Auflösung passt.
Eine 4080 ist wie wir ja bekanntlich wissen too much für FullHD, eine 5080 wird es erst recht sein (außer sie ist nicht der Nachfolger der 4080 sondern eine 5080 Ti oder sowas).