News Gerüchte zur RTX 5090: 448 statt 512 Bit, 28 GB GDDR7 und ein „2-Slot-Kühler“

Fighter1993 schrieb:
Blind bis zum Schluss.... überleg mal was du da schreibst ungeachtet des Preises?

Würde das Teil 5000€ Kosten, wären die 66% effizienz Steigerung ein Witz.
...weil's auch so realistisch ist, dass wir im Jahr 2024 / 2025 eine Gaming-Grafikkarte mit (offiziellem) Kaufpreis um die 5.000 Euro sehen werden. Ungefähr genauso realistisch, wie die 2-fache Energieeffizienz, die der 5090 vorhergesagt wird.

Und zum Thema "Blind bis zum Schluss": von jemandem, der wahnwitzige 100 Euro und mehr für nen dummen Luftkühler ausgibt, oder gar knapp 4-stellig für nen nicht einmal 27" messenden Monitor hinblättert, lasse ich mir ganz bestimmt nicht vorwerfen, wenn ich von meinem selbstverdienten Geld etwas für mich selbst kaufe... So weit kommt's noch!
 
  • Gefällt mir
Reaktionen: slamaa, CableGuy82 und Sinatra81
MrWaYne schrieb:
Hoffe mal das kann man da wieder so weit aufdrehen, bis der Chip Kühler nicht mehr kann
FTFY. An Deiner Stelle würde ich dann auf das Costum-Design warten, oder Du schraubst 'ne ordentliche Wasserkühlung auf den Chip.
 
  • Gefällt mir
Reaktionen: AndyUT
Shinigami1 schrieb:
Ich freue mich sehr auf die 5090. Wird wie immer wieder ein feines Stück Hardware und preislich jeden Cent wert sein. Genau wie die 4090.

Fyrex schrieb:
Du meinst wieder eine völlig überteurte Business-Karte, die NVIDIA durch cleveres Marketing als "Spieler"-Karte verkauft und sich viele von diesem Upselling täuschen lassen?

Sehr gut. Ihr seit deren liebsten Kunden. Preis-/Leistung spielt keine Rolle mehr. Es steht jetzt schon fest, dass es "jeden Cent wert" ist.

Ich möchte wieder das beim 80er Modell Schluss ist, wie bei fast allen Generationen bis zur 2000er! Dann können sie meinetwegen eine Titan als Business-Karte für 10.000 Euro anbieten...
Mit meiner Meinung stehe ich irgendwie komplett zwischen euch beiden.

nVidia hat wie viele andere Hersteller auch in den Zeiten vor, während und auch nach der Pandemie bemerkt, daß Leute oft jeden Preis zahlen, nur um ein Produkt XYZ zu haben.

Ob eine Person sich eine RTX xx90er Karte mal so einfach leisten kann oder ob man sich dafür etwas "am Mund absparen" muss, steht auf einem anderen Blatt und interessiert die Firmen nicht. Die sehen nur...Produktklasse ABC verkauft sich trotz weiter gestiegenem Preis weiterhin prima.

Ich habe da noch immer als...in dem Fall negatives...Beispiel meinen damaligen Kunden im Kopf, der ein seinerzeit aktuelles iPhone über 60 Monate (!) finanzieren wollte.

Selbst habe ich bisher nie eine nVidia Karte mit einer 90 am Ende besessen, könnte mir aber vorstellen, daß diese einen recht guten Wiederverkaufswert haben, so daß der neue Eigenanteil an einem Neukauf um etliches geringer ist.

@Fyrex in der Vergangenheit gab es auch schon 90er Karten. GTX 590 und GTX 690. Klar waren das Dual-GPU Karten.

Die Titan Serie ist eigentlich keine Business-Reihe, sondern war damals über den GTX 980er Karten platziert. Per gemoddeten Treibern konnten Firmen diese aber statt einer sehr teuren Quadro Karte verwenden.

Durch die später geänderte nVidia Produktpalette verschwand die Titan Serie vom Gamer-Radar.
 
  • Gefällt mir
Reaktionen: Maviba und CableGuy82
MrWaYne schrieb:
2-Slot Design klingt leider nach sehr begrenzten Powerlimit.
Sehr wahrscheinlich bei einer möglichen 300W Leistungsregion.
 
  • Gefällt mir
Reaktionen: CableGuy82
theGucky schrieb:
Ne eine 4090 läuft ja auch bei >90% Leistung mit nur 300W. Wäre also ~65% mehr Leistung bei den selben 300W.
Und vielleicht würde eine 5090, sollte sie tatsächlich eine 300 Watt TDP besitzen, ebenfalls ~90% der Leistung bei nur 220-240 Watt bringen? Spekulatius gibt's wie immer zu Weihnachten. Ich habe lediglich die Zahlen von @Simanova aufgegriffen und gemessen an den jeweiligen Leistungslimits berechnet.
 
  • Gefällt mir
Reaktionen: CableGuy82
Batigol040 schrieb:
Ich freue mich schon auf die Ankündigungen der Computex
Die Chance für konkrete Details zu Blackwell (Gaming) ist releativ gering. Wird sicherlich viel um AI gehen. Die werden auch sicherlich erstmal das AMD und Intel Statement abwarten.
Ergänzung ()

DJMadMax schrieb:
Und vielleicht würde eine 5090, sollte sie tatsächlich eine 300 Watt TDP besitzen, ebenfalls ~90% der Leistung bei nur 220-240 Watt bringen?
Der GB202 ist verdammt groß. Ich tippe auf relativ geringe finale Taktraten, sodass auch Einsparpotentiale eher der RTX 3090/Ti ähneln. Es gibt auch große Unterschiede was Nvidia auf das Produkt schreibt und letztendlich wirklich beim Gaming gezogen wird. Eine 4070ti steht auf dem Papier bei 285W und zieht nie mehr als 245W, egal in welchem Szenario.
 
  • Gefällt mir
Reaktionen: slamaa, CableGuy82 und DJMadMax
Also ich nehm lieber einen leiseren 4-Slot Kühler als einen lauten 2-Slot. Für kleine System mag das ja ganz nett sein, aber diesen zwanghaften "es muss noch kleiner und schmaler gehen"-Wahn kann ich schon bei Smartphones nicht verstehen, wo das Gerät dann einen mm dünner sein soll, aber die Kamera total hervorsteht - und man dann nicht einfach das ganze Gerät etwas dicker macht und dafür mehr Akku reinschraubt.
 
  • Gefällt mir
Reaktionen: PulsarS, Cohen, Celinna und eine weitere Person
Simanova schrieb:
Es gibt auch große Unterschiede was Nvidia auf das Produkt schreibt und letztendlich wirklich beim Gaming gezogen wird. Eine 4070ti steht auf dem Papier bei 285W und zieht nie mehr als 245W, egal in welchem Szenario.
Das ist bei der RTX 4090 ja genauso. Auch die muss man regelrecht zwingen, mal über die 400 Watt hinauszuragen.
 
  • Gefällt mir
Reaktionen: CableGuy82
Simanova schrieb:
Es gibt auch große Unterschiede was Nvidia auf das Produkt schreibt und letztendlich wirklich beim Gaming gezogen wird. Eine 4070ti steht auf dem Papier bei 285W und zieht nie mehr als 245W, egal in welchem Szenario.
@DJMadMax
Weil bei RTX4000 Nvidia übermäßig hohe TDPs abgegeben hat, die im Normalfall nicht erreicht werden.
Das war noch ein Überbleibsel von RTX3000, die außerordentlich viel gesoffen haben, bzw an der Kante genäht waren.
Deswegen sollte man realistisch nicht mit den 450W der 4090 rechnen.

Ich hatte ne 3090FE, die hat auch mit UV immer 350W gesoffen, ohne Powerlimit zu reduzieren ging das nicht runter.
 
  • Gefällt mir
Reaktionen: JackTheRippchen, Foxel und DJMadMax
Da ist eine Menge Spielraum drin. In puncto Verbrauch, Kühlergröße, Speicherausstattung und nicht zuletzt einer "kundensicheren" Stromversorgung.

Mein Bauchgefühl lässt "nicht mehr" als eine solide Evolution erwarten; wohl wissend, dass AMD vermutlich nicht mithalten kann oder will.
 
Wenn ich den fetten Kühler sehe dann wird mir jetzt schon Schlecht wo soll das Teil noch vernünftig reinpassen ,Egal die 5000er lass ich eh aus kauf mir doch nicht schon wieder so nen Teueren Klopper.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CableGuy82
Simanova schrieb:
Würde bedeuten, dass Nvidia eine Mehrleistung von +50% zur RTX 4090 aus den Fingern saugt, und das bei <300W.
Eine RTX 5090 produziert mit dem 4NP Node und die soll gleichzeitig deutlich sparsamer (300W) und leistungsfähiger (+50%) sein?

Das kann ich mir beim besten Willen nicht vorstellen. Der 4NP Node kann nicht so viel besser sein als 4N. Wo sollen da die dramatischen Unterschiede her kommen?

Laut TSMC:
Nvidia 4N: N5+xy%
N4P: N5 +11%
N4X: N4P +6%

Angenommen der 4N Node war halb so gut wie N4P und der Unterschied von 4NP zu N4X ist nochmal im ähnlichen Ausmaß, kann man großzügig maximal 20% Leistungssteigerung von 4N zu 4NP erwarten. (3x ~6% Performance)

Das würde aber +25% Perf für 4NP vs N5 heißen, was extrem fraglich ist weil N3P ähnliche +25% vs N5 bieten soll (N3E +5%) und N3P ist/war für H2 2024 angekündigt...
Eher kann ich glauben, dass 4NP ähnlich wie N4X auftreten wird mit seinen +18% perf @ ISO-Power. Was ja auch schon eine echt beeindruckende Verbesserung ist für 'denselben' Node...

1717076987010.png


Architektur kann viel helfen und ein großer Chip mit niedrigem Takt auch, aber kann nvidia wirklich 30% Performance außerhalb des Node aus der Tasche ziehen und gleichzeitig den Energiehunger um -25%* reduzieren?

*Ich bin hier großzügig und behaupte, dass kaum einer den Unterschied gemerkt hätte falls die RTX 4090 ein hartes Limit bei 400W drin hätte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AI94 und CableGuy82
Schade, dann warte ich auf die Titan oder ein Äquivalent. Irgendwie sehe ich hier schon wieder unnötig angezogene Handbremsen. Einen solchen "Krüppel" baue ich aber nicht freiwillig auf WaKü um, was für mich absolut obligatorisch ist.
Schön wäre außerdem ein weiterer Ausbau der Encoder (NVENC). Da ist bei der 40er leider genau gar nichts passiert.
 
  • Gefällt mir
Reaktionen: slamaa
Oh, das wird nicht billig. Ich spar schon mal! 🫣
 
  • Gefällt mir
Reaktionen: CableGuy82
Mal sehen, was von den Gerüchten übrig bleibt am Ende. Zum Speicherinterface gab es ja schon diverse Gerüchte. Ich bin eher besorgt, dass die Preise weiter anziehen, wenn die 4090 weiterhin so teuer bleibt. Nvidia kann sich in jeder Hinsicht nur selbst schlagen.
 
  • Gefällt mir
Reaktionen: CableGuy82
Halbiert das Si auf 224bit da der vram recht teuer ist
Und den chip als gb205 nennt
Der gb203 hat dann native 256bit und ist der einzige monolith im klassischen sinne. Wird ne titan mit 8 gpc maxed 128sm
Womit gb202 2 chips darstellt gb202 profi markt ai und gb205 Restverwertung defektiv Dies als gb205 maxed 224bit 96sm
Und den gb206 auch zwei chips hat einmal mit 192bit 64sm und die defekten als gb207 mit 96bit 32sm
 
Sehr interessant wäre eine Karte die weniger als die Vormodelle verbraucht. Ich glaube das wäre der einzige Grund mir eine neue Grafikkarte zuzulegen. Gehe aber davon aus die nächste Generation zu überspringen. Mal sehen wie viel Mehrleistung wirklich bei den 5000ern raus kommt im Gegensatz zu der aktuelle Reihe.
 
Ich erwarte nicht viel von der 5090. Die 4090 war so krass weil man von Samsung 8nm zu TSMC 4N wechselte.
Jetzt hat man nur ein minimal besseren Node bei TSMC. Spannend wird sein ob es was neues bei RT oder DLSS gibt.

Eventuell ja Realtime Style Transfer mit DLSS 4.0.
 
Zuletzt bearbeitet:
Zurück
Oben