News „RTX 5090 Ti“ oder RTX 6000 Blackwell?: Prototyp mit GB202 nutzt zweimal 12V-2×6 für 800 Watt TDP

riDDi schrieb:
Wer mal sehen will, was für abgefahrene Kühler es für 1000W braucht soll sich mal die DGX-B200 ansehen. 10 Höheneinheiten hat das Gerät, 8 davon allen für die Kühlkörper der GPUs.
Dein Post ist komplett irreführend. Die DGX B200 hat nicht nur 1000W, oder eine GPU mit 1000W, sondern sie hat 8 GPUs mit je ~1000W - das heißt wir reden hier von 10HE und entsprechenden Lüftern, für mind. 8kW und nicht nur 1kW...

In diesem Sinne ist das Ausmaß der DGX B200 vollkommen gerechtfertigt. Das Teil hat einen Stromverbrauch von über 14 Kilowatt.
 
  • Gefällt mir
Reaktionen: Pisaro
riDDi schrieb:
Und zwar genau jetzt. Mit 800W passt das Gerät auch einfach nicht in handelsübliche GPU-Server. Die RTX 6000 Ada (das Profi-Äquivalent der 4090) hat nur 300W. Wer mal sehen will, was für abgefahrene Kühler es für 1000W braucht soll sich mal die DGX-B200 ansehen. 10 Höheneinheiten hat das Gerät, 8 davon allen für die Kühlkörper der GPUs.

Weshalb ich es auch für viel wahrscheinlicher halte, dass wir hier den Prototyp einer 5090 Ti/Super bzw. Titan RTX sehen.
 
Sehe das Problem nicht, würden halt alle 5090 Besitzer auf ne 5090TI wechseln, Kohle dürfte ja nicht der Breaker sein ne :D
 
Da habt ihr euren kompakten Schrottstecker im Doppelpack xD ... Immerhin, könnte 2x 400W unter Volllast ballern. Bzw. noch nen Tick weniger über den PCI-E Port.

Manche Netzteile (je nach Ausführung) können bei zwei Steckern auch nur 600+300W liefern.

Das wird aber irgend einen professionelle Graka sein. Die 5090 ist ja schon jenseits von gut & böse.
 
Was freue ich mich auf die ersten Tests und offizielle Fakten. Damit aus GerüchteBase wieder ComputerBase werden kann. :D
 
  • Gefällt mir
Reaktionen: Mumbira und Bunhy
Vincenso schrieb:
Warum gejammere? Nur weil dir der Stromverbrauch egal scheint, muss es nicht für andere egal sein. Schade das vielen, nur weil sie genug Geld für ihre Stomrechung haben, der Stromverbrauch egal ist.
Ist mir absolut nicht egal. Aber es nervt halt einfach tierisch, wenn jetzt 300 mimimi Kommentare kommen und alles wirklich relevante dazwischen völlig untergeht.

(Fast) Jeder wird einsehen, dass 800w für Gaming lächerlich sind. Aber deswegen muss nicht jeder seinen Hate dazu hier reinkippen.

Wobei... 800w sind noch gut gewählt, das macht mein Balkonkraftwerk bei Sonnenschein von Morgens bis Abends 😂
 
  • Gefällt mir
Reaktionen: Pisaro
quakegott schrieb:
Ob ich nun 100 FPS oder 150 habe macht für mich keinen unterschied wenn ich nur einen Bruchteil der Energie benötige.
Das vielleicht nicht. Wenn du aber dann statt 60 oder 70 FPS stabile 100 FPS hast ist das für mich schon ein großer Unterschied.
 
  • Gefällt mir
Reaktionen: Mumbira
jube schrieb:
Eine RTX 5090 Ti ist das ganz sicher nicht, ich sehe nicht einen Grund dafür.
Ich schon.

money-mr-4025890503.gif
 
-MK schrieb:
Gleich geht das Gejammere über den Stromverbrauch wieder los 😂
Wieso Jammern? Es gibt für alles Lösungen:
1737476234996.png

:)
 
  • Gefällt mir
Reaktionen: Blackvoodoo, Bunhy, -MK und eine weitere Person
Alleine zur 4090Ti / Titan Ada gab es mehr Gerüchte, als Nvidia Titans ins den letzten 10 Jahren verkauft hat.
 
-MK schrieb:
Gleich geht das Gejammere über den Stromverbrauch wieder los 😂
Ich stelle mir eher die Frage ob man bei:
gleich zwei 12V-2×6-Stromanschlüssen für theoretisch bis zu 1.200 Watt, von denen die Grafikkarte 800 statt 575 Watt bei der GeForce RTX 5090 abrufen können soll.
Statt Netzteilen nicht langsam mini AKWs einbauen sollte. Dafür könnte man in die Custom Loop noch ein mini Kühlturm einbinden :D
 
  • Gefällt mir
Reaktionen: -MK
mesohorny schrieb:
Wenn eine GPU nicht ausgereizt wird, dann verbraucht sie auch nicht die max TDP.
Wird sie ausgereizt, dann bekommt man aber auch die gebotene Leistung zum Verbrauch.

Daher ist das Geheule über den Verbrauch unsinnig.
TDP ist das Design für die erwartete Abwärme, aber nicht für den maximalen Verbrauch. Der kann noch höher sein. Aussagekräftiger ist da TGP, denn da fließen alle Komponenten der GPU mit ein.
 
  • Gefällt mir
Reaktionen: mesohorny
Zurück
Oben