News „RTX 5090 Ti“ oder RTX 6000 Blackwell?: Prototyp mit GB202 nutzt zweimal 12V-2×6 für 800 Watt TDP

M@tze schrieb:
warum sollte Nvidia das tun (als 5090 Ti), wenn schon die normale 5090 noch nicht mal releast wurde und weit und breit keine Konkurrenz hat?
Na, um die dicken Eier auf den Tisch zu knallen.

Spaß bei Seite, vielleicht ist es ja eher eine Titan, die war doch schon immer auch so für halb Profis.
 
Wie sagte ein armer Irrer gestern öffentlich: Drill baby drill!
Na ja, ich bin alt genug, ich kann fast drauf pfeifen. Aber traurig bleibt das allemal.
 
  • Gefällt mir
Reaktionen: daknoll und martin_m
Anhand der Specs klingt das höchst ineffizient.
Auf der anderen Seite wäre auch eine TDP bei ~650W erdenklich mit Boardpartnern auf bis zu 800W. Es ist schließlich nur ein Prototyp.
In ein paar Tagen kann man auf die tatsächlichen Taktrate der 5090 eingehen und diese mit der 4090 vergleichen. Da wird man schlauer, ob der Boost Takt deutlich unter dem realistischen liegt, oder ob dieser überhaupt erreicht wird.
Die 4090 hat idR höher getaktet als Boosttakt und in niedrigen Auflösungen weniger Energie benötigt als die offizielle TDP.
 
Holt Nvidia noch eine "Brechstange" raus? Ich sehe nur "wir sind am Hardwarelimit angekommen" und kein Fortschritt mehr. :hammer_alt: :)
2nm ist ende ... 🤔
 
Abrexxes schrieb:
Und die Fans werden verrückt danach sein.
Natürlich, nach einem Jahr 5090 ist die Luft eben raus.
 
Ene richtige High End Karte inkl. Vollausbau und 800Watt könnte man sich schon vorstellen.
Es ist schon so lange her, dass richtig rangeklotzt wurde.
 
"Dieses ganze Steckerchaos mit 6-Pin, 8-Pin, kombiniert und so ist doch nichts."
"Wir machen einen neuen Stecker, der ist dann einheitlich und man braucht nur einen davon, das ist doch praktisch."
NVidia: "Man könnte ja auch mehrere davon in eine Karte stecken."

Netzteilherstelleraktien müssten doch auch ganz gut laufen? Netzteil für 150 Euro mit 1x 12V-2x6 gekauft.. Schon für manche unbrauchbar.
 
M@tze schrieb:
Krasses Teil, aber warum sollte Nvidia das tun (als 5090 Ti), wenn schon die normale 5090 noch nicht mal releast wurde und weit und breit keine Konkurrenz hat?
Warum hat nvidia eine 5090 releast, wenn schon die 4090 weit und breit keine Konkurrenz hat?

Logik und so...
 
-MK schrieb:
Gleich geht das Gejammere über den Stromverbrauch wieder los 😂
Warum gejammere? Nur weil dir der Stromverbrauch egal scheint, muss es nicht für andere egal sein. Schade das vielen, nur weil sie genug Geld für ihre Stomrechung haben, der Stromverbrauch egal ist. Somal oft Grakas eingesetzt werden, die die Gamer gar nicht ausreizen bzw brauchen. Aber egal ist nur meine Meinung. Daher darf jeder gern da machen wie er will.
 
  • Gefällt mir
Reaktionen: Kha'ak, Bunhy und Clonedrone
Ich denke diese Ultra-High-Ende Karten sind immer das primäre Ziel einer Neuentwicklung. Dann davon ausgehend geht man in entsprechenden Stufen herunter und entwickelt die finalen Produkte für den Markt (5070, 5080, 5090). In der 4000er Generation war die 4090 der Konkurrenz schon so weit vorraus, da war eine "Titan" einfach nicht mehr nötig. AMD war schon meilenweit abgehängt. Und die Situation hat sich diese Generation auch nicht geändert.
 
Quidproquo77 schrieb:
Es ist schon so lange her, dass richtig rangeklotzt wurde.
Von welcher Richtung kommend, kommst du zu diesem Schluss? Die 4090 fand ich schon extrem klotzig. Klar, der Chip hätte noch ein bisschen mehr hergegeben, aber ich meine mich zu erinnern, dass meine Kinnlade ziemlich aufm Tisch hing bei den Benchmarks. Und ich interessiere mich nicht mal für Games aktuell ^^
 
  • Gefällt mir
Reaktionen: Bunhy und Quidproquo77
Vincenso schrieb:
Somal oft Grakas eingesetzt werden, die die Gamer gar nicht ausreizen bzw brauchen.
Wenn eine GPU nicht ausgereizt wird, dann verbraucht sie auch nicht die max TDP.
Wird sie ausgereizt, dann bekommt man aber auch die gebotene Leistung zum Verbrauch.

Daher ist das Geheule über den Verbrauch unsinnig.
Nur scheinen hier einige die Leistung der 5090 haben zu wollen aber nur den Verbrauch einer 1030 zahlen zu wollen.
 
Whats about a New RTX Titan?
 
  • Gefällt mir
Reaktionen: Quidproquo77
Die Karte könnte im Winter eindeutig Vorteile haben :D Aber tatsächlich bin ich der Meinung dass eine Grafikkarte 500 bis maximal 1000 Euro kosten sollte. Alles darüber ist einfach unnötig. Ob ich nun 100 FPS oder 150 habe macht für mich keinen unterschied wenn ich nur einen Bruchteil der Energie benötige.
 
  • Gefällt mir
Reaktionen: Bunhy
Wäre eine geile Karte - endlich läuft Counterstrike und LoL mal flüssig in FullHD !!
 
Neue Titan wäre schon irgendwie cool, bin gespannt :)
 
Zurück
Oben