Also früher waren die Ti Modelle ja immer die Refreshs der aktuellen Reihe, die ggf. noch einmal auf Konkurrenzprodukte reagierten. Manchmal machten diese ihre Non-Ti Pendants überflüssig, oder bügelten deren klare Schwachstellen aus. Die Titan hatte ihre eigene Nische.
Der einzige Grund, der mir für den Release der 3090 Ti einfällt, ist eben nur der des zeitlichen Refreshs. In allen anderen Punkten passiert nahezu gar nichts. Es gibt keine neue Titan, die wurde auch schon von der 3090 deklassiert. Technisch hat man nur durch die neuen Speicherchips einen kleinen Vorteil, der Rest ist Zahlenkosmetik, die auch nicht nötig wäre, da es kein Konkurrenzprodukt gibt, was unbedingt ausgestochen werden muss, weil es die 3090 dominiert. Vielleicht wäre es besser gewesen, wenn es eins gegeben hätte, wenn man sich die Ti so betrachtet...
Daraus werden dann mit bis zu 100W mehr 5-10% mehr Leistung rausgekitzelt für... ja für was eigentlich? Sie erreicht einfach nichts, was nicht bereits erreicht wäre.
Am Horizont ist die 4000er Reihe schon zu sehen, noch dieses Jahr wird es soweit sein. Und wenn man etwas Titan-ähnliches hätte neu auflegen wollen, dann hätte man bei allem noch eine Schippe mehr drauflegen müssen. Offenbar war man aber bereits mit den Vorgängermodellen am oberen Ende der Plattform unterwegs.
Vermutlich lagen einfach noch genug selektierte GA-102er aus der besonders guten Ausbeute herum, die man nicht einfach für den niedrigeren 3090 Preis raushauen wollte oder nicht über die Quadros hat absetzen können. Anders kann ich mir das Ding beim besten Willen nicht erklären. Nvidia scheint die ganze Nummer selber nicht geheuer zu sein: Erst der Lächerliche Paperlaunch, dann Monate Stille, jetzt schwupps sind sie da, aber ohne das übliche große Tammtamm... ich versteh's nicht. Ich versteh's einfach nicht.
Ich hoffe bei der 4000er kommen die wieder klar. Aber was die Richtung von Nvidia und AMD "Mehr Watt = Mehr Leistung!" angeht, so wiederholt sich hier für mich die Absurdität aus Pentium-4 Zeiten, wo das ja ähnlich war. Ehrlich gesagt erhoffe ich mir durch Intel und Apple mir da mehr Innovation im GPU Feld, sprich Power aus der Architektur, und das möglichst effizient.
Das hier kann's doch nicht sein. Leider scheint die kommende Generation von Nvidia und AMD aber sicherstellen zu wollen, dass der Spieler auf gar keinen Fall friert.