Sorry, aber die Milchmädchenrechnung stimmt nicht.Balikon schrieb:Wenn man den Gerüchten glauben kann, hat das Flagschiff 80% mehr Cuda-Cores als die GTX 3090 respektive GTX 3090 Ti, die schon bis 450W TBP haben soll.
Es sind ja nicht nur die Cuda Cores. Das ganze drumrum wird massiv ansteigen und will mit Strom versorgt werden.. Da ist nicht mit einer geringeren Stromaufnahme zu rechnen, selbst, wenn man deine optimistische Effizienssteigerung für gegeben hält.
Auch AMD will die Recheneinheiten stark aufstocken, es ist klar, dass das nur in eine Richtung führen kann: Mehr Stromverbrauch.
Zum einen, ist die 3090 (und die fiktive 3090Ti erst Recht) auch nur eine 3080 mit freigelassener TDP. Die paar Ausführungseinheiten rechtfertigen nicht den Stromverbrauch, sondern die höhere Taktrate jenseits des sweetspots.
Zum anderen ist, wie gesagt, der modernere Fertigungsprozess deutlich im Vorteil. Der GA102 belegt ja auch schon 628mm² , ein eventueller GL102 wird ja ebenso mit ~600mm² gerüchtet. Da könnte der Stromverbrauch auch bei den 450W verbleiben, der sweetspot wäre eh darunter.
Und was für ein "drumherum"? nVidia hat kein magisches package angekündigt, die Karte wird größer werden um die Stromversorgung zu stemmen, das war es aber auch schon. Wir werden wie immer keine exorbitanten Speicher sehen, nVidia hat sich schon lange festgelegt HBM nur im Serverbereich zu verbauen. Consumer bekommen GDDR6X.
Man sieht ja auch an den gerüchteten drei Leistungsstufen dass derselbe Chip mit ~450, 650 und 850W projektiert ist. Ob da ein paar Ausführungseinheiten abgeschaltet sind oder nicht macht den Kohl nicht fett.
Oftmals war es bei nVidia auch so dass die teildefekten Chips in niedrigeren Karten mehr Strom zogen.
Sweetspot eben...