Mumbira schrieb:
Daran, dass die 4090 nicht an ihrem effizientesten Punkt betrieben wird, denken die meisten doch gar nicht mal. Zumal ich das nicht mal so schlimm finde. Eine Gaming-Grafikkarte hat nun mal andere Ansprüche als eine für Workstations.
Ich schon… eben weil Igor schon bei der 3090 TI nachgewiesen hat, dass man mit Drosselung auf 66% des Stromverbrauchs grade mal 10% Leistung einbüßt.
https://www.igorslab.de/kuehler-bre...-den-kopf-stellt-und-die-radeons-schlaegt/12/
Das wird bei der 4090 nicht anders sein und ich würde mir so eine Karte mit schlankem, leisen Kühler sofort kaufen.
Doch - noch schlimmer - selbst wenn ein Boardpartner eine solche „Sweet Spot Edition“ bauen wollen würde - Nvidia würde das aufgrund des Greenlight-Prozesses nicht gestatten.
Im Workstation-Bereich geht‘s aber dann.
Find‘s total frustrierend.
Klar, man kann händisch den Verbrauch drosseln, hat sich aber halt trotzdem die PCIe Slots mit so ´nem testosteronmotivierten Monsterkühler zugebaut.
Mumbira schrieb:
Sie werden effizienter und erzeugen bei gleicher Performance entsprechend auch weniger Hitze. Aber eben nur bei gleicher Performance.
Mehr Performance bei gleicher Hitze wäre ja auch schon besser gewesen.
Mal davon ab, dass sich ja auch intern in den Chips einiges änderte und der Performance-Gewinn nicht nur durch den feineren Fertigungsprozess kommt.
Doch Nvidia wollte noch ein paar Extraprozent, indem sie ein ordentliches Mehr an Saft reinjagen.
Das wirkt sich negativ auf die Effizienz aus, saugt überproportional mehr an der Steckdose und verlangt einen noch fetteren Kühler. Dem Kunden wird keine Alternative gelassen - ok, außer eben ein Vielfaches für die in diesen Punkten deutlich vernünftiger konstruierte Workstation Karte zu bezahlen.