Firstdim schrieb:
es ist nicht so, dass der Energieverbrauch der Karten, proportional zu Leistung steigern muss
Das ist auch nicht so, allerdings sehen wir bei Grafikkarten, dass die Entwicklung der Halbleiter nicht so schnell geht, wie die Leistung der Karten. Vergleicht doch mal die Highend-Karten von früher und legt sie neben eine aktuelle. Genau wie die Energieversorgung.
Jetzt stell dir mal vor, wir hätten die Beschränkung der Leistungsaufnahme von "damals", wie sieht dann die Leistung heute aus? Beschränkung auf einem 6-Pin als Beispiel (ne Radeon 1950XT hatte nicht mehr) , während eine RX6600 gerne bereits mit 8-Pin ausgestattet wird.
Immerhin hat man aber heute die Wahl, ob man eine Karte mit 250W und mehr zu kaufen oder eben eine, die kaum mehr als 130W benötigt. Daher ist man eben nicht gezwungen, Highend zu kaufen, wenn man nicht will. Wer die Leistung benötigt, kann dann aber eben die Großen kaufen oder ein paar Jahre länger warten, bis es die Leistung bei deutlich geringerer Leistungsaufnahme gibt.
Man darf eben nicht immer nur zum High-End schielen, wenn es um die Entwicklung der Halbleiter in Sachen Effizienz geht. Zumal die schon aufgrund der Taktraten weit ab vom Sweetspot agieren.
Zur Zeit ist die RX6600XT die effizienteste Karte, deutlich schneller als eine Vega und das bei deutlich geringeren Verbrauch (was allerdings keine große Schwierigkeit ist, Big-Vega war jetzt alles andere als effizient)
Beim hinkenden Autovergleich kann man dann eben auch nen Bugatti nehmen, der dann auch über 20l verbraucht, aber eben auch deutlich mehr leistet. Genauso sieht es ja bei den Grafikkarten aus. Was eine 8800GTX leistet, leistet heute eine IGP mit Leichtigkeit. Hatte selbst mal ein Sidegrade von einer 8800GTX auf eine HD6670 gemacht, letztere hatte nicht einmal die Leistung aufgenommen, die die GTX im Idle sich schon genehmigt hat. Die neue Karte war dann sogar passiv gekühlt.