Dein erster Denkfehler ist ja schon mal der, dass von 500MHz auf 100MHz die Performance nicht einfach von 100% auf 20% sinkt. Bei der Verdopplung des Taktes hast du auch nicht gleich 200%.
Dann übersiehst du auch die verwendeten Spannungen, ab bestimmten Taktstufen muss die Spannung erhöht werden, wodurch der Verbrauch pro Taktsteigerung stärker ansteigt. Bei 1,0V ist der Verbrauchsanstieg bei einer Takterhöhung von 100MHz geringer als bei 1,1V.
Dazu kommt, dass es eine gewissen Grundspannung benötigt, also ein Betriebsminimum. Und es existiert ein gewisser Grundverbrauch.
Als Beispiel:
200 MHz Takt (Betriebsminimum) - 0,8V (Betriebsminimum) - 20W (10W Grundverbrauch +je 5W pro 100MHz Takt)
300 MHz Takt - 0,8 V - 25W = Eff: 0,083 (W pro Mhz)
400 MHz Takt - 0,8 V - 30W = Eff: 0,075
500 MHz Takt - 0,8 V - 35W = Eff: 0,07
600 MHz Takt - 0,9 V - 45W = Eff: 0,075
800 MHz Takt - 1,0 V - 65W = Eff: 0,081
1000 MHz Takt - 1,2V - 100W = Eff: 0,1
Das sind jetzt alles erfundene Zahlen zum Verständnis, und stark vereinfacht:
Von 200 - 500 MHz benötigt man nur 0,8V, für 100MHz mehr werden hier nur weitere 5W benötigt. Bei 600MHz werden aber schon 0,9V benötigt, damit werden für 100Mhz Schritte schon 10W fällig. Je höher der Takt, desto schneller und höher steigen diese Schritte.
Im Beispiel oben haben wir die höchste Effizienz also bei 500W, zwar sind die Schritte darunter dieselben pro 100MHz, aber der Grundverbrauch fällt bei den geringen Taktraten deutlich stärker in's Gewicht.
Das Beispiel betrifft jetzt aber nur die Effizienz von Verbrauch pro Takt, wenn es um Verbrauch pro Leistung geht, sieht die Sache nochmals diffiziler aus. Denn wie ganz oben schon erwähnt, steigt und sinkt die Leistung ja nicht proportional zum Takt, da kommen noch ganz andere Einflüsse mit dazu.