Jan schrieb:
Limitiert man einen Intel-Prozessor "auf seine TDP", dann könnte er in Intels eigener Referenz-Last nur noch mit dem Basis-Takt laufen. In anderen, weniger komplexen Lasten taktet er noch mit einem Turbo, eventuell aber nicht mehr mit dem maximalen. Lässt du der CPU hingegen freien Lauf beim Verbrauch, taktet sie immer mit dem maximalen Turbo (Ein-Kern-Last bis 8-Kern-Last). Vergleicht man beides, kommt in der Tat das raus, was du gar nicht glauben magst: Die letzten paar Prozent Leistung holt der Core i9-9900K durch die letzten paar 100 MHz Mehr-Takt bei abartig steigendem Verbrauch.
Glauben kann ich in der Kirche. Ich hab’s einfach nicht verstanden / verstehen wollen
Besten Dank für die Erklärung. Der erste Teil war/ ist natürlich alles klar und bekannt. Mich wundern einfach mehrere Sachen, bitt überhaupt nicht als Kritik am Test verstehen,
1. Dass der prozentual soviel höher angegebener Turbo nur 9% Leistungsunterschied in Anwendungen rauskitzelt.
2. Dass eben diese Differenz prozentual gefühlt nicht in das sonstige Turbo<->Leistungsverhältnis passt, rein von der Skalierung her.
3. Dass er trotzdem säuft, als würde er diese Leistung auch so auf die Straße bringen.
Bei aller gefühlten Vorsicht, wirkt das fast so, als würde da die irgendeine Software (Treiber, Kernel?) auf die Bremse treten.
Ich würde mal (bei Gelegenheit, wenn ihr mehr Zeit habt) nen Test des Verhältnisses zur Leistungsausbeute<->Leistungsaufnahme; bei jeweils Turbo und vllt einmal Basistakt leicht unterhalb des Turbo, durchführen. Rein um die Skalierung zu testen.
Mein Gedanke dabei, ganz früher, ganz dunkel und tief in meinem Gedächtnis, gab es bei Einführung des Auto-Turbo auf CPU‘s mal genau diesen Bug. Die Leistung war verlusttechnisch vorhanden, und in Ordnung zum Turbo-Takt Verhältnis. Aber die Leistung kam einfach net an.
Waren das die erste C2D? Nicht mehr sicher, aber irgendwas war da mal
Besten Dank fürs Feedback nochmal!