JayTea schrieb:
Dabei gilt für die GPU: entweder ganz oder gar nicht. Die GPU kann nicht bloß zu X% falten, d.h. entweder sie läuft auf Vollast oder gar nicht.
Sehe ich auch so!
Mit der Einschränkung: GPU Last beachten. Einstellung bei meinem FAHControl Client: immer Full.
Eine GPU mit 80% Auslastung höher getaktet laufen zu lassen ist im Grunde Verschwendung. Dann muss der realer Fortschritt der Workunit genau beobachtet werden sowie das Verhältnis zum Takt der CPU. Z.B. beide absenken oder beide höher takten.
Bei einer Auslastung von 99% Prozent hingegen ... macht es Sinn. Dann sollte - hoffentlich - der PPD Wert messbar steigen, ablesbar direkt an der TPF.
HFM als Analyse Tool mit dessen Benchmark Ausgabe erfasst alle berechneten Workunits des Clients und macht so eine spätere Bewertung möglich, welche Projektaufgaben, differenziert nach (aktuell) Core 18 bzw. Core 21, wie schnell auf der jeweiligen Hardware gerechnet werden können.
Was weniger bekannt ist - vermute ich
- man kann innerhalb HFM die Client Namensfunktion benützen um Messungen durchzuführen. In den Client Namen schreibt man die Taktrate.
Später definiert man
neue Clients mit anderen Taktraten, bezieht diese auf denselben Slot im FAHControl Client und findet in der (gemeinsamen für alle HFM Clients) Benchmark Liste zu jeder "Messreihe" getrennt die PPD Performance. Dann aber aufpassen mit OC Profilen für die GPU (Afterburner etc.), die man per Mausklick ändert, sonst gibt es Kuddelmuddel. Hat man genug von der Namens-Mess-Spielerei einfach den Client Namen editieren, das ändert die Einträge in der Benchmark Liste, Informationen geht dann verloren. Was letzten Endes egal ist, für´s Falten zählen abgelieferte, gültige Workunits.
GPU-Z bietet die Option, per Klick in das Messwert Feld die Auslastung als aktuellen > mindest > maximalen > durchschnittlichen Wert zu ändern. Das kann helfen über die Laufzeit einer Workunit bzw. ganze Messphasen bis zu Tagen hinweg.
Ausnahmen (bei HighEnd GPUs) sind denkbar bei sehr schlechter GPU Auslastung, dann kann man die GPU parallel mit anderen Rechenaufgaben belasten, z.B. durch BOINC Projekte wie POEM oder GPUgrid, ist kritisch und teilweise fehlerträchtig, aber meist effizienter, weil die Spannungen wie der Verbrauch oft schon bei teilweiser Auslastung da sind. GPUgrid erlaubt meines Wissens die doppelte Ausführung, d.h. gleichzeitige Abarbeitung von zwei Workunits, verhindert jedoch eine dritte Instanz. Bei Folding@home wird leider stets auf 1 aktive Workunit begrenzt.
Für Spielerei Liebhaber liefert Folding genug "Stoff". Fröhliches Falten!