Miantomo schrieb:
Es mag komisch klingen, aber ich bin nicht wegen irgendwelcher Punkte hier, die ppd sind für mich nur eine Messgröße wieviel "ich beigesteuert" habe. Übertakten macht, in meinen Augen, nicht soviel Sinn, letztlich betreibt man seine Hardware damit ausserhalb der Spezifikationen und das verkürzt Lebenserwartung und erhöht den Stromverbrauch, oder? Zumal ich die CPU auch garnicht übertakten könnte (ist bei Xeoniten soweit ich weiß nicht vorgesehen).
Zunächst eine löbliche Einstellung.
Der Wissenschaft helfen mit freien Ressourcen. Beim DC war früher der Ansatz, der Rechner läuft sowieso, Energieeinspareinstellungen gab es nur bedingt, ergo könnte man den verbratenen Strom (das Effizienzspektrum der Netzteile hinzugerechnet), sinnvollerweise als Rechenleistung abgeben. Heutzutage mit moderner Hardware fällt weitgehend dieses Motiv weg, CPU und GPU schalten sich automatisch in sparsame Betriebszustände, per Undervolting ist sogar der Standardwert noch zu senken, zunehmend sinnfrei, weil die Hersteller alles auf niedrigste Idle Stromaufnahme trimmen.
Es gibt Hardware, die auf OC ausgelegt ist, bspw. die CPU ohne Multiplikatorsperre oder GPUs mit vom Hersteller vordefinierten Maximaltaktraten und passenden Überspannungen, von der Stromversorgung auf Platine bzw. Mainboard bereits zu höherleistiger Stromversorgung gestützt. OC ist m.M. längst im Consumerbereich angekommen und kann fix und fertig vom "Dorfhändler" angeboten werden. Die Lebensdauerzyklen sind eher - m.M. schon seit vielen Jahren - durch die Austauschwünsche der Kunden begrenzt als durch echte Überlastung, extreme Maßnahmen "ohne Sinn und Verstand" mal ausgenommen, da sind auch Anfänger zuweilen höchst anspruchsvoll trotz unzureichender Grundkenntnisse. Selbst die Profis älterer Generationen tun sich mit den Neuentwicklungen, gerade wegen den Hersteller Restriktionen, oft schwer, man sieht bereits bei den redaktionellen Testberichten, dass gezielt neben OC auch Undervolting und Stromverbrauchsmessungen aufgenommen wurden, um den echten Mehrwert solchen Tunings zu demonstrieren. Sogar der Folding Benchmark findet sich in den Computerbase Testberichten, finde ich klasse.
Zurück zu deinen Fragen, Xeon CPUs wie andere Turbotakt-Prozessoren lassen sich u.U. auf fixe Taktraten einstellen, damit fallen Schwankungen weg die performancerelevant sind, zunächst nur im kleinen Maßstab, aber bei Dauerbetrieb summiert sich das auf, alles was schwankt, belastet die Stromversorgung, kann schlecht programmierte Software abstürzen lassen (Beta Projekte bei Folding !), beansprucht die Kühlung falls temperaturgeregelt ... Lüfter drehen rauf und runter über das übliche Maß hinaus und werden m.E. am ehesten über Gebühr abgenutzt.
Überall dort wo Hardware nicht für Dauereinsatz konstruiert ist, kann es frühzeitige Ausfälle geben (oft vergessen Netzteile, Kondensatoren auf Mainboards für das CPU-OC), die CPUs und GPU Chips selbst halte ich inzwischen für selten zu zerstörende Einzelkomponenten. Nutzt leider wenig, wenn andere Zuliefer-Komponenten frühzeitig instabil werden bzw. ausfallen.
Mir ist es trotz OC bei CPUs und GPUs noch nie gelungen, eine Komponenten damit zu zerstören oder vorzeitig ersetzen zu müssen. Jedoch das Maximal-OC Setting aus der Anfangsnutzungszeit musste ich verschiedentlich zurücknehmen, weshalb ich mittlerweile nur "normales" Tuning empfehle, schlicht aus Gründen des Zeitaufwands, mit eingebauten Toleranzen, damit ein Dauerbetrieb gewährleistet ist. Das halte ich für DC Anwendungen, gerade bei Folding@home, für geboten. Man will letztlich sinnvolle Rechenarbeit übernehmen anstatt durch ungültige Ergebnisse, mehrfaches Neuberechnen etc. den wissenschaftlichen Fortschritt zu bremsen. Oder sich zu ärgern und aus Frust aufzuhören. Pausieren hingegen ist eine von mir gepflegte Tugend.
PPD halte ich - um mal zu einem Ende zu kommen - als wenig geeignetes Maß für einen Beitrag, wenn schon dann fertige Ergebnisse, Zahl der Workunits, bezogen auf den Projektumfang, der dann hoffentlich in einer Auswertung mit wissenschaftlicher Expertise mündet, also einer Veröffentlichung, Vorbereitung einer weiteren Untersuchung bis zur Feldphase mit tatsächlicher Medikamentenforschung. Das bleibt für mich Ziel hinter dem Rechenprojekt Folding@home.
Punkte sollten sein ein Maß für die investierte Rechenleistung. Das klappt ausgezeichnet für kurze Beobachtungszeiträume, das versagt völlig über Jahre hinweg, geschuldet der Chipentwicklung wie geänderter Prämissen, wie etwa dem Bonus System oder Voraussetzungen für bestimmte Zugänge (SMP-BigWu). Da wurde den treuen (und investitionsbereiten) Folding Teilnehmern schon vieles zugemutet.
Bei GPUgrid bspw. erhält man für alle Beteiligungen an Forschungsprojekten diverse "Badges" (siehe
GPUgrid > Volunteers), also Orden bzw. Verdienstorden, die sowohl die Menge wie qualitativ die Beteiligung an Rechenprojekten widerspiegeln. Die inhaltlichen Forschungsziele sind dort ähnlich, auch deren Reputation ist belegt mit Veröffentlichungen.
Schweife schon wieder, sorry für off topic, halte mich zukünftig etwas zurück, das meiste kann man eh irgendwo nachlesen. Für Besitzer mit potenter Hardware gibt es jedenfalls Ausweichprojekte, die bei Auslastung, Störung, Unzufriedenheit etc. bei einem Projekt gute Alternativen bieten, mit ähnlich hohen Ansprüchen dahingegend, dass die abgelieferte Rechenarbeit "Gutes" bewirkt.
Falten ist Thema, back to topic.