Folding@Home Computerbase Team Gründung! Wer ist dabei?

Hallo,

ich bin mehr durch Zufall auf dieses Projekt gestoßen, finde es aber "eine gute Sache". Da einer meiner Rechner eh ganztägig läuft ohne groß gefordert zu werden, möchte ich mich mit eben jenem beteiligen. Den Standardclienten aus dem ersten Post habe ich installiert, Team Nr. eingetragen und losgelegt. Was mir etwas "schmal" vorkommt ist die PPD der Grafikkarte (ca. 1670). Das sollte bei einer GTX 770 doch mehr sein, oder habe ich da was falsch verstanden?
 
Miantomo schrieb:
Was mir etwas "schmal" vorkommt ist die PPD der Grafikkarte (ca. 1670). Das sollte bei einer GTX 770 doch mehr sein, oder habe ich da was falsch verstanden?

Kommt drauf an. Wer hat die PPD berechnet auf welcher Grundlage ?

Startet der Client für eine GPU Berechnung, sollte man mehrere Prozentpunkte (Frames von 100) abwarten, unter solchen Bedinungen wie die Berechnung "ohne Aufsicht" läuft.

Ist der Monitor an der rechnenden GPU aktiv angeschlossen, d.h. die GPU muss die sonstigen Zugriffe, Hinergrundanwendungen, Bildwechsel usw. abarbeiten, dann bremst das die Workunit Fertigstellung.

Bei sehr leistungsfähigen GPUs - wie einer GTX 770 - kann man einfach zuschauen, bis rund 3-5 Prozent vorangeschritten sind, danach dürfte die PPD Berechnung (auf der Basis der Zeitwerte des Frame) relativ gültig sein.

In die Punkte gehen Basispunkte und Bonuspunkte ein. Als Einsteiger verfügt man erst nach Ablieferung einiger Workunits über valide Ergebnisse und die Boni, anhand des Passkey. Mit einer schnellen GPU i.d.R. innerhalb 1-2 Tagen.

Also etwas Geduld, beobachten, Passkey beantragen, diesen eintragen und dann prüfen. Falls definitiv zuwenig reale Punkte deinem "Donor" Account zugerechnet werden, kannst du im Folding Forum an entsprechender Stelle eine Prüfung beantragen, das geht am sinnvollsten per Mail bzw. innerhalb der Forenanmeldung über Nachricht an die dort genannte Stelle.

Ja, es kommt manchmal vor, dass die Moderatoren eingreifen müssen, gerade wenn die Upload Server gestört oder down sind, dann werden die Ablieferzeiten und fehlenden Punkte nachberechnet.

Für die täglichen Laufzeiten empfehle ich gerade bei den leistungsstarken GPUs etwas auf die Hitzeentwicklung im Gehäuse zu achten, ggf. die Lüfterkurven anzupassen. Wäre schade, falls Dein System nach x Stunden wg. Überhitzung abstürzt und Dir die Rechenzeit wg. Neustart bzw. Rückgriff auf die Checkpoints Zeit (=Bonus Punkte) verloren geht. Meist macht es Sinn, gerade bei Abwesenheit die Lüfterdrehzahlen im Zweifel etwas höher zu drehen, das kann man automatisieren mit z.B. Profilen.

Happy folding. :cool_alt:
 
Danke für diese ausführliche Antwort.

Also die GPU-PPD habe ich im Client abgelesen, siehe angetackerter Screenshot. Mittlerweile hat sich das etwas eingependelt wie du sagtest. Ich habe nur keine Vorstellung, ob die Werte so wie sie sind im Rahmen des normalen liegen. Das Bild ist aufgenommen nachdem er jetzt seit gestern Abend durchgefaltet hat, es liefen sonst keine Anwendugen und der Bildschirm war aus. Passkey habe ich, wie im Eingangspost empfohlen direkt am Anfang beantragt und eingetragen, stimmt auch überein. Temperaturprobleme sind nicht zu erwarten, CPU und GPU hängen an einer WaKü und sind konstant unter 40 Grad, danke dennoch für den Hinweis.

GPU.JPG



CPU.JPG

Vielen Dank schonmal für deine/eure Mühe :-)

Edit sagt: Rechtschreibfehler verbügelt und Dank hinzugefügt. Achja, Screenshots sind verkehrtrum, oben CPU unten GPU.
 
Zuletzt bearbeitet:
Miantomo schrieb:
Ich habe nur keine Vorstellung, ob die Werte so wie sie sind im Rahmen des normalen liegen.

Für P9201 bzw. die Workunit des jeweils gerechneten Projekts siehst du einfach in einem der vielen PPD Datenbanken die Einträge an, für deine GPU (GTX 770, Taktraten beachten) und der Projektnummer (9201).

Solange in der Rechenphase die GPU-Auslastung "normal" ist, genügend CPU-Ressourcen für die GPU Berechnung frei sind (i.d.R. in der Anfangphase und beim Checkpointing, wie beim Abschluß) sollte Deine GPU die erwartbaren PPD Rechenwerte liefern.

Ggf. schalte die CPU-Nutzung auf 6 statt 7 zurück und beobachte. Die CPU-Nutzung ist generell abhängig (1) vom Folding Projekt wie (2) der verwendeten GPU, (4) den Taktniveaus von CPU und GPU (im Sinne welche Komplexität kann von der gefragten Komponente wie schnell abgearbeitet und Zwischenergebnisse weitergereicht werden) und nicht zuletzt (5) - das sage ich mal aus historischer Perspektive, weil ich da schon fast alles an Schwankungsbreiten gesehen habe - von den Treibern und dem BS.

Es gibt oftmals für bestimmte GPU Generationen Empfehlungen, welche Treiber unter welchem BS die höchsten PPD Werte erzielbar machen. Es gibt projektbezogen für OC "stabile" d.h. unempfindliche Projekte und das Gegenteil davon. Sollten sich Abstürze des Folding Client mit häufigem erneutem Checkpoint Neustart häufen, wäre Rücknahme des OC sinnvoll.

Mit jedem Zeitversatz - habe ich das schon geschrieben ? - im Sinne einer Pause oder Unterbrechung des Rechenvorganges, verschiebt sich die errechnete Abgabezeit und somit die Bonuspunkte, weil diese auf der Basis der Zustellung/download basieren. Mit der GPU falten ist arg stressig, viele holen das Maximale an OC heraus um sich das letzte Pünktchen zu sichern, abschalten über Nacht wird zum Punktefresser, an anderer Stelle habe ich eine alternative Methode genannt: einfach nur x GPU Workunits am Tag rechnen lassen und dann den Slot per Konfiguration in die Pause schicken, das geht Slot bezogen, erfordert etwas Handarbeit, siehe Wiki mit max-units=x.

Zum Thema PPD/Watt kannst du einiges nachlesen, es mag Sinn machen auf maximale Leistung zu konfigurieren oder maximale Effizienz, i.d.R. ist die Effizienz steigerbar mit etwas OC und wenig bis keiner Spannungserhöhung. Mit Wasserkühlung bist Du fein raus aus Temperatur- und Lautstärkeerhöhung und kannst dieses Thema ausreizen.

Letzte Anmerkung, PPD Anzeige in den neueren Clients unterliegt weiterhin Schwankungen aufgrund der Rechenmethode, früher waren alternative Tools gängig bis zum händischen Nachrechnen anhand der Log-Datei.

Summa summarum, es gibt an vielen Stellen Optimierungsmöglichkeiten, die Pande Group sorgt mit ihren "Neuerungen" zusätzlich für Anpassungsbedarf, ein eher aufregendes Projekt. ;)
 
...und wieder ein großes Dankeschön für die ausführliche und hilfreiche Antwort.

Es war, wie schon bei mehreren vor mir, die Ungeduld und etwas Fehldenken.
Fehldenken weil der Gedanke "die Karte muss ja überall (in jedem Projekt) die gleichen ppd erzielen" im Kopf war. Ungeduld, weil sich der Wert mittlerweile bei etwas über 120k eingependelt hat und es wohl einfach nur einen Moment (oder ein paar mehr) dafür brauchte.
Laut HWInfo ist die GPU bei 98-100% und die CPU ebenso, hat sich ja wie gesagt jetzt eingepegelt. Ist nur im ersten Moment erschreckend wenn eine neue WU kommt und man liest ca. 500ppd estimated und 10,42 Tage Laufzeit :eek:

Es mag komisch klingen, aber ich bin nicht wegen irgendwelcher Punkte hier, die ppd sind für mich nur eine Messgröße wieviel "ich beigesteuert" habe. Übertakten macht, in meinen Augen, nicht soviel Sinn, letztlich betreibt man seine Hardware damit ausserhalb der Spezifikationen und das verkürzt Lebenserwartung und erhöht den Stromverbrauch, oder? Zumal ich die CPU auch garnicht übertakten könnte (ist bei Xeoniten soweit ich weiß nicht vorgesehen).

Vielen Dank für die Hinweise, ich werde mich heute Abend nochmal mit Optimierungsmöglichkeiten beschäftigen ;-)
 
Miantomo schrieb:
Es mag komisch klingen, aber ich bin nicht wegen irgendwelcher Punkte hier, die ppd sind für mich nur eine Messgröße wieviel "ich beigesteuert" habe. Übertakten macht, in meinen Augen, nicht soviel Sinn, letztlich betreibt man seine Hardware damit ausserhalb der Spezifikationen und das verkürzt Lebenserwartung und erhöht den Stromverbrauch, oder? Zumal ich die CPU auch garnicht übertakten könnte (ist bei Xeoniten soweit ich weiß nicht vorgesehen).

Zunächst eine löbliche Einstellung. :) Der Wissenschaft helfen mit freien Ressourcen. Beim DC war früher der Ansatz, der Rechner läuft sowieso, Energieeinspareinstellungen gab es nur bedingt, ergo könnte man den verbratenen Strom (das Effizienzspektrum der Netzteile hinzugerechnet), sinnvollerweise als Rechenleistung abgeben. Heutzutage mit moderner Hardware fällt weitgehend dieses Motiv weg, CPU und GPU schalten sich automatisch in sparsame Betriebszustände, per Undervolting ist sogar der Standardwert noch zu senken, zunehmend sinnfrei, weil die Hersteller alles auf niedrigste Idle Stromaufnahme trimmen.

Es gibt Hardware, die auf OC ausgelegt ist, bspw. die CPU ohne Multiplikatorsperre oder GPUs mit vom Hersteller vordefinierten Maximaltaktraten und passenden Überspannungen, von der Stromversorgung auf Platine bzw. Mainboard bereits zu höherleistiger Stromversorgung gestützt. OC ist m.M. längst im Consumerbereich angekommen und kann fix und fertig vom "Dorfhändler" angeboten werden. Die Lebensdauerzyklen sind eher - m.M. schon seit vielen Jahren - durch die Austauschwünsche der Kunden begrenzt als durch echte Überlastung, extreme Maßnahmen "ohne Sinn und Verstand" mal ausgenommen, da sind auch Anfänger zuweilen höchst anspruchsvoll trotz unzureichender Grundkenntnisse. Selbst die Profis älterer Generationen tun sich mit den Neuentwicklungen, gerade wegen den Hersteller Restriktionen, oft schwer, man sieht bereits bei den redaktionellen Testberichten, dass gezielt neben OC auch Undervolting und Stromverbrauchsmessungen aufgenommen wurden, um den echten Mehrwert solchen Tunings zu demonstrieren. Sogar der Folding Benchmark findet sich in den Computerbase Testberichten, finde ich klasse. :cool_alt:

Zurück zu deinen Fragen, Xeon CPUs wie andere Turbotakt-Prozessoren lassen sich u.U. auf fixe Taktraten einstellen, damit fallen Schwankungen weg die performancerelevant sind, zunächst nur im kleinen Maßstab, aber bei Dauerbetrieb summiert sich das auf, alles was schwankt, belastet die Stromversorgung, kann schlecht programmierte Software abstürzen lassen (Beta Projekte bei Folding !), beansprucht die Kühlung falls temperaturgeregelt ... Lüfter drehen rauf und runter über das übliche Maß hinaus und werden m.E. am ehesten über Gebühr abgenutzt.

Überall dort wo Hardware nicht für Dauereinsatz konstruiert ist, kann es frühzeitige Ausfälle geben (oft vergessen Netzteile, Kondensatoren auf Mainboards für das CPU-OC), die CPUs und GPU Chips selbst halte ich inzwischen für selten zu zerstörende Einzelkomponenten. Nutzt leider wenig, wenn andere Zuliefer-Komponenten frühzeitig instabil werden bzw. ausfallen.

Mir ist es trotz OC bei CPUs und GPUs noch nie gelungen, eine Komponenten damit zu zerstören oder vorzeitig ersetzen zu müssen. Jedoch das Maximal-OC Setting aus der Anfangsnutzungszeit musste ich verschiedentlich zurücknehmen, weshalb ich mittlerweile nur "normales" Tuning empfehle, schlicht aus Gründen des Zeitaufwands, mit eingebauten Toleranzen, damit ein Dauerbetrieb gewährleistet ist. Das halte ich für DC Anwendungen, gerade bei Folding@home, für geboten. Man will letztlich sinnvolle Rechenarbeit übernehmen anstatt durch ungültige Ergebnisse, mehrfaches Neuberechnen etc. den wissenschaftlichen Fortschritt zu bremsen. Oder sich zu ärgern und aus Frust aufzuhören. Pausieren hingegen ist eine von mir gepflegte Tugend.

PPD halte ich - um mal zu einem Ende zu kommen - als wenig geeignetes Maß für einen Beitrag, wenn schon dann fertige Ergebnisse, Zahl der Workunits, bezogen auf den Projektumfang, der dann hoffentlich in einer Auswertung mit wissenschaftlicher Expertise mündet, also einer Veröffentlichung, Vorbereitung einer weiteren Untersuchung bis zur Feldphase mit tatsächlicher Medikamentenforschung. Das bleibt für mich Ziel hinter dem Rechenprojekt Folding@home.

Punkte sollten sein ein Maß für die investierte Rechenleistung. Das klappt ausgezeichnet für kurze Beobachtungszeiträume, das versagt völlig über Jahre hinweg, geschuldet der Chipentwicklung wie geänderter Prämissen, wie etwa dem Bonus System oder Voraussetzungen für bestimmte Zugänge (SMP-BigWu). Da wurde den treuen (und investitionsbereiten) Folding Teilnehmern schon vieles zugemutet.

Bei GPUgrid bspw. erhält man für alle Beteiligungen an Forschungsprojekten diverse "Badges" (siehe GPUgrid > Volunteers), also Orden bzw. Verdienstorden, die sowohl die Menge wie qualitativ die Beteiligung an Rechenprojekten widerspiegeln. Die inhaltlichen Forschungsziele sind dort ähnlich, auch deren Reputation ist belegt mit Veröffentlichungen.

Schweife schon wieder, sorry für off topic, halte mich zukünftig etwas zurück, das meiste kann man eh irgendwo nachlesen. Für Besitzer mit potenter Hardware gibt es jedenfalls Ausweichprojekte, die bei Auslastung, Störung, Unzufriedenheit etc. bei einem Projekt gute Alternativen bieten, mit ähnlich hohen Ansprüchen dahingegend, dass die abgelieferte Rechenarbeit "Gutes" bewirkt.

Falten ist Thema, back to topic. :D
 
So mein Server rechnet jetzt auch immer fleißig mit !:cool_alt:
 
-=Azrael=- schrieb:

Finde es schade das es das APP nur für Sony Geräte gibt, in deren Smartphones sind auch Qualcomm & Mediatek CPU's verbaut, also sollte es eigendlich auch für andere Geräte funktionieren. :( :(

Edit:
Habe mal eine email an Sony's APP Abteilung geschickt mit der Anfrage ob es möglich wäre auch andere Hersteller/Geräte zu unterstützen.
 
Zuletzt bearbeitet:
Gibt es eigentlich eine Möglichkeit zu sehen wieviel welcher Rechner errechnet hat, also in der Statistik ?
 
Irgenwie scheint mich der FAHControl Client nicht zu mögen, eigendlich wollte ich 2 PC's immer über nacht (~6Std) laufen lassen.

Während das eine System tadellos funktioniert, werden bei dem anderen die ID's für die Grafikkarten durcheinandergewürfelt die GTX 980 wird als GTX 480 angegeben und umgekehrt.
Eigendlich währe das nicht so tragisch würde das System nicht nach einer kurzen rechenzeit dann einen kompletten absturz/reboot machen. :(
 
Zurg schrieb:
... würde das System nicht nach einer kurzen rechenzeit dann einen kompletten absturz/reboot machen. :(

Übertaktet ?

Die GTX980 kann man sehr einfach im PT reduzieren, die GTX480 ist ein prima Kandidat zum Undervolten per BIOS Mod.

Falls es nur die Kühlung ist, Lüfter auf konstante Drehzahl stellen.
 
Also übertaktet ist die Karte nicht, sobald ich die GTX 480 ausbaue wird auch nur die GTX 980 erkannt und alles funktioniert ohne probleme (gleiches gilt für die GTX 480).

Bei dem Netzteil, was manche jetzt vermuten würden kann ich auch entwarnung geben hier ist ein "kleines" ANTEC HCP 1200W verbaut.

edit:
Eigendlich erst für später geplant wird die GTX 480 jetzt schon ersetzt, kann sein das sich die beiden Karten nicht mögen und das ID System deswegen durcheinanderwirbeln.
 
Zuletzt bearbeitet:
Ich bin auf ein ähnliches Phänomen gestoßen.

Ich habe meine Folding Grafikkarte in meinen Home-Server integriert, welcher mit einer AMD-APU ausgestattet ist.
Der Client erkennt sowohl die GPU-Einheit der APU als auch die externe GPU, kann sie aber nicht auseinander halten.
Sie sind schlichtweg vertauscht.
Ich habe die APU vom Folding ausgeschlossen, da sie zu schwach ist aber der Client vertauscht noch immer die GPUs.

Aber zumindest funktioniert das Folding an sich, wenn auch die falsche Bezeichnung für die GPU angezeigt wird.
 
Versucht man die GPU ID/Index manuell festzulegen, die Intel iGPU macht da keine zicken, wird aber auch nicht unterstützt.
 
Kann es sein das die GTX 960 nicht so der Hit ist für's falten ?

Project 9201 ~40k PPD also so ~75k hätte ich schon wenigstens erwartet. :freak:
 
Wie Du schon sagst mit OC bekommt man einen höheren PPD, die Effizienz ist dann aber dahin, nunja mal schaun ich lasse die erstmal rennen.

Bezüglich GTX 9XX werde ich auch noch bestimmt die ein oder andere frage haben, da ich die 3 vorhandenen Modelle in meinen PC's verbaut habe.

P.S.
War halt Zeit meine alten GTX 480 & GTX 295 in rente zu schicken ...
 
Es kommt ja auch auf den Core/WU an wieviel PPD die Karte macht, meine GTX970 macht auch nicht immer ihre 260k, gibt auch WUs wo sie nur knappe 70k schafft.

Die Karte ist mir atm zu teuer und die Sache mit der GTX970 hat noch ein bitteren Nachgeschmack.
 
Zuletzt bearbeitet:
Zurück
Oben