Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Folding@Home Computerbase Team Gründung! Wer ist dabei?
da hilft wohl nur ausprobieren, du solltest aber auch die queue-datei speichern. ich würd einfach den ganzen ordner sichern wo die work drin ist und den überordner und nach der neuinstallation wieder retour kopieren. denke aber schon dass das gehen sollte
Das Kopieren ganzer Ordnung habe ich bereits erfolgreich zwischen verschiedenen Plattformen (Board samt CPU) angewendet, waren sowohl normale (SingleCore-) CPU-Clients, GPU1-Client (identische Grafikkarte !) wie GPU2-Clients (gleicher GPU-Typ, Wechsel auf anderes Board).
Da der Client bei Fehlern versucht, den letzten Speicherpunkt wiederherzustellen/zu laden, ist die Erfolgsaussicht m.E. sehr hoch. Problematisch sind eher Abstürze des ganzen Rechners, falls danach versucht wird den Order von der gecrashten Festplatte auf eine anderes System zu übertragen, kommt möglicherweise eine Fehlermeldung beim Start mit EUE o.ä. Selbst dann könnte eine Neuinstallation des Clients das Problem lösen, also eine Sicherungskopie des Ordners bereit halten.
Naja da muss ja erstmal f@h ein update machen und dann noch extremoverclockers ein Update, damit die Punkte angezeigt werden können.
Aber das ganze machen wir doch nicht zum schwanzmark vergleichen
Die letzten Tage gabs auch immer wieder Probleme mit den Workservern für Nvidia GPU. Da die etwas schnelleren Grafikkarten solche WUs in 0,5 - 3 Stunden meistens durchgerechnet haben, entsteht wir selbst bei 4h Downtime schon ordentlich Leerlauf.
"Ein interessantes Phänomen, welches Nvidia so nicht kommuniziert hatte, lief uns bei unseren Tests mit der CUDA-gestützten Folding-at-Home-Version für die Geforce-GPUs über den Weg. Der Folding-Client nutzt fast ausschließlich die Shader-ALUs für seine Berechnungen und so liegt es nahe, war aber nicht unbedingt zu erwarten, dass während des Protein-Faltens nur die Shader-Einheiten aus dem Idle-Modus in den Last-Zustand versetzt wurden. Während Kern- und Speichertakt bei 300 bzw. 100 MHz verharrten, liefen die Shader mit der vollen 3D-Taktrate."
Eigentlich müßte Kern- und Speichertakt auf 300/100MHz bedeuten, daß die Stromaufnahme unter FAH sehr gering ist, kann das jemand bestätigen ? Noch hab ich meine GTX nicht ...
hmmm das wär ja echt interessant. dann brauch ich ja speicher und core gar nicht mit zu OCen. das könnte auch der grund sein, warum man nebenbei noch zocken kann. weil wenn alle 3 komponenten durch F@H ausgelastet wären, wäre zocken doch eher schwierig =) vor allem wenn der speicher übergeht
edit: so jetzt hab ich mal alles getrennt OCed und getestet, am wenigsten wirkt sich der Speicher beim übertakten, besser schon der Core und am meisten profitiert man vom Shader, alles zusammen bringt den größten performance zuwachs
DefaultClock 600/1500/900: ~2100iter/sec
CoreOC @700: ~2200iter/sec
MemoryOC @995: ~2100iter/sec
ShaderOC @1803: ~2400iter/sec
AllOC @721/1842/995: ~2600iter/sec
somit kann man sagen Core+Shader OCen bringt noch mal mehr leistung, der Speicher dagegen dürfte eher in der messtoleranz liegen
Das ist Interessant, dann könnte ich mir bei RivaTuner noch ein f@h Profil machen, bei dem nur der Shader auf 3D laufen, und den Core und Speicher dann auf minimum.
Edit: Komisch, FahMon zeigt mir an das ich einen Fortschritt am Core habe, aber das Display Programm sagt mir: "Core is not running now". Im Log ist auch nichts zu sehen davon das es nicht laufen würde. Hat jemand das Problem auch?
hmmm starte es einfach mal neu. vielleicht hilft das.
also wenn ich core und speicher runterstelle sacken die iter/sec auf 1600 runter, wenn ich nur den speicher runtertakte hab ich 1800iter/sec. also ich glaub dass eine ausgewogenen taktung am besten ist!
ich bin am überlegen, ob ich dem Team joine, allerdings bin ich noch am Zweifeln, ob der Sinn des Projektes wirklich so hoch ist.
Denn zum einen steigen die eigenen Stromkosten beträchtlich (bei mir wären das im Jahr über 50€) und zum anderen scheinen mir da reine Cluster effizienter zu sein.
Oder welche Argumente sprechen eurer Meinung nach gegen diese Kritikpunkte?
Niemand zwingt dich deinen Rechner unentwegt laufen zulassen. Wenn ich ne DVD anschaue (bei mir läuft alles übern Rechner) werkelt halt F@H im Hintergrund mit. Das erklärt allerdings auch meinen jämmerlichen Punktestand.
Niemand zwingt dich deinen Rechner unentwegt laufen zulassen. Wenn ich ne DVD anschaue (bei mir läuft alles übern Rechner) werkelt halt F@H im Hintergrund mit. Das erklärt allerdings auch meinen jämmerlichen Punktestand.
Klar doch, aber bis auf die Punkte, dass man einen winzigen Teil zur Forschung beiträgt und man gut benchen kann, sehe ich nicht so wirklich Vorteile darin???