News Gemeinsam gegen das Virus: Folding@Home startet Projekt gegen COVID-19

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Ich frage mich, ob die Proteine-Faltung überhaupt so schnell ein Ergebnis liefern wird, um gegen Corona anzutreten. Wenn CureVac schon mehrere (vielversprechende) Kandidaten für ein Impfstoff im Labor zum Testen hat, dann sieht es eher so aus, dass F@H Ergebnisse liefert nachdem Covid-19 schon längst kein Thema mehr ist.

Das es keine separate Corona-Einstellung im Client gibt, ist auch geschickt, macht man doch schön Werbung und haut gleich alle anderen WUs mit durch.
Insgesamt hört sich das schon fast nach einem Marketingtrick an, um die liegenden Projekte mal abzuarbeiten. Folding klingt für mich wie Grundlagenforschung fernab von praktischen Anwendung in naher Zukunft, also nichts, was wir gegen Corona brauchen.

Dazu habe ich quasi jeden guten Glauben an den Amerikanern verloren, nachdem sie versucht hatten, die vielversprechende Forschung von CureVac aufzukaufen und in America First Manier zu verwenden. Neben den ganzen anderen Unruhe stiftenden und erpresserischen Aktionen der US-Regierung.

Ich hatte vor gut zwei Jahren auch mal F@H laufen gehabt. Ein merkwürdigen Nebeneffekt hatte ich bei einem alten Spiel, welches ich mir über GoG erneut gekauft hatte. Es lief nur richtig rund, wenn F@H im Hintergrund werkelte, ohne gab es merkwürdiges Zucken der Grafik alle paar Sekunden. Ansonsten hatte ich das Interesse an F@H verloren, weil ich irgendwie das Gefühl hatte, dass sich nicht wirklich was bewegt. Informationsfluss war da nicht so dolle. Wenn man sich die Listen und Platzierungen angeschaut hat und wie schnell man da auch mit Mittelklasse vor rückt, waren es auch nicht so viele Leute, die da aktiv mitgemacht haben, es schien Stellenweise einfach tot zu sein, nur von einigen wenigen gutgläubigen Nerds mal abgesehen (möglicherweise ein Indiz für den "Marketinggag" zum neuen Aufflammen von F@H) . Und man muss mir glaube ich erst genau erklären, inwieweit man sich von gefalteten Proteinen Heilung diverser Krankheiten verspricht.

Kurz: Ich bin da sehr skeptisch, insbesondere im Bezug auf ein Nutzen gegen Covid-19

Wenn hier schon öfters Rosetta angesprochen wurde: Wer steckt dahinter?
 
  • Gefällt mir
Reaktionen: zEtTlAh
iNFECTED_pHILZ schrieb:
Nach einem ersten Testlauf gestern nicht mehr zum Starten bekommen. Re-install hat nicht geholfen.
Auch das nur die gpu und nicht CPU rechnet ist schade.

Aber prinzipiell ne gute Sache.. Hoffe sie kriegen es noch gefixt
Bei gleichem Wattverbrauch bringt die GPU 10 Mal mehr Leistung..
 
  • Gefällt mir
Reaktionen: zEtTlAh
iNFECTED_pHILZ schrieb:
Kann ich nicht beurteilen. Hast da was handfestes zu?
Steht doch in der App bei ppd Points per day.. und wenn du einen wattzähler hast kannst du auch sehen wie die verbräuche im Verhältnis stehen wenn nur CPU oder nur GPU laufen
In meinem Fall ein 2700x gegen eine 1070 non to
70000 points per day gegen 700.000 points per day
 
Schnipp959 schrieb:
Leider ist mMn der Strom zu teuer in Deutschland um da mitzumachen, aber finde es schon ein sinnvolles Projekt wenn die Ergebnisse wirklich allen zugute kommt.
Der Strom zu teuer... Oh Mann,dein Ernst?
Dann mach bitte den PC aus und poste nicht mehr in Foren. Braucht nämlich Strom.
Wenn du dann den PC aus hast, rechne mal hoch, was dich eine Stunde Boinc/Rosetta am Tag mehr kosten würde, wenn du es zB laufen lassen würdest, während du so einen Senf in Foren schreibst.

Ich verrate es dir: wenn du einen krassen mega-pc hast, der 1000W braucht (was die wenigsten haben), du den Verbrauch fürs Foren-Posten abziehst, (bei deinem mega-pc bestimmt 200w) wirst du auf einen Mehrverbrauch von vielleicht 800W kommen. In einer Stunde, wohlgemerkt.
Bei einem Strompreis von 32cent kW/h würdest du also megamäßige 25,6cent für eine Stunde an Corona spenden. Wow, also da kann man echt dran kaputt gehen.

Sorry, muss los, Klopapier kaufen.

PS: ich sehe grade an deiner SIG, dass du ein 550w nt hast. Damit kannst du keine 1000W verbrauchen... Halbiere die stündlichen Kosten bitte selbst
 
  • Gefällt mir
Reaktionen: Aluminiuminimum und PS828
Vindoriel schrieb:
An sich eine gute Sache, aber dem stehe ich skeptisch gegenüber und eigentlich sollte es jeder, der am Wochenende die Nachrichten verfolgt hatte, auch sein.

Stichwort: CureVac.

Und dieses Projekt ist rein amerikanisch (quasi wir würden unseren wirtschaftlichen Gegner unterstützen), verstehe nicht, warum hier die "Werbetrommel" gerührt wird.

So wie ich die Leute von F@H verstehe, wird nach erster Durchsicht der Daten alles hochgeladen und für alle - d.h. weltweit - frei zur Verfügung gestellt. Das passt zur Wissenschaftsgemeinschaft. Und über F@H laufen sonst wohl vor allem Projekte von "Grad Students", also keine Privatforschung.

Ned Flanders schrieb:
Anyway, bei diesem speziellen Projekt werden die bei FAH einfach versuchen den Fold der Proteine des COV Virus zu errechnen damit dieser Fold dann diversen Molecular Docking Modellen zur Verfügung steht. Darin haben sie ja Erfahrung. Beim Molecular Docking, dem zweiten Schritt, werden dann alle schon zugelassenen Strukturen versucht zu docken damit möglichst schnell ein aussichtsreicher Wirkstoff identifiziert wird der Bindeaffinität/Aktivität an COV Oberflächenproteinen hat. Schon zugelassene Wirkstoffe werden priorisiert damit nicht erst noch durch das ganze Zulassungsverfahren gegangen werden muss. Das Docking gegen Oberflächenproteine ist afaik was Sierra und Summit aktuell rechnen.

Da du ja offenbar ganz guten Einblick hast: Wie viel Sinn macht es aus deiner Sicht, aktuell für F@H zu rechnen, wenn parallel auf „den Großen“ Ähnliches oder gar Gleiches läuft?

zEtTlAh schrieb:
Und man sollte sich eben Gedanken machen, ob man eine 35W NUC 100 Stunden Rechnen lässt, die dann viel zu spät ein veraltetes Ergebnis liefert oder eine moderne NVidia/AMD Grafikkarte.

Nun, auch das dürfte Quatsch sein. Eine halbwegs aktuelle 35 W-CPU rechnet nicht so massiv langsamer. Leistung skaliert nicht linear mit der Leistungsaufnahme, denn die (steigende) Spannung geht quadratisch in die Gleichung ein. Und einzig bei dem Projekt „Help Stop TB“ (auf World Community Grid) hat meine CPU bisher bis zu 16-17 Stunden gerechnet. „Normale“ WUs dauern bei mir (Core i7-4790K) zwischen gut einer und vielleicht 3,5 Stunden.

Aber selbst wenn ein NUC 10 Stunden für so eine Aufgabe braucht, dann ist das noch absolut im Rahmen. Die verschiedenen Projekte geben dir normalerweise zwischen 3 und 10 Tagen, um die fertiggerechnete Geschichte hochzuladen. Solltest du dann noch zu spät dran sein, vergeben sie die Aufgabe wohl noch mal an jemand anderen.

Theobald93 schrieb:
Wichtig ist auch nicht mit allen verfügbaren Threads CPU-WUs zu rechnen, damit die GPU-WUs nicht ausgebremst werden.


Rechne zurzeit CPU-WUs bei Rosetta@Home via BOINC, da gibt es genug WUs.
Bei Folding@Home rechne ich mit der GPU, aber bekomme zurzeit kaum WUs.
Wie verhält es sich denn bei Rosetta? Wie viele Threads musst du abschalten, damit die Grafikkarte bei F@H gut ausgelastet ist?


Vielleicht zum Schluss noch mal ein kleiner Leitfaden zur effizienten Unterstützung wissenschaftlicher Berechnungen.
  • Lasst den Rechner nicht extra an, nur damit er cruncht. Pausiert am besten auch, wenn der Sommer naht und eure Bude zu warm wird und ihr die Abwärme letztlich rauslüften müsstet. Solange man diese zum Heizen der Räumlichkeiten nutzt, ist das zusätzlich in die Luft geblasene CO2 ein Stück geringer.
  • Ihr könnt ohne Probleme nebenher arbeiten, spielen (mit FPS-Limit) oder was auch immer ihr am Rechner so macht. Ich habe z.B. übers Wochenende viel Anno 1800 gespielt und keinerlei Einschränkungen gespürt (bis auf Ruckeln der Bilder auf dem Ladebildschirm). Dabei war es egal, ob nur 6 von 8 Threads mit CPU-WUs beschäftigt waren oder alle 8 … oder gar noch auf der GPU entsprechende Berechnungen liefen. Einziger Nachteil ist, dass bei voll ausgelasteter CPU natürlich nicht mehr die höchsten Turbotaktraten greifen. Das sind dann gegenüber geringer Last meist so 200-400 MHz weniger Takt.
  • Nutzt tendenziell nur halbwegs aktuelle also effiziente Hardware. Bei AMD ab Ryzen, bei Intel mMn alle Core-Prozessoren, jedoch mit der Einschränkung, dass es kein per Übertaktung oder von Herstellerseite ans Limit getriebener Prozessor sein sollte wie z.B. ein 9900K. Mein 4790K bspw. stinkt im Vergleich mit einem Ryzen 1700 oder Ryzen 3600 ziemlich ab. Deshalb dürfte es wohl seine letzte Crunch-Saison werden. Merke: Je geringer die offizielle TDP-Angabe, desto effizienter wird gerechnet. Denn der höhere Takt wird immer mit deutlich höherem Verbrauch erzielt.
  • Bei Grafikkarten kann man bei NVIDIA aktuell mit der 10x0er-, 1660er- oder 20x0er-Generation nichts falschmachen. Bei AMD sollte es wohl besser eine 5500/5600/5700 (XT) sein. Die Vegas sind bei Spielen nicht so effizient. Weiß jemand, wie sich das so bei GPGPU-Sachen verhält?
  • Wenn ihr beim Coronavirus mitmachen wollt … geht raus und steckt euch an. Nein, Scherz. F@H bietet wohl bisher vor allem WUs für die GPU, d.h. wenn ihr da nicht ein klein wenig im Client konfiguriert (CPU-Slot entfernen), rechnet auch die CPU mit und berechnet auch ganz andere Projekte.

Kleines Verbrauchsbeispiel von meinem System (Core i7-4790K mit 45 mV UV, 32 GiB RAM, Powercolor RX 5700 Red Dragon im Silent-BIOS mit ≈70 mV UV, 1 SSD, 1 HDD, 3 Gehäuselüfter, 400 W 80PlusGold-Netzteil), gemessen an der Dose:
  • idle: ≈65 Watt
  • BOINC: ≈125 Watt => CPU-WUs für das Microbiome Immunity Project, bei anderen Projekten auch mal ≈145 Watt
  • BOINC (6 von 8 Threads MIP) + F@H auf der GPU: ~ 260 Watt => nur GPU dürfte bei mir so bei 220 Watt liegen. Kann ich leider nur gerade nicht gegenprüfen.
Wenn also mein Rechner normal z.B. 6 Stunden pro Tag (idle) läuft, verbraucht er nun 1170 Wh mehr. Bei 0,28 € / kWh macht das etwa 33 Cent pro Tag bzw. 10 € pro Monat. Davon kann man wohl gut ¼ für eingesparte Heizkosten abziehen, zumindest hat mir mein Vater das vor 10-15 Jahren mal so erklärt, dass mit Strom heizen etwa 3x so teuer ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
Nureinnickname! schrieb:
Hat irgendein Folding@Home Projekt denn bis jetzt irgendwelche Erfolge vorweisen können? Oder alles nur Energie und somit Geld verbrennung?

Ich bin mal der Frage "überall" im Netz nachgegangen und konnte so gar nichts Handfestes finden. Die Frage wurde auch sonstwo mehrfach gestellt (auch in der Vergangenheit) und es gab nie eine konkrete Antwort dazu, trotz der über 200 veröffentlichten Publikationen. Den aktuell vermittelten Eindruck, man würde helfen, ein Corona-Gegenmittel zu entwickeln, finde ich daher auch maßlos übertrieben. Man sollte es so betrachten, das ist ein verteiltes Rechennetzwerk einer privaten Uni, mit dem das Falten von Proteinen simuliert wird. Das mag irgendwo irgendwann seinen kleinen Beitrag zur Forschung generell leisten, das ist auch in Ordnung so,
aber mehr auch nicht. Daß die Unternehmen, die aktuell an einem Impfstoff arbeiten, konkret von F@H profitieren, lässt sich nirgends feststellen.
 
Ja über die aktuellen politischen Entwicklungen zwecks Corona vs Trump vs die Welt lässt sich streiten. Ich denke aber das man nicht selber auch Trumpen muss sondern wer will mit machen kann.

Die wichtigsten Workloads machen die Supercomputer nicht umsonst. Und da denke ich das die Ergebnisse geteilt werden.

Ich betreibe das Folding nur wenn ich am PC bin und wenn ich auf Arbeit bin. Sonst bleibt der PC aus.
Meine Beobachtung ist das die Gpu die Projekt 17xxx workloads macht und die CPU die Projekt 14xxx.

Wegen der Stromkosten werde ich es dieses Mal auch nur bis Ende März machen.


Ironie mode
Ich denke aber bis dahin haben wir aber das Toilettenpapier Konsortium entlarvt
 
Ich bekomme leider kaum noch Aufgaben ...
 

Anhänge

  • F@H Keine Aufgabe.png
    F@H Keine Aufgabe.png
    40,4 KB · Aufrufe: 443
Ich lasse meine Kiste nicht für den Profit einer US-Uni rechnen, an der zahlreiche US-Unternehmen beteiligt sind (America first).

Wenn dafür keine europäische Großrechner Kapazität zur Verfügung steht, weiß ich auch nicht weiter.
 
  • Gefällt mir
Reaktionen: HardRockDude und daivdon
Hab jetzt auch mal F@H ausprobiert und zumindest läuft es, CPU und GPU rödeln brav rum. Allerdings seh ich im Viewer immer nur das Demoprotein und im Log steht dann immer "ERROR:Receive error: 10053: Eine bestehende Verbindung wurde softwaregesteuert durch den Hostcomputer abgebrochen."
Auch die Webansicht spinnt rum und lädt sich alle 2s neu, unten steht auch immer "warten auf 127.0.0.1". Ist da irgendwas mit der 127.0.0.1 falsch eingestellt? In der Hostsdatei bei mir steht jedenfalls nix drin und ne Firewall hab ich nicht, außer dem was bei Win10 dabei ist.
 
Chris007 schrieb:
Steht doch in der App bei ppd Points per day.. und wenn du einen wattzähler hast kannst du auch sehen wie die verbräuche im Verhältnis stehen wenn nur CPU oder nur GPU laufen
In meinem Fall ein 2700x gegen eine 1070 non to
70000 points per day gegen 700.000 points per day
Ohne das die CPU aktiv mitrechnet kann ich schlecht die Punkte vergleichen. Aber dafür müsste das Tool allgemein mal wieder funktionieren bei mir
 
Knut Grimsrud schrieb:
Nun, auch das dürfte Quatsch sein. Eine halbwegs aktuelle 35 W-CPU rechnet nicht so massiv langsamer. Leistung skaliert nicht linear mit der Leistungsaufnahme, denn die (steigende) Spannung geht quadratisch in die Gleichung ein.

Zum Glück hast du "dürfte" geschrieben :) Wenn deine Theorie stimmt, dann würden in den Rechenzentren lauter Notebook CPU´s und Atom´s eingesetzt anstatt dicken Xeons... Dass übertakten nichts bringt, da gebe ich dir recht.

Aber von Effizienz zu reden, oder gar zu behaupte, dass CPU´s nicht deutlich langsamer sind, ist absoluter quatsch. Lass eine mittelmäßige CPU 120 GFlops haben... bei um die 100 Watt, eher mehr. Eine Mittelklasse GPU schafft bei knapp doppelten Verbrauch aber über das 10fache an GFlops... Da noch von Effizienz der CPU zu sprechen ist ist lachhaft.

Und die Aussage, dass CPU WU´s kaum länger dauern liegt nicht daran, dass sie genau so schnell sind sondern daran, dass die WU´s deutlich kleiner sind !

Das einzige wo man GPU´s einsetzen sollte sind WU´s, die schlicht nicht auf einer GPU gerechnet werden können.
 
Gnah schrieb:
Ich muss ehrlich zugeben, nachdem die USA versuchen weltweit die Exklusivrechte für Impfstoffe zu Corvid-19 aufzukaufen ist mein Willen, den Amis bei deren eigener Forschung mit meinen Rechenknechten zu helfen doch sehr deutlich abgekühlter, als er das sonst wäre.

Bin der gleichen Meinung. Die haben genug Rechenressourcen und mit dieser Aktion gibt es von mir sicherlich keine Hilfe für die USA
 
Knut Grimsrud schrieb:
Wie verhält es sich denn bei Rosetta? Wie viele Threads musst du abschalten, damit die Grafikkarte bei F@H gut ausgelastet ist?
Ich lasse bei mir 2 von 16 Threads frei, also rechne 14 Singlethreaded Rosetta@Home WUs gleichzeitig.
Aber das kann man einfach testen indem man die GPU-Auslastung in bspw GPU-Z beobachtet.

Knut Grimsrud schrieb:
Um 3 (in Games) etwa gleichschnelle Karten zu vergleichen, die stromschluckendere Vega56 hat viel mehr GPGPU-Performance:
Vega56: https://www.techpowerup.com/gpu-specs/radeon-rx-vega-56.c2993
FP32 (float) performance: 10.54 TFLOPS
FP64 (double) performance: 659.0 GFLOPS
GTX 1070: https://www.techpowerup.com/gpu-specs/geforce-gtx-1070.c2840
FP32 (float) performance: 6.463 TFLOPS
FP64 (double) performance: 202.0 GFLOPS
GTX 1660ti: https://www.techpowerup.com/gpu-specs/geforce-gtx-1660-ti.c3364
FP32 (float) performance: 5.437 TFLOPS
FP64 (double) performance: 169.9 GFLOPS
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Theobald93 schrieb:
die stromschluckendere Vega56 hat viel mehr GPGPU-Performance:
bei der Vega einfach das Powertarget runterziehen. Zumindest bei folding @Home. Ohne irgendwelche zauber undervolting Experimente, nur Powertarget -50% taktet die vega56 immer noch ca.1350Mhz statt 1550 -1600Mhz, aber verbraucht "nur" noch 80-90Watt
 
  • Gefällt mir
Reaktionen: n8mahr und Valeria
Knut Grimsrud schrieb:
Da du ja offenbar ganz guten Einblick hast: Wie viel Sinn macht es aus deiner Sicht, aktuell für F@H zu rechnen, wenn parallel auf „den Großen“ Ähnliches oder gar Gleiches läuft?

Die gleichen Datensätze rechnen die ziemlich sicher nicht. Das Ganze ist eher ergänzend und jeder Gruppe hat einen eigenen Ansatz (ich spekuliere hier aber nur). Wie sinnvoll das Ganze ist kann man erst beurteilen wenn entweder nichts oder eben etwas sinnvolles "entdeckt" wird. Bei der Frage führe ich immer gerne SETI an. Jetzt, nachdem es eingestellt wurde hält es jeder für eine gigantische Energieverschwendung. Hätten sie etwas gefunden sähe es diametral anders aus. Der akademischen Wissenschaft zu spenden ist eigentlich nie sinnlos.

Ich rechne selbst bei verteiltem Rechnen mit. Mein Rat ist nur, die Kiste nicht extra dafür durchgehend laufen zu lassen und die Energieeffizienz zu steigern. Meine CPU läuft mit einer cTDP von 50W. und die GPU mit einem Power Target von -40% solange ich nicht spiele (was selten vorkommt) oder selbst an was rechenlastigem arbeite. Zumindest die Ryzen sind bei 50W noch sehr schnell im Multithread unterwegs.

Mein Favorit wäre ja ein BOINC Projekt das einfach Bitcoin Mining macht und mit dem erwirtschafteten Gewinn Stipendien und Forschungsgrants finanziert (gegen peer Review). Gibts aber nicht.
 
  • Gefällt mir
Reaktionen: soggi, Knut Grimsrud und Rockstar85
soggi schrieb:
Wird doch gemacht, hier nur eine Meldung dazu: Die weltweit schnellsten Supercomputer rechnen an Lösungen gegen Coronavirus. (wie schon von jmd. anderem geschrieben)


Die Website sollte darüber Aufschluss geben, an sonsten wurde die Frage sicher schon dutzende bis hunderte Male im Folding@home Support Forum gestellt.

Die Antwort lautet kurz : nein


soggi schrieb:
Da wurden mehrere Papers dazu veröffentlicht, Vijay Pande hatte da auch mal einen Blog dazu. Seitdem die vor einigen Jahren die Seite neu designt haben, sehe ich da aber auch nicht mehr so durch.

Die Antwort lautet kurz : nein

Wäre schön, wenn man diese Fragen, die ja nicht zum erstenmal und nicht nur hier gestellt wurden, entsprechend beantwortet
anpinnen würde, aber bei dem aktuellem Hype ist ein seriöser Umgang vielleicht zuviel verlangt.
 
@Theobald93 ich nutze für BOINC alle threads der CPU sobald 25% gesamtlast unterschritten, und eine Minute keine Eingabe getätigt worden ist.

F@H hab ich zwei GPUs dran hängen (R9 390X und radeon-pro-wx-3200) deren auslastung trotz allen aktiven threads im Bereich immer bei 100% liegt laut HW Info, im Taskmanager zeigt es allerdings immer nur 0 oder 1% an. ^^

Weiß grad nicht warum du zwei threads frei lassen musst
 
macht Folding at home nur corona workunits? Denn ich kriege zur Zeit keine neuen mehr, nachdem ich gestern noch an einer Corona Workunit gerechnet habe.
Macht den Eindruck als hätte man nicht genug Workunits für alle?? Oder ist es bestätigt seitens foldingathome dass es Probleme gibt?
 
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben