News Gemeinsam gegen das Virus: Folding@Home startet Projekt gegen COVID-19

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
@Chris007

Das SARS-CoV-2 hat insgesamt 10 codierende Gene. Die Möglichkeit da endlos drauf 3D Strukturen zu berechnen ist halt auch begrenzt würde ich annehmen. Ich bin aber auch kein Strukturbiologe.

Vindoriel schrieb:
Stichwort: CureVac

Nein, das steht nicht in Konkurenz. Zum einen rechnet FAH, Rosetta etc nicht für eine komerzielle Firma sondern für akademische Labore die Ihre Ergebnisse veröffentlichen (was nicht heisst das man diese nicht patentieren könnte, aber ein Patent kann jeder kaufen, nicht nur Land X) zum anderen stellt CureVac keine peptidbasierten Impfstoffe her sondern RNA basierte. Grundsätzlich profitieren alle von wissenschaftlichem Fortschritt und einem Impfstoff.

Ehrlich gesagt empfinde ich die Idee einer nationalen Wirtschaftsstrategie im Angesicht einer noch nie dagewesenen Pandemie an der täglich bald 1000 Menschen sterben und das soziale dasein zum Stillstand kommt, verachtenswert. Je früher Lösungen gefunden werden, desto besser. Wo ist erstmal egal. Je besser man die politischen Rahmenbedingungen für die heimische Wissenschaftslandschaft gestalltet, je eher passiert das eben bei uns. In Zeiten in denen man als Wissenschaftler aber als erstes ein verächtliches "mit Tierversuchen?" ins Gesicht bekommt wenn man sagt was man tut und als Wissenschaftler nur befristete Verträge bekommt stehts darum aber eben nicht besonders gut in diesem Land.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: karl_laschnikow und soggi
Bei mir rennen gerade 2 Rechner unter volllast. Der 2700x, 1700x, die VII und mein RX480 CF sind mit Corona beschäftigt.
( so kann man die Kühlung auch testen 😜)
 
  • Gefällt mir
Reaktionen: PS828
zEtTlAh schrieb:
dann würden in den Rechenzentren lauter Notebook CPU´s und Atom´s eingesetzt anstatt dicken Xeons.
In Sachen Takt und Leistungsaufnahme auf die Kerne gerechnet ist man da gar nicht soweit weg. Vergleiche doch mal einen 28-Kern Xeon oder gar ein 64-Kern Epyc mit Notebook-CPUs. Dazu gesellt sich eben noch ein größerer Cache und zusätzliche Befehlssätze und fertig ist die Wurst.

Es stimmt schon, dass die kleinen CPUs nicht viel langsamer rechnen, nur weil sie 65W oder gar 35W TDP haben statt 95W.

Warum du jetzt eine CPU mit einer GPU vergleichst.... Sollte klar sein, dass eine GPU an bestimmten Aufgaben deutlich besser rechnen kann, als eine CPU. Die GPU ist ja für gewisse Aufgaben spezialisiert, kann aber eben dadurch auch nicht alles. Daher gibt es immer noch Supercomputer ohne HPC-Karten obwohl in Sachen Leistung und Effizienz beim Bench mit Linpack nichts über HPC-Karten geht.

Da F@H teils verschiedene Aufgaben für die GPU und die CPU vorsieht, kann man auch davon ausgehen, dass man auch nicht mit einen NUC den Verkehr sonderlich aufhält. Das würde man auch mit angefangenen aber nicht beendeten WUs auch genauso hinbekommen, aber dafür ist das verteilte Rechnen ja auch ausgelegt, genauso wie man nicht sicher sein kann, ob die gelieferten Ergebnisse auch stimmen, wenn normal nicht einmal ECE-Speicher verwendet wird. Eine gewisse mehrfache Redundanz beim berechnen ist damit auch notwendig, um Fehler zu identifizieren. Ist einer zu Langsam, dann fällt er eben weg.
 
  • Gefällt mir
Reaktionen: Knut Grimsrud
q3fuba schrieb:
Driver sind alle aktuell, nutze aber Insider Preview, eventuell haben sie da noch nicht drauf Optimiert bzw. getestet?
Hab auch schon mit Bluescreen View den Fehler ausgelesen, es ist immer "PAGE_FAULT_IN_NONPAGED_AREA".

Ich finde es gibt kaum einen eindeutigeren Bluescreen als diese Exception hier. Speicherzugriff auf einen Bereich der nicht antwortet (oder eben nicht da ist). Das kann entweder ein Speicherfehler oder ein Treiberfehler sein.

Wenn man in Fehler kommt, die erst durch neue Lasten entstehen ist der Speicher tatsächlich nahe liegend, wenn du auf einem freigegebenen Build mit "finalen" Treibern unterwegs bist. Bei Beta-Software sieht das natürlich anders aus.

mic_ schrieb:
Bin der gleichen Meinung. Die haben genug Rechenressourcen und mit dieser Aktion gibt es von mir sicherlich keine Hilfe für die USA

Nationalismus ist keine Einbahnstraße. Nationalismus anderer sind ein schlechtes Argument für den eigenen Nationalismus.

Ned Flanders schrieb:
Bei der Frage führe ich immer gerne SETI an. Jetzt, nachdem es eingestellt wurde hält es jeder für eine gigantische Energieverschwendung. Hätten sie etwas gefunden sähe es diametral anders aus. Der akademischen Wissenschaft zu spenden ist eigentlich nie sinnlos.

Moment - "nichts finden" ist oft auch eine Erkenntnis! Mir ist eine ergebnisoffene Betrachtung an vielen Stellen lieber als wenn man versucht irgendwie ein Ergebnis herbei zu reden bzw. zu rechnen.

Ned Flanders schrieb:
Nein, das steht nicht in Konkurenz. Zum einen rechnet FAH, Rosetta etc nicht für eine komerzielle Firma sondern für akademische Labore die Ihre Ergebnisse veröffentlichen (was nicht heisst das man diese nicht patentieren könnte, aber ein Patent kann jeder kaufen, nicht nur Land X) zum anderen stellt CureVac keine peptidbasierten Impfstoffe her sondern RNA basierte. Grundsätzlich profitieren alle von wissenschaftlichem Fortschritt und einem Impfstoff.

Kleine Ergänzung (kein Widersprich!):
Ein Patent kannst du dir nicht einfach kaufen, das Patent beschreibt eine Idee und die Ämter prüfen ob diese Idee schutzwürdig ist. Jede Veröffentlichung ist dazu "patentfeindlich". Das heißt: Wenn über F@H eine Erkenntnis erlangt und veröffentlicht wird ist das nicht anderweitig patentierbar. Auch nicht von einer Trump-US-Behörde. Effektiv sorgt F@H dafür, dass solche Themen wie Exklusivität in der Medizin ein Ding der Vergangenheit ist.
Das ist aber auch immer etwas relativ. Immerhin finanzieren die Einnahmen durch Exklusivität auch wieder die Forschung. Allerdings wird genau das in der letzten Zeit immer häufiger missbraucht, und das ist ein Problem.
 
  • Gefällt mir
Reaktionen: Logic, soggi, Knut Grimsrud und eine weitere Person
Wenn ich jetzt mal meine 2 Rechner vergleiche, merkt man schon deutlich, das die VII mehr MI 50 Gene hat.
Beim Zocken, sind 2 RX 480, fast genau so schnell ( Profil vorrausgesetzt), wie die VII. Kommt es auf GPGPU an, läuft sie den 2 davon und dank UV, bei wesentlich weniger Verbrauch.
Die Chance mal sinnvoll Energie zu verballern, ist beim Folding@Home zumindest größer, wie beim zocken.
 
zEtTlAh schrieb:
Zum Glück hast du "dürfte" geschrieben Wenn deine Theorie stimmt, dann würden in den Rechenzentren lauter Notebook CPU´s und Atom´s eingesetzt anstatt dicken Xeons... Dass übertakten nichts bringt, da gebe ich dir recht.
Nun, das „dürfte“ habe ich gewählt, um die Aussage etwas netter zu formulieren. Stattdessen legst du nach. Natürlich werden in Rechenzentren keine Notebook-CPUs oder Atoms eingesetzt … aber eben auch keine CPUs für Desktop-Systeme. Serverprozessoren sind aber von ihrer Auslegung auf höhere Leistung/Watt und damit niedrigere Taktraten Mobilprozessoren ähnlicher. Und noch mal zu den Atoms: Vielleicht ist es dir entgangen, aber zur Zeit versuchen mehrere Anbieter Serverprozessoren auf Basis von ARM-Architektur zu etablieren. Das sind zwar keine Atoms, aber der Ansatz ist nicht unähnlich.

zEtTlAh schrieb:
Aber von Effizienz zu reden, oder gar zu behaupte, dass CPU´s nicht deutlich langsamer sind, ist absoluter quatsch. Lass eine mittelmäßige CPU 120 GFlops haben... bei um die 100 Watt, eher mehr. Eine Mittelklasse GPU schafft bei knapp doppelten Verbrauch aber über das 10fache an GFlops... Da noch von Effizienz der CPU zu sprechen ist ist lachhaft.
Gut, in dem Punkt habe ich dich wohl missverstanden. Ich nahm an, dass du nicht Äpfel mit Birnen vergleichen würdest. Mir ist schon klar, dass Grafikkarten die effizientere Option sind … vorausgesetzt die Projekte bieten GPU-WUs. Andernfalls geht es – wie du schon festgestellt hast – nur mit der CPU. Und dort sollte man dann auch auf halbwegs effiziente setzen.

zEtTlAh schrieb:
Und die Aussage, dass CPU WU´s kaum länger dauern liegt nicht daran, dass sie genau so schnell sind sondern daran, dass die WU´s deutlich kleiner sind !
Nun, ich habe nicht behauptet, dass CPUs die gleiche Aufgabe in ähnlicher Zeit schaffen, sondern nur erwidert, dass keine WU annähernd 100 Stunden braucht … womit dann auch das Problem des Zu-Spät-Ablieferns eher nicht besteht.

Theobald93 schrieb:
Um 3 (in Games) etwa gleichschnelle Karten zu vergleichen, die stromschluckendere Vega56 hat viel mehr GPGPU-Performance:

Vega56: https://www.techpowerup.com/gpu-specs/radeon-rx-vega-56.c2993
FP32 (float) performance: 10.54 TFLOPS
FP64 (double) performance: 659.0 GFLOPS
GTX 1070: https://www.techpowerup.com/gpu-specs/geforce-gtx-1070.c2840
FP32 (float) performance: 6.463 TFLOPS
FP64 (double) performance: 202.0 GFLOPS
GTX 1660ti: https://www.techpowerup.com/gpu-specs/geforce-gtx-1660-ti.c3364
FP32 (float) performance: 5.437 TFLOPS
FP64 (double) performance: 169.9 GFLOPS
Ja, die theoretischen Leistungswerte kenne ich auch. Mir geht es vielmehr um die Leistung bei solchen Berechnungen. Bleibt es da bei den (theoretischen) Verhältnissen zueinander?

Theobald93 schrieb:
Ich lasse bei mir 2 von 16 Threads frei, also rechne 14 Singlethreaded Rosetta@Home WUs gleichzeitig.

Aber das kann man einfach testen indem man die GPU-Auslastung in bspw GPU-Z beobachtet.
Japp, das fiel mir auch erst bei Betrachtung der Auslastung auf. Ich meine während des Installationsprozesses gelesen zu haben, dass man F@H gegenüber BOINC priorisieren könne, doch das funktioniert offenbar nicht. Selbst wenn ich allen F@H-Tasks im Taskmanager normale Priorität zuweise, wird die Grafikkarte nur etwa zur Hälfte ausgelastet.

PS828 schrieb:
@Theobald93 ich nutze für BOINC alle threads der CPU sobald 25% gesamtlast unterschritten, und eine Minute keine Eingabe getätigt worden ist.

F@H hab ich zwei GPUs dran hängen (R9 390X und radeon-pro-wx-3200) deren auslastung trotz allen aktiven threads im Bereich immer bei 100% liegt laut HW Info, im Taskmanager zeigt es allerdings immer nur 0 oder 1% an. ^^

Weiß grad nicht warum du zwei threads frei lassen musst
Was für Projekte berechnet dein Rechner bei BOINC?
 
B.XP schrieb:
Nationalismus ist keine Einbahnstraße. Nationalismus anderer sind ein schlechtes Argument für den eigenen Nationalismus.

Ich lasse mir kein Nationalismus vorwerfen, wenn ich sage, dass ein gieriges Land, welches NATIONALISTISCH nur an sich denkt und das Heilmittel "abkaufen" will, von mir sicherlich nicht unterstützt wird. In dieser Aussage steht frei, ob ich es anderen Ländern geben würde. Aber es steht explizit, dass no f*cking America First - in dieser Angelegenheit.

Wieso müssen Menschen wie du immer den Nationalismus ausgraben wo keiner ist? Ist das ein Reflex oder gar Krankheit?
 
Leider ist der Datenverbrauch höher als sonst, sobald Folding@home läuft, als LTE Nutzer nicht ganz unerheblich.

Und, im Ryzen Notebook lässt sich die Vega zwar gut nutzen, erhitzt sich dauerhaft aber auf 75 Grad.

So hab ich für CB dann nur ein paar CPU Threads durchlaufen lassen und es wieder deinstalliert.

PS gibt es eine Möglichkeit, die Vega des Ryzen 5 runter zu takten? Ryzen Master funktioniert auf dem Laptop leider nicht :(
 
@Knut Grimsrud
Vergleiche sind schwierig und anwendungsabhängig. Dazu kommt noch OpenCL vs CUDA wenn verfügbar. Und ob SP oder DP berechnet wird.

Ich rechne normalerweise GPU-only: Einstein@Home und Milkyway@Home -> also Astronomie-Kram ;)
Warum? Weil es auf BIONC kaum gute GPU-Projekte gibt und bei F@H kann man sich nicht die WU-Größe aussuchen, die WUs sind teilw zu groß und könnten ablaufen, bevor ich sie fertig gerechnet habe, da es nicht 24/7 sondern nur sporadisch läuft.
Zurzeit aber Rosetta@Home (CPU), aber die scheinen auch gerade Probleme zu haben.
 
@Knut Grimsrud ich lasse Rosetta, Asteroids, Einstein, LHC und bisher noch Seti rechnen. Aktuell verteilt auf alle 12 threads. Wenn ich irgendwann meinen Rechner fertig bauen kann sinds dann 64 threads, gerechnet wird immer wenn die CPU last unter 25% fällt und 1 min keine Eingabe kam.

F@H rechnet eigentlich immer, außer ich brauch meine GPUs. So haben CPU und GPUs bei mir immer schön zutun wenn ich es grad nicht brauche :)
 
Bin dabei. So richtig?

Die Team Nr. 70911 habe ich eine Weile gesucht. Die sollte man vielleicht hier im Eingangspost vermerken. (sorry falls ich sie überlesen haben sollte.)
 

Anhänge

  • Anmerkung 2020-03-18 075950.jpg
    Anmerkung 2020-03-18 075950.jpg
    196,3 KB · Aufrufe: 486
Kann mir einer mal folgende Frage beantworten:
Meine GPU (RX480) hat heute erstmalig einen WU zugewiesen bekommen.
Allerdings rechnet die GPU mit gerade einmal 3% Auslastung (Laut Taskmanager).

Eingestellt ist im FOH Client, dass die volle Power genutzt werden kann. Bei der CPU wird das auch so gemacht - die läuft am Anschlag.

Sollte die GPU nicht auch etwas mehr belastet werden? Wie ist das bei euch?
 
@Knut Grimsrud @Ozmog
Wir sind ja mit den Meinungen gar nicht so weit auseinander und ich wollte keinen angreifen. Die Zahlen und Fakten solltet ihr dennoch prüfen wenn ihr euch so weit aus dem Fenster lehnt. Hier geht es nicht darum, ob Word eine Sekunde oder drei Sekunden zum starten braucht. Hier gehts um WU´s. Ich hatte schon zu genüge WU´s die selbst auf dem (nicht sonderlich effizienten) 9900k ganze 18 Stunden rechnen (Singlecore). Deadline 72 Stunden. Verglichen mit der Singlecore Leistung eines Atom (ich nenne bewusst kein AMD Beispiel) einfach nicht machbar.

Zum Thema Effizient (Leistung pro Watt) gibt es auch zu genüge Webseiten. Hier mal 2 als Beispiel, auch wenn es nicht die beliebtesten Quellen sein dürften. Der zweite Link ist auch nur drin, weil dort die ganzen low power CPU´s mit aufgeführt sind. Vergleicht man die Tabellen kann man ganz gut interpolieren.

Seltsamerweise taucht kein Atom, kein NUC und keine Notebook CPU an der Spitze auf. So viel zum Thema Effizienz. Die sollen wenig Strom verbrauchen, bzw. bei Laptops lange auf Akku laufen. Nicht mehr und nicht weniger.

https://www.pcgameshardware.de/CPU-...Der-Effizienz-Index-fuer-Prozessoren-1341682/

https://www.cpubenchmark.net/power_performance.html

Und zum Thema ARM... Auf das Thema steige ich ein, wenn die CB Community anfängt sich ARM Rechner zuhause hin zu stellen und zu folden... So viel zum Thema Äpfel mit Birnen ;)
 
Auch lustig, ich rödel gerade an "These are high-priority CPU projects to simulate the main protease of the COVID-19."
Auf meiner GPU. :freak: Oder meinen die damit was anderes? :D
 
Herbynator schrieb:
Meine GPU (RX480) hat heute erstmalig einen WU zugewiesen bekommen.
Allerdings rechnet die GPU mit gerade einmal 3% Auslastung (Laut Taskmanager).
ich kann dir nicht sagen woran das liegt das der Taskmanager nur 5% anzeigt ( ist bei mir auch so ) aber guck mal mit GPU-Z nach, oder mit der Radeon Software, da wird eine deutlich höhere Auslastung angezeigt ( bei mir um die 80% )
 
Das folgende ist ein Minimalpost zu diesem Thema, um die Antwort hier möglichst kurz zu halten. Mit einer vollständigeren Antwort würde der Rahmen hier whs. bei weitem gesprengt werden.

------------------------------------

Zuerst mal mein Background, warum ich das hier schreibe und so viel Zeit dafür aufwende. Auch wenn ich heute in einer ganz anderen Branche arbeite, interessiert mich das hier zu Grunde liegende Thema schon sehr lange. Ich habe deshalb in der Schule auch Biologie als Leistungskurs gewählt und später folgende Studiengänge besucht: Biologie, Medieninformatik und Chemieingenieurwesen. Die absoluten Basics zum Verständnis bringe ich also mit. Die finale Beurteilung des Projektes kann ich damit natürlich nicht beisteuern, doch das kann selbst @Ned Flanders nicht, der augenscheinlich als Naturwissenschaftler arbeitet in einem (weitgehend) ähnlichen Bereich bzw. mit den entsprechenden Standards firm ist.

Hier mal ein paar Grundlagen zur Entstehung von Distributed Computing. Allen, die hier über "Stromverschwendung" schwadronieren, fehlt anscheinend das Hintergrundwissen aus welcher Zeit wir hier eigentlich kommen. Projekte wie FAH oder SETI@Home sind um die Jahrtausendwende entstanden, als Internetanschlüsse in Form von Flatrates immer günstiger und allgemein verfügbar wurden (um den Up-/Download von WUs sicherzustellen).

Zu dieser Zeit gab es zwar schon längst Stromsparmechanismen (seit speziellen Versionen des 486ers), doch war das im Alltag eher vernachlässigbar. Die damals vorwiegend verwendeten Betriebssysteme von Microsoft (Win9x) unterstützten nichtmal den HLT-Befehl (Na, wer erinnert sich hier noch an das Tool "Rain"?) und somit lief der Rechner verbrauchstechnisch immer unter Vollast - heißt hier, dass im "Rumidlen" nicht wesentlich weniger Strom verbraucht wurde als unter echter rechentechnischer Vollast.

An dieser Stelle setzten die Distributed-Computing-Projekte an - frei nach dem Motto "Wenn ein Rechner eh läuft und die meiste Zeit nichts zu tun hat, kann er doch auch was sinnvolles berechnen!".

Seit ein paar Jahren sieht die Sache da natürlich deutlich anders aus, weil die Stromsparmechanismen verbessert und ausgebaut wurden. Doch auch heute gibt es noch genügend Konfigurationen in denen der Betrieb von DC nicht wesentlich mehr Strom verbraucht (jedenfalls keine Größenordnung [eine Zehner-Potenz]), wenn man es einfach im "daily use" mitlaufen lässt.

------------------------------------

Was macht FAH? FAH macht meinem Verständnis nach absolute Grundlagenforschung (in Form von Simulationen), die die Basis für weitere Forschung (Simulation und Praxis) ist. Dabei werden Faltungsprozesse von Proteinen simuliert. Proteine können extrem komplex sein und durch die vorhandenen Strukturkaskaden (Primär-, Sekundär, Tertiär-, Quartär- und sogar Suprastruktur) sind sie natürlich auch fehleranfällig. Falsch gefaltete Proteine können u.a. Krebs auslösen. Die falsche Faltung kann ihren Urspung in Genmutationen im eigenen Genom oder in externen Quellen haben.

------------------------------------

Weiterhin habe ich in diesem Zusammenhang kein Verständnis für USA-Bashing über. Donald Trump ist eine Schande für dieses Land, vielleicht noch mehr als George W. Bush Junior es war - doch das ist nicht der Punkt! FAH wird von der "Pande Group" unter Leitung von Professor Vijay Pande von der Stanford University betrieben. Das Projekt ist gemeinnützig und die Ergebnisse werden nicht verkauft. Es mag zwar nicht komplett Open Source sein, aber grenzt sich damit deutlich von zahlreichen BOINC-Projekten ab, die kommerzieller Natur sind.

------------------------------------

Ich habe eigentlich keine Lust auch nach Jahren noch mit diversen unbegründeten Fake-Aussagen aufzuräumen, aber scheinbar muss man das immer wieder tun, weil die "besorgten Bürger" (Leseunwillige, VTler usw.) kein Interesse daran haben, mal eine Zeile zu lesen und/oder etwas zu recherchieren oder interessiert nachzufragen...

ergo sum

q3fuba schrieb:
Ne liegt es nicht!
Hatte seit über nem Jahr keinen Bluescreen und jetzt nach der Installation von F@H plötzlich 6

Bluescreens in 2 Stunden...
...
"PAGE_FAULT_IN_NONPAGED_AREA".

Hab es jetzt mal wieder deinstalliert und seit knapp 3 Stunden keine Bluescreens mehr, liegt also definitiv an

F@H!
Hast du gelesen was ich geschrieben habe?

Folding@home ist seit je her ein einwandfreier Test für die Stabilität eines Rechners. "Prime stable" kannst du in die Tonne kloppen, weil es nicht heißt, dass FAH oder ähnlich kritische Anwendungen stabil laufen. FAH ist so stark optimiert, dass es die Ressourcen (CPU, GPU, RAM) extrem belastet und jede kleine Instabilität zum Absturz führt. Das war vor über 15 Jahren so und das ist auch heute noch so. "PAGE_FAULT_IN_NONPAGED_AREA" ist ein Klassiker und deutet darauf hin, dass du den RAM außerhalb der Spezifikationen betreibst oder einfach nicht ordentlich spezifizierten RAM (Billig-/OC-Kiddie-RAM) nutzt.

Ich habe FAH schon mit dem 4er Client auf einem Athlon XP 2500+ @3200+ betrieben - alles, wirklich alles (daily use, Spiele, Prime, SuperPi, ...), lief einwadfrei, nur FAH wollte nicht. Auf Standardtakt (2500+) lief FAH dann ohne Probleme.

FAH ist, was Stabilität angeht, einfach hardcore - das konnte ich über die Jahre bzw. Jahrzehnte immer wieder bei diversen Plattformen feststellen (von AMD K6-2 bis Intel Core 2 Quad) und das wurde auch uni sono von hunderten anderen Nutzern so bestätigt.

Ozmog schrieb:
Wenn hier schon öfters Rosetta angesprochen wurde: Wer steckt dahinter?
Lese es doch selbst nach unter https://boinc.bakerlab.org/ und https://de.wikipedia.org/wiki/Rosetta@home! Ist es denn zu viel verlangt, mal etwas Eigeninitiative (Suchmaschine der eigenen Wahl bedienen) zu zeigen? Rosetta habe ich vor vielen, vielen Jahren auch deshalb aufgenommen, weil sie nicht kommerziell arbeiten, genau wie Folding@home.

Chris007 schrieb:
Steht doch in der App bei ppd Points per day.. und wenn du einen wattzähler hast kannst du auch sehen wie die

verbräuche im Verhältnis stehen wenn nur CPU oder nur GPU laufen
In meinem Fall ein 2700x gegen eine 1070 non to
70000 points per day gegen 700.000 points per day
CPU ppd kann man nicht mit GPU ppd vergleichen! CPU-WUs können nicht von GPUs berechnet werden, da die benötigten Rechenoperationen nicht unterstützt werden. Es gibt wissenschaftliche Probleme, da braucht man die CPU. Aktuell bin ich da raus aus dem Thema, aber vor vielen Jahren war SingleFloat <-> DoubleFloat z.B. ein Problem.

daivdon schrieb:
Ich bin mal der Frage "überall" im Netz nachgegangen und konnte so gar nichts Handfestes finden.
...
Daß die Unternehmen, die aktuell an einem Impfstoff arbeiten, konkret von F@H profitieren, lässt sich nirgends feststellen.
daivdon schrieb:
Die Antwort lautet kurz : nein

Die Antwort lautet kurz : nein
Vielleicht solltest du mal hier (unten gibt's übrigens noch "Older posts") alles durchlesen und verstehen. Wenn du es nicht verstehst, ist das kein Problem, dann solltest du aber auch nicht solche Aussagen treffen. Übrigens geht es bei Folding@home nicht darum, dass "die Unternehmen" "konkret von F@H profitieren". Du hast Wissenschaft und deren Sinn einfach mal komplett missverstanden. Und nochmal: FAH betreibt mMn absolute Grundlagenforschung, ergo ist das Ergebnis kein fertiges Medikament sondern Wissen, welches andere nutzen und worauf sie aufbauen können.

Da gibt es übrigens noch sehr viel mehr Antworten, aber ich habe jetzt echt keinen Bock, dir die Arbeit abzunehmen und hier Unmengen an Links zu posten!

Nochmal:
Das hier ist ein Minimalpost, da ich u.a. nicht einsehe, anderen die Lesearbeit abzunehmen, die ich u.a. selbst in den letzten 15 Jahren investiert habe, um mit diesem Projekt (FAH) und anderen Projekten "d'accord" zu gehen...und ich prüfe schon ziemlich gut, wem ich Rechenleistung spende.

Viele Grüße
soggi
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: karl_laschnikow, DeepBlue23, ShrapNelson und 7 andere
@ soggi

Einer der besten Beträge, die ich jeh zum Thema lesen durfte.

@ All wenn ihr das CB Team unterstützen wollt, und/oder Fragen habt, nützt doch einfach den schon mehrfach geposteten Link zum Bereich des Teams.
 
  • Gefällt mir
Reaktionen: zEtTlAh und soggi
Grandepunto schrieb:
@ soggi

Einer der besten Beträge, die ich jeh zum Thema lesen durfte.
Danke!

Ich sehe mich seit 2003/4 in unterschiedlichsten Foren mit diesen Fragen konfrontiert, die zum Teil durchaus berechtigt sind, aber oftmals leider auch suggestiv gestellt werden und/oder durch eigene Recherche kurzfristig hätten beantwortet werden können.

Anno dazumals habe ich in einem Forum einen Guide geschrieben, wie man FAH einrichtet...den gibt es sogar noch heute auf meiner alten Seite, bezieht sich aber auf Version 4.00 und 5.0x und ist damit ziemlich veraltet.

Wer etwas in die (technische) Historie von Folding@home eintauchen will, kann gern durch die oben verlinkten Seiten (inkl. Screenshots) stöbern...und wer will, kann Team soggi (38427) beitreten (wesentlich älter als Team CB)! ;)

Nee, ganz ehrlich...wer meine Seite (soggi.org) über/für ältere HW und SW mag, kann gern ein paar WUs für's Team crunchen. ;)

Viele Grüße
soggi
 
Zuletzt bearbeitet:
Herbynator schrieb:
Kann mir einer mal folgende Frage beantworten:
Meine GPU (RX480) hat heute erstmalig einen WU zugewiesen bekommen.
Allerdings rechnet die GPU mit gerade einmal 3% Auslastung (Laut Taskmanager).

Eingestellt ist im FOH Client, dass die volle Power genutzt werden kann. Bei der CPU wird das auch so gemacht - die läuft am Anschlag.

Sollte die GPU nicht auch etwas mehr belastet werden? Wie ist das bei euch?
Ich nehme an, dass liegt an der WU. Bei mir lief vorhin eine WU, die meine Karte voll ausgelastet hat, zu hören am Lüfter. Jetzt läuft eine WU, die die Karte laut Taskmanager nur zur Hälfte auslastet, ist auch deutlich leiser. Beide Bereichnungen bei "Medium"-Power.

Gruß,
CTN
 
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben