Viele Aspekte der Nutzung eines folding Clients kann man übrigens nachlesen.
Benji96 schrieb:
Allerdings habe ich ein seltsames Problem: Die CPU arbeitet, wie sie soll. ... Immer noch 0% bei der GPU und das System ruckelt über alle Maßen.
Wie behebe ich das?
Es kommt auf die Konfiguration von CPU und GPU an, d.h. v.a. wieviel Anteil diese beiden Komponenten an der für die Bearbeitung der jeweiligen Workunits notwendigen Ressourcen
zugewiesen bekommen.
Man kann den Client automatisch einstellen lassen oder manuell einstellen und dann "optimieren". Letzteres war früher eher umständlich, heute mit den neuen Clients relativ einfach.
Punkt ist, dass zu wenige CPU-Ressourcen z.B. für die GPU die Abarbeitung stark einbremsen, d.h. da geht nichts voran.
Dabei unterscheiden sich Nvidia und AMD, weil die sog. Cores, d.h. die tatsächlich rechnenden Applikationen - der Client ist nur die Oberfläche, er lädt passend zur vom Server zugewiesenen Workunit (des entsprechenden Projekts) - stets einen (neuen) Core herunter. Der relevante Core kann sich also bei jeder Workunit unterscheiden.
Das betrifft übrigens auch die CPU Workunits. Dort sind die Unterschiede jedoch i.d.R. unkritisch und unauffällig.
Standardaussage ist: bei GPU Berechnung sollte man ausreichend CPU Anteile freihalten. Nvidia kann je nach Workunit 1 CPU-Kern bis 0 CPU-Kern beanspruchen, das hängt vom rechnenden Core ab, Core 17 benötigt aufgrund der OpenCL Treiber bei Nvidia mehr CPU-Ressourcen als etwa Core15. Ohne mich auf diesen Erfahrungswert versteifen zu wollen, relevant für die sichbare CPU-Nutzung - etwa mit dem Taskmanager des Betriebssystems - ist u.a. auch die Leistungsfähigkeit, d.h. Taktrate der CPU-Kerne.
Benji96 schrieb:
Ich habe mal gedacht, das mit der GPU liegt an falscher Config und habe die Daten des Programmes gelöscht.
Vorher hatte ich eine normale Oberfläche, aber plötzlich sieht die SO alt aus. Woher kommt das?
Lässt man die GPU sowohl das Monitorsignal erzeugen wie im Hintergrund auf höchster Auslastung für folding rechnen, gibt es "Konflikte", weil die GPU schlicht total ausgelastet wird. Diese sog. lags, wahrnehmbar als Verzögerungen bei der Bildschirmanzeige bzw. ausgebremste Video-Darstellung (bei Nutzung der GPU-Leistung für solche oder Flash u.a. Zwecke), treten häufig auf, abhängig auch von der absoluten Leistung der GPU. Weil die wenigen verbleibenden Takte die Vordergrund Berechnungen schaffen sollen, was den HighEnd GPUs einfach leichter fällt.
Wenn man sich vorstellt, dass eine folding Workunit (a) v.a. die Recheneinheiten der GPU auslastet, (b) den Speicher der GPU nutzt, (c) die Bandbreite der PCIe-Anbindung teilweise nutzt, dann sind solche Effekte nachvollziehbar.
Deine Vermutung mit falscher Konfiguration des Clients - in der Verteilung zwischen CPU und GPU - kann also völlig richtig sein oder knapp daneben liegen.
Die "Daten des Programmes" zu löschen bringt dich nicht weiter, es macht Sinn entweder die Konfiguration anzupassen oder einen Slot (den der GPU) zu löschen, um komplett auf GPU-Berechnung zu verzichten. Oder umgekehrt den CPU-Slot, falls die GPU Berechnung alleine deine Probleme evtl. besser löst und die PPD Leistung deines Systems sogar erhöht wird. Statt Löschen empfehle ich
Pausieren bzw. Editieren des Slots mit dem Parameter "pause-on-start=true", damit ist der Slot weiterhin sichtbar aber abgeschaltet bis zum manuellen Start. Mit "Finishing" kann man die Berechnung auf eine Workunit manuell begrenzen, sonst hilft wiederum das Editieren des Slots mit "max-units=1", dann wird bei jedem Start des folding Clients exakt 1 Workunit auf dem Slot gerechnet und dann der Slot schlafen gelegt = pausiert. Das erneute Starten wiederum zieht exakt 1 Workunit, egal ob erfolgreich gerechnet oder abgebrochen mit Fehler.
Als folding Teilnehmer sollte man m.E. die Steuerung in den Händen behalten, was auf meiner Hardware wie lange passiert.
Aus wissenschaftlicher Sicht will folding - die Pande Group als verantwortliche Projektleiter - möglichst schnelle Berechnung und Rücksendung der Ergebnisse. Weil der Forschungsprozeß (meist, es gibt Unterschiede im Detail) auf den fertigen Ergebnissen aufbaut. Deshalb der Quick Return Bonus, bei CPU wie GPU vorhanden, jedoch mit Ausnahmen.
Aus Anwendersicht sollte man natürlich ein funktionsfähiges System behalten, ausser man möchte in jenen Stunden volle Leistung zur Verfügung stellen und verzichtet auf eigene Rechnernutzung. Dann können einem die lags egal sein.
Die hardcore bzw. Dauerfolder verwenden oft die onboard GPUs der Mainboards, die iGPU oder APU der CPUs oder kleine dedizierte GPUs im PCIe Slot des Boards, um damit das Monitorsignal u.a. Chipunterstützung für Video etc. zu erzeugen. Dann ist die große leistungsfähige GPU für folding frei und kann ohne Bremsen durch die parallele Systemnutzung ihr ganzes Potential nutzen, schnellstmöglich berechnen und am Ende maximal Punkte liefern.
Eine Rechnung könnte folgendermaßen aussehen: verzichte ich auf iGPU oder dedizierte Monitor-GPU verzögert sich die Rechnenzeit ggf. um Minuten bis im worst case Stunden, in dieser Zeit produziert das System dennoch den volle Verbrauchswert, weil die GPU auf Maximaltakt läuft aber kaum vorankommt, so auch deine Beobachtung. Die Stromaufnahme einer kleinen GPU für den Monitor wäre hingegen relativ niedrig, würde die Abarbeitung der großen GPU freistellen und das Rechenergebnis wäre schneller erreicht, das System könnte
weniger lange laufen bis Fertigstellung der Workunit und sogar Strom sparen.
O.k. am Anfang mag das alles sehr verwirrend sein.
Die Erfahrung kommt mit der Zeit, was einem wichtiger ist, einfach nur im Hintergrund das folding Projekt zu unterstützen, irgendwie mit ein paar Workunits für den Forschungsprozess oder Punkten für einen selbst.
Du kannst gerne deine Hardware Eckdaten nennen und die Slot Konfiguration, versuche gerne zu helfen. Bei Höchstlast Anwendungen aller Art ist v.a. die
Kühlung wichtig. Sowie ein gutes Lüftungsmanagement im Inneren des Gehäuses. Spiele mit wechselnden Lastzuständen führen i.d.R. zu weniger Abwärme als ein am Maximum rechnender DC Client auf CPU und GPU gleichzeitig. Bei folding kann man bequem die Zahl der CPU-Kerne begrenzen, z.B. 2 von 4 beim Quad oder 4 von 8 bei Quads mit Hyperthreading oder 3 von 6 bei Sixcores usw. Die GPU lässt sich bei folding leider nur begrenzt anpassen, es gibt die Option mit einem Tool den Maximaltakt der GPU zu beschränken. Damit sinkt die Stromaufnahme auf die im GPU BIOS vorgesehenen Spannungswerte und somit die Abwärme spürbar. Das Editieren des BIOS ist ein weiteres Mittel, die Anforderungen exakt auf die Hardware Charakteristik abzustimmen, siehe dazu die Themenfelder Undervolting und Overclocking, in deren Threads finden sich Hinweise, wie das geht und welche positiven wie negativen Auswirkungen das haben kann.
Das mit der "Oberfläche" habe ich nicht verstanden, du meinst die Auflösung oder Farben deines Desktops ? Das kann am Zurücksetzen der Auflösungseinstellungen durch den Treiber liegen, das passiert bei AMD wie Nvidia, falls es zu einem "Soft" Reset des Treibers gekommen ist, entweder durch thermische Überlastung oder Crash der Applikation, die mit Glück zu einer Wiederaufname der Workunit führt, neu gestartet am Checkpoint, also der der automatischen Zwischenspeicherung durch den folding Client.
Diesen Checkpoint Zeitrahmen kann man übrigens von 15 Minuten (Standard) bis auf 3 Minuten verkürzen. Bei AMD im Core17 wird automatisch alle 2 Minuten ein Checkpoint veranlasst, unabhängig von den allgemeinen Client Einstellungen. Anderes Thema, jedoch auch Konfliktpotential bei der CPU Inanspruchnahme.
Also ... ein konkrete Lösung für deine Nvidia Berechnung wäre z.B. nur im
Idle rechnen zu lassen. Bei mir lasse ich die Nvidia Karte derzeit nicht mehr falten, sondern rechne mit der GPU für BOINC/CUDA Projekte, weil für folding "zu langsam", aber bei anderen Projekten m.M. besser aufgehoben (volle Auslastung auf 99% und niedrigere Stromaufnahme als bei Core15/17).
Schau dir den Client einfach mal näher an, entdecke die Möglichkeiten.