Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Folding@Home Computerbase Team Gründung! Wer ist dabei?
keine ahnung warum die das überhaupt laufen lassen extra dafür PS3s anschaffen... vermutlich haben die im Institut das nur als vorwand angegeben damit sie die vom budget finanzieren können und dann sitzen die den ganzen tag da und zocken wie blöd
glaub die haben noch gar ned mitbekommen dass man das auf Grafikkarten auch schon laufen lassen kann - aber schaut schon fett geil aus so. wollten die eh schon mitnehmen, aber da hatten die wohl was dagegen
Vermute kaum, daß die Geräte eigens angeschafft wurden, vielleicht waren es ja Spenden für die gute Sache und die Uni zahlt nun die (teuren) Stromkosten (o.k. effektiv cruncht die PS3 schon)
Also ich habe es mir mal zum Testen herruntergeladen. Mein neues System hat richtig viel Kraft.
Zotac GTX 260 AMP²: Hier mal ein Foto
Geht die Geschwindigkeit oder wird da was ausgebremst?
Ob ich da weiter mitmache.... der ganze Rechner braucht so 90 bis 100 Watt mehr. Finde ich einfach zu viel.
Die Rechenkraft deiner Karte solltest du mit FahMon messen und in ppd (points per day) angeben. Wenn du den Viewer öffnest, sinkt die Leistung, weil der Viewer selbst recht anspruchsvoll ist. Also einfach mal über Nacht laufen lassen und dann in FahMon die max. ppd anschauen.
@Spock55000
Erstmal Glückwunsch zur ersten Workunit !
100 Watt bei einer Berechnungszeit von 55 Sekunden für ein Prozent macht: 100 (Prozent) * 55 s (bei meiner GTX 260) = 5500s/60 = 91 Minuten = 1,5 Stunden entspricht 150 Wattstunden "Stromumwandlung" = 0,15 kWh (bei 20 Cent/kWh) = 3 Cent für eine Workunit ***. Ja, das ist hochgerechnet viel Geld. Wohlgemerkt Mehrverbrauch, nicht die absoluten Kosten. Wen es tröstet, die "Produktionskosten" mit einer (ineffizienten) CPU können das Vielfache einer GPU betragen, der wissenschaftliche Wert von CPU- und GPU-Workunits ist eine gänzlich andere Fragestellung: http://folding.stanford.edu/English/FAQ - siehe Abschnitt "New FAH Calculations (Cores) FAQs" (drei Links)
In der Log-Datei stehen die Gründe für ein etwaiges Neustarten der Workunit.
Die Vergleichsliste für nVidia-Grafikkarten findet sich (englisch) im folding@home-Forum: NVIDIA GPU2 PPD Thread [Preliminary Results] - Achtung: nicht wirklich repräsentativ, siehe Erhebungsbedingungen
*** Wer mag, kann mal ausrechnen, wieviel es dem CB-Team gekostet hätte, allein per GPUs den Rang 336 auf der Welt zu erobern (108.270 Workunits) bzw. mit "wie wenig" Einsatz - verteilt auf 290 Mitglieder - ein solcher Erfolg für die Wissenschaft geschafft wurde.
@Spock
Eine Vergleichsliste ist meines Erachtens wenig sinnvoll, da sich die Leistung mit der Zeit stark verändern kann. Meine 8800GTS (320MB) schafft mit dem neuesten FahCore und dem 180.43 Treiber fast 1000ppd mehr als am Anfang. Außerdem ist die Leistung unter Vista meistens höher, da unter XP die meist die CPU begrenzt.
Immer unterschiedlich!
Rechtsklick auf den Client und dann "Queue Info" unter "Status"
Da kannst die Deadline sehen. (Ist jedenfalls bei mir so, hab den CPU Client; kann evt. beim GPU client abweichen.)
PS: kann jemand vielleicht meine Fragen von oben beantworten?
HawkEy3 schrieb:
Kann man den Client so einstellen das er mit Windows startet ?
Ich hab bis jetzt immer eine Verknüpfung in den Autostart-Ordner kopiert, gibt es eine andere Möglichkeit?
Also habs jetzt selber rausgefunden^^
Hab meine neue HD4850 eingeweiht und falls es jemand interessiert.
Die neuen GPU Clienten machen automatisch eine Verknüpfung in den Autostart Ordner, scheint also die einzige Möglichkeit zu sein.
Und ja, Team Logo ist im Eröffnungspost, aber was macht man damit? Man kann im Client ja keine eigenen Logos mehr anzeigen lassen, schade
Ok, habe schon einige WUs. Irgendwie war die vierte fast fertig und der hat einfach neugestartet. Keine Ahnung wieso, im Log steht nichts. Ich benutze noch den "Standard" Treiber, also keinen Beta.
Fohman sagt was von ca 7405,71 PPD. Lasse ich mal laufen und wenn ein Projekt fertig ist, schaue ich nochmal nach. Hoffe mal dass die 216 Prozessoren im Vergleich zu der mit 192 etwas mehr Kraft bringen.
Benutze meine 4870 zum folden jetzt frage ich mich schon länger mit was die Karte foldet mit den Shaderprozessoren oder mit dem Grafikprozessor.
Bringt es was die Gpu zu übertakten?
@Dominik20
Die Geforce-Karten folden ausschließlich mit den Shadern, von daher bringt eine Übertaktung da am meisten.
Den Speicher hochzuziehen bringt auch etwas Leistung, wohingegen man die GPU sogar untertakten kann ohne einen Effekt zu haben
Bei ATI werden genauso die Shader genutzt, nur kann man die meines Wissens nach nicht ohne die GPU hochtakten.
Stimmt so nicht ganz, das ganze wurde ab Seite 22 diskutiert. Mehr Leistung bringt Core+Shader.
Also auf Standardttakt (720/1800/1000) habe ich rund 1720 iter/s (XFX 9600gt)
Bei 400/1800/600 habe ich ~1480
Bei 350/900/500 sind es noch rund 810 iter/s
Ich zweifel daran.
Im P3D-Forum haben mehrere User das Gegenteil festgestellt und außerdem sind die Iterations pro Sekunde eh nicht wirklich aussagekräftig.
Wenn dann muss man nach den PPD gehen.
Bei deinem Zitat sieht man eher sehr schön, das der Takt des VRams das Ergebnis mit beeinflusst, nicht der der GPU.
Vllt. lässt sich ja jemand dazu breit schlagen das mal zu testen, allerdings wirklich mit ein wenig Laufzeit damit sich die PPD anpassen können und wenn dann immer nur einen Wert verändern, also nur GPU und nicht GPU+VRam.
Ich rechne kein F@H mehr und nur um das zu testen wollte ich eigentlich auch nicht wieder damit anfangen.
Ich habe ja nicht gesagt, das der Ram-Takt gar keinen unterschied macht. Aber so wie ich noch mal drüber geflogen bin, hat der Core eine größere Auswirkung als der Ram-Takt. Außerdem befinden sich am Ram keine Temp-Sensoren deswegen wäre ich da immer sehr Vorsichtig, das der nicht zu heiß wird.