Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Folding@Home-Client bald auch für Nvidia-GPUs
- Ersteller Simon
- Erstellt am
- Zur News: Folding@Home-Client bald auch für Nvidia-GPUs
tayna21
Lt. Commander
- Registriert
- März 2008
- Beiträge
- 1.172
zu2. angenommen er hat keinen nv-chipsatz im rechner kann er hybrid-sli schonmal überhaupt nicht nutzen. somit würde dann im idle seine nv-karte auf voller last laufen, wenn er sie nicht manuell heruntertaktet. da hat ati mit powerplay schon was sinnvolleres im programm...
astrix
Lieutenant
- Registriert
- Jan. 2006
- Beiträge
- 838
Die Credits sind einfach ein "Ansporn" damit Leute, denen das wichtig ist, ihren PC nicht ausmachen. Es gibt sicherlich auch welche, die sich sagen " hey, wenn ich mir ne neue GPU / CPU kaufe, komm ich bestimmt noch schneller an die Top 100 ran :-D "
Aus dem gleichen Grund gibt es "Log In Zähler" "Aufenthaltsübersichten" oder eben "Beiträge Zähler im CB"
Gäbe es sowas nicht, würde die Internetaktivität bei vielen Seiten/Foren/Projekten wesentlich geringer ausfallen.
Aus dem gleichen Grund gibt es "Log In Zähler" "Aufenthaltsübersichten" oder eben "Beiträge Zähler im CB"
Gäbe es sowas nicht, würde die Internetaktivität bei vielen Seiten/Foren/Projekten wesentlich geringer ausfallen.
Z
ZeroBANG
Gast
mal ne blöde frage...
bei Seti@Home ist mir klar woher die Daten kommen, vom Hubble Teleskop, und da wird ständig nachschub kommen deswegen wirds da immer was zu rechnen geben.
Aber Proteine falten? Mal im ernst das muss doch eine Aufgabe sein die irgendwie begrenzt ist, hat da mal wer ausgerechnet wie lange die derzeitigen user das tool laufen lassen müssten um die Berechnungen alle igendwann durch zu haben, ist das irgendwie absehbar?
bei Seti@Home ist mir klar woher die Daten kommen, vom Hubble Teleskop, und da wird ständig nachschub kommen deswegen wirds da immer was zu rechnen geben.
Aber Proteine falten? Mal im ernst das muss doch eine Aufgabe sein die irgendwie begrenzt ist, hat da mal wer ausgerechnet wie lange die derzeitigen user das tool laufen lassen müssten um die Berechnungen alle igendwann durch zu haben, ist das irgendwie absehbar?
doesntmatter
Commodore
- Registriert
- Dez. 2007
- Beiträge
- 4.857
Deine Vermutungen gehen ins Blaue hinein, folding@home ist nicht (!) kommerziell, sondern an der Stanford Universität angegliedert:
http://folding.stanford.edu/English/About
Die wissenschaftlichen Ergebnisse sind detailiert nachzulesen, ein wichtiges Kriterium für die Beurteilung:
http://folding.stanford.edu/English/Papers
http://folding.stanford.edu/English/About
Die wissenschaftlichen Ergebnisse sind detailiert nachzulesen, ein wichtiges Kriterium für die Beurteilung:
http://folding.stanford.edu/English/Papers
doesntmatter
Commodore
- Registriert
- Dez. 2007
- Beiträge
- 4.857
Lediglich, daß es Hobbies gibt, die klimafreundlicher sind als andere. Manche fliegen gerne mit dem Billigflieger, nur weil die Tickets so günstig sind und sie sich einreden, daß Flugzeug startet auch ohne mich, also warum nicht einsteigen.
Erdöl wird auch per Tanker nach Europa angeliefert, warum nicht Sprit verfahren, Radfahren ist schließlich auch wg. Smog ungesund.
Besser Gemüse aus Südamerika als gar keins, Hauptsache billig ... usw. usf.
Erdöl wird auch per Tanker nach Europa angeliefert, warum nicht Sprit verfahren, Radfahren ist schließlich auch wg. Smog ungesund.
Besser Gemüse aus Südamerika als gar keins, Hauptsache billig ... usw. usf.
doesntmatter
Commodore
- Registriert
- Dez. 2007
- Beiträge
- 4.857
Community ist sicher das Hauptmotiv für´s Boincen und andere DC-Projekte. Mit Credits kann ich mir nichts kaufen, muss im Gegenteil ne Menge Geld - oder auch gar nichts, wenn es nebenher läuft - für Strom ausgeben. Ist Spielen statt Crunchen sinnvoller ? Den meisten gibt Spielen einfach den größeren "Kick" und die verstehen dann nicht, wie DC auch einen Kick bringt.
Schau dir mal die Leute an, die hier Benchmarks betreiben, wieviel Strom und Zeit für "prime" draufgeht, völlig unnütz, nur um sinnlos Zahlen zu rechnen und damit die CPU schwitzen zu lassen.
Schau dir mal die Leute an, die hier Benchmarks betreiben, wieviel Strom und Zeit für "prime" draufgeht, völlig unnütz, nur um sinnlos Zahlen zu rechnen und damit die CPU schwitzen zu lassen.
doesntmatter
Commodore
- Registriert
- Dez. 2007
- Beiträge
- 4.857
Wissenschaftler definieren, welche Fragestellungen für ihre Forschung interessant ist. Es gibt Projekte, in denen man selbst eigene Berechnungen zusammenstellen und selbst (!) rechnen kann.
Klar ist jeder Job, also WU=Workunit, begrenzt, je nach Fragestellung gibt es WUs, die ein paar Minuten rechnen (MilkyWay@home) bis zu monatelangen Klimaberechnungen (climateprediction@home).
folding@home gibt WUs zwischen Stunden und Tagen aus, nachzulesen in der Project Summary:
http://fah-web.stanford.edu/psummary.html
Je nachdem, wie lange man rechnen muss und wie schnell man die Ergebnisse abliefert, gibt das Punkte, damit eine gewisse Anerkennung und "Gerechtigkeit" für den Aufwand ausgedrückt werden kann.
Klar ist jeder Job, also WU=Workunit, begrenzt, je nach Fragestellung gibt es WUs, die ein paar Minuten rechnen (MilkyWay@home) bis zu monatelangen Klimaberechnungen (climateprediction@home).
folding@home gibt WUs zwischen Stunden und Tagen aus, nachzulesen in der Project Summary:
http://fah-web.stanford.edu/psummary.html
Je nachdem, wie lange man rechnen muss und wie schnell man die Ergebnisse abliefert, gibt das Punkte, damit eine gewisse Anerkennung und "Gerechtigkeit" für den Aufwand ausgedrückt werden kann.
roxxor
Ensign
- Registriert
- Sep. 2005
- Beiträge
- 226
Was sich bei dieser ganzen Diskussion niemand fragt ist, was machen die denn mit den Resultaten in der letzten Stufe? Also Proteine die Krankheiten auslösen erforschen, da kann man ja nichts gegen sagen ist ja auch gut. Die Resultate werden dann ja nicht verkauft sodern stehen jedermann frei. Kann man auch nichts gegen sagen.
Doch kann ja dann nicht jeder in seiner Werksatt die Medikamente produzieren. Das heisst die Pharmabranche hat Weihnachten und Ostern an einem Tag. Was passiert dann mit den entwickelten Medikamenten, sind diese besonders guenstig, gibt es dazu Regelungen Zum Beispiel fuer Menschen in der dritten Welt etc.? Wer finanziert das Ganze in Stanford und wer ist die Traegerschaft hinter den Organisationen die auf der Homepage als Supporter angeben wurden? Sind dies zum Beispiel Lobbyverbände? US-Amerikanische Universitäten zeichnen sich oftmals durch ihre Gönner in der Wirtschaft aus im Gegenteil zu den in BRD. Deswegen haben die USA auch die besten Forscher und Möglichkeiten, da dort mehr Geld von der Wirtschaft direkt in die Fakultäten gepumpt wird.
Die letzte Stufe des Projektes ist die Produktion von Medikamenten und das wird sicherlich keine Non-Profit Organisation sein die die Pillen an den Mann/Frau/Kind/Tier bringt.
Ja nun wird das Projekt auch noch zur Marketingplattform von Nvidia., neben Dell Ati etc. Ich finds zum lachen und zum heulen.
Doch kann ja dann nicht jeder in seiner Werksatt die Medikamente produzieren. Das heisst die Pharmabranche hat Weihnachten und Ostern an einem Tag. Was passiert dann mit den entwickelten Medikamenten, sind diese besonders guenstig, gibt es dazu Regelungen Zum Beispiel fuer Menschen in der dritten Welt etc.? Wer finanziert das Ganze in Stanford und wer ist die Traegerschaft hinter den Organisationen die auf der Homepage als Supporter angeben wurden? Sind dies zum Beispiel Lobbyverbände? US-Amerikanische Universitäten zeichnen sich oftmals durch ihre Gönner in der Wirtschaft aus im Gegenteil zu den in BRD. Deswegen haben die USA auch die besten Forscher und Möglichkeiten, da dort mehr Geld von der Wirtschaft direkt in die Fakultäten gepumpt wird.
Die letzte Stufe des Projektes ist die Produktion von Medikamenten und das wird sicherlich keine Non-Profit Organisation sein die die Pillen an den Mann/Frau/Kind/Tier bringt.
Ja nun wird das Projekt auch noch zur Marketingplattform von Nvidia., neben Dell Ati etc. Ich finds zum lachen und zum heulen.
Zuletzt bearbeitet:
Andy_K
Lt. Junior Grade
- Registriert
- Sep. 2007
- Beiträge
- 271
Die Frage war nicht blöd, nur das Hubble Teleskop mit Seti@Home in Verbindung zu bringen ist sau dämlich.
Das Hubble Teleskop ist ein optisches Teleskop und umkreist die Erde auf einer Umlaufbahn im All.
Die Daten für Seti@home werden vom Arecibo Radio Teleskop in Puerto Rico geliefert. Das sind Radiosignale, die in Häppchen aufgeteilt werden und die dann darauf untersucht werden, ob es Signale darin gibt, die nicht natürlichen Ursprungs sind.
Warum wollen immer so viele von einem Thema reden, von dem sie anscheinend noch nicht mal die FAQ gelesen haben??
Andy
Das Hubble Teleskop ist ein optisches Teleskop und umkreist die Erde auf einer Umlaufbahn im All.
Die Daten für Seti@home werden vom Arecibo Radio Teleskop in Puerto Rico geliefert. Das sind Radiosignale, die in Häppchen aufgeteilt werden und die dann darauf untersucht werden, ob es Signale darin gibt, die nicht natürlichen Ursprungs sind.
Warum wollen immer so viele von einem Thema reden, von dem sie anscheinend noch nicht mal die FAQ gelesen haben??
Andy
doesntmatter
Commodore
- Registriert
- Dez. 2007
- Beiträge
- 4.857
Die Unterstützung für nVidia-GPUs war lange in der Diskussion im folding-Forum, weil viele Beteiligte nicht nur ihre CPU sondern auch diese Grafikkarten einsetzen wollten, neben den ATI-Karten, bei denen der Support ja schon länger lief.
Wenn jetzt angekündigt wird "in wenigen Wochen" einen lauffähigen Client für nVidia zu veröffentlichen, ist das nach bisheriger Erfahrung durchaus realistisch. Ob der Client jemals den Beta-Status verläßt, bezweifle ich zwar (bei ATI war das heute so). Für die wissenschaftliche Arbeit wird das bedeutungslos bleiben, weil die Ergebnisse selbst unter Beta-Produktion allesamt brauchbar waren. Insofern kann man sich auf die Aussagen der Pandegroup "verlassen".
Auch wenn hier nVidia in ein günstigeres Licht gerückt wird, weil sie endlich die Grundlagen für Programmierbarkeit im wissenschaftlichen Kontext offengelegt haben (CUDA war und ist kommerziell, folding@home war immer nicht-kommerziell), darf man ATI´s Vorreiterrolle hier nicht unter den Tisch fallen lassen. Meine Sympathien bleiben bei ATI/AMD in dieser Angelegenheit, die Aussagen zu deren Spieleleistung, Treiberunterstützung sollten - weiterhin wie zuvor - getrennt von dem Nebeneffekt DC getroffen werden.
Grafikkarten werden nicht für DC produziert, sondern um Bildsignale und gewisse 3D-Effekte zu erzeugen, das ist der Maßstab. Aber warum ein interessantes Feature ungenutzt brach liegen lassen.
Wenn jetzt angekündigt wird "in wenigen Wochen" einen lauffähigen Client für nVidia zu veröffentlichen, ist das nach bisheriger Erfahrung durchaus realistisch. Ob der Client jemals den Beta-Status verläßt, bezweifle ich zwar (bei ATI war das heute so). Für die wissenschaftliche Arbeit wird das bedeutungslos bleiben, weil die Ergebnisse selbst unter Beta-Produktion allesamt brauchbar waren. Insofern kann man sich auf die Aussagen der Pandegroup "verlassen".
Auch wenn hier nVidia in ein günstigeres Licht gerückt wird, weil sie endlich die Grundlagen für Programmierbarkeit im wissenschaftlichen Kontext offengelegt haben (CUDA war und ist kommerziell, folding@home war immer nicht-kommerziell), darf man ATI´s Vorreiterrolle hier nicht unter den Tisch fallen lassen. Meine Sympathien bleiben bei ATI/AMD in dieser Angelegenheit, die Aussagen zu deren Spieleleistung, Treiberunterstützung sollten - weiterhin wie zuvor - getrennt von dem Nebeneffekt DC getroffen werden.
Grafikkarten werden nicht für DC produziert, sondern um Bildsignale und gewisse 3D-Effekte zu erzeugen, das ist der Maßstab. Aber warum ein interessantes Feature ungenutzt brach liegen lassen.
kasmo
Cadet 4th Year
- Registriert
- Mai 2008
- Beiträge
- 100
Mal wieder eine beeindruckende Demonstration was passiert wenn Cuda funktioniert und die GPU Power nutzbar macht. Wenn es NV gelingt Cuda so weit zu entwickeln(Genauigkeit), das alle CPU Befehle verstanden bzw. simuliert werden können, dann hat die "klassische CPU" in den meisten Bereichen ausgedient BYE BYE CPU du bist zu ineffizient...
Beim AMD Swift(Fusion) gehts um nix anderes, als in der 3. Stufe(ca. 2015) die extreme Rohleistung einer GPU im Desktop Betrieb nutzbar zu machen, ohne das zwischen CPU und GPU Befehlen unterschieden wird. Das wird der nächste Quantensprung in der CPU(CPU+GPU Kerne) Leistung...
Besonders nett finde ich das ein Tesla Rig. aus ca. 19 NV GPUs schon heute, in gewissen Anwendungsgebieten, Servercluster platt machen die ca. 100.000 Server Quad Core CPUs benutzen...
Da soll noch einmal einer sagen GPUs sind nicht umweltfreundlich und helfen CO2 einzusparen
Beim AMD Swift(Fusion) gehts um nix anderes, als in der 3. Stufe(ca. 2015) die extreme Rohleistung einer GPU im Desktop Betrieb nutzbar zu machen, ohne das zwischen CPU und GPU Befehlen unterschieden wird. Das wird der nächste Quantensprung in der CPU(CPU+GPU Kerne) Leistung...
Besonders nett finde ich das ein Tesla Rig. aus ca. 19 NV GPUs schon heute, in gewissen Anwendungsgebieten, Servercluster platt machen die ca. 100.000 Server Quad Core CPUs benutzen...
Da soll noch einmal einer sagen GPUs sind nicht umweltfreundlich und helfen CO2 einzusparen
Zuletzt bearbeitet:
M
M1ckY
Gast
Das sind WU/day.
WU = Work Unit ;-)
WU = Work Unit ;-)
M
M1ckY
Gast
Yup, eine Besonderheit von F@H ist, dass sie sich sehr um Kompatibilität zu Grafikkarten bemühen. Hier steckt ein enormes Potential. Aber natürlich können nur ein Teil der erforderlichen Berechnungen mit GPUs gemacht werden. Vieles benötigt einfach komplexere Befehlssätze.
Die komplexeren Befehle sind egal bei diesen Berechnungen. Mercedes hat vollkommen Recht, das die Leistung einer CPU in diesem Fall nicht mithalten kan. Und man kann die Leistungen sehr wohl auf eine Anwendung bezogen vergleichen. Wozu hat man schließlich "spezialisierte" Recheneinheiten, wenn sie dann nicht auch schneller sind.
Interessanter finde schon den Vergleich zwischen den GPU.
Interessanter finde schon den Vergleich zwischen den GPU.
Zuletzt bearbeitet:
Steiner_mC
Ensign
- Registriert
- Mai 2007
- Beiträge
- 158
Warum sollte Er? Es braucht doch nur etwas intelligente Hardware und alle sind zufrieden. Es wird nicht mehr Strom gezogen als nötig und wenn Leistung gefragt ist, fährt die Karte halt voll hoch. Ist eigentlich das normalste von der Welt.
Wenn man sich das mal im Vergleich zum Auto vorstellen würde, stehst an der Ampel und der Motor dreht weiter auf voller Leistung, da würde doch jeder sofort sagen, was ne Verschwendung... aber im PC merkt man das ja nicht.
Und es geht auch nicht immer um die Umwelt, sondern auch um den Geldbeutel und die Hitze die bei voller Leistung im Rechner entsteht. Im idle möchte man es eben schön leise haben, und da ist eine Graka die schön weiter bruzelt eben kontraproduktiv.
Wenn man sich das mal im Vergleich zum Auto vorstellen würde, stehst an der Ampel und der Motor dreht weiter auf voller Leistung, da würde doch jeder sofort sagen, was ne Verschwendung... aber im PC merkt man das ja nicht.
Und es geht auch nicht immer um die Umwelt, sondern auch um den Geldbeutel und die Hitze die bei voller Leistung im Rechner entsteht. Im idle möchte man es eben schön leise haben, und da ist eine Graka die schön weiter bruzelt eben kontraproduktiv.
Ähnliche Themen
- Antworten
- 71
- Aufrufe
- 13.945
- Antworten
- 1
- Aufrufe
- 798