Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNeuer Rekord bei künstlichen neuronalen Netzwerken
Ein Forscherteam der US-amerikanischen Elite-Universität Stanford hat mit Unterstützung des Chip-Herstellers Nvidia das nach eigenen Angaben derzeit weltweit größte, künstliche neuronale Netzwerk geschaffen, das im Modell die Arbeitsweise des menschlichen Gehirns beim Lernen demonstrieren soll.
Hm, 16 Server mit je 2 Quadcor CPUs und 4 fetten Grafikkarte. Das kommt mir jetzt nicht soo viel vor.
Mit den Finanzmittel die Google für ihre 1000 Server gebraucht haben könnte man sicherlich mit leichtigkeit deutlich mehr als 16 Stück von den Dingern dahinstellen.
Ein schönes Beispiel für den Einsatz von GPU in der Wissenschaft. IBM arbeitet doch auch an einer umfassenden Simulation eines Gehirns, nur läuft es auf BlueGene-Systemen.
@Skynet:
Statt Atomwaffen einzusetzen, werden dann alle ans Internet angebundenen Computer mit niedlichen Katzenbildchen und Videos überschwemmt
Interessant ist die Leistungsfähigkeit vorallem weil sie für das computing eigentlich völlig ungeeignete GPUs verwendet haben. Schade das OpenCL was Verbreitung und Verfügbarkeit von fertigen libraries nach wie vor CUDA hinter her hinkt, sonst wäre man nicht auf NVIDIA hardware angewiesen gewesen.
Na dann betrifft es ja zum Glück nur die Amerikaner . Skynet ist natürlich weit hergeholt. Bis eine Maschine den Menschen als Feind klassiert und autonom über Waffensysteme verfügen kann, dürfte es die Natur es schon lange für sie gerichtet haben (leider nicht so weit hergeholt).
leider steht nicht, welchen Aufbau das neuronale Netzwerk besitzt. Nehme aber stark an, es handelt sich um ein autoassoziatives neuronales Netzwerk. Na ja, hatte ich bereits 1993 in einer meiner Diplomarbeiten eingesetzt. Ebenfalls einen Kohonen Layer. In Kombination mit etlichen anderen mathematischen Verfahren wie Zeitreihenanalysen, Hidden Markov-Modellen etc.
Damals war es natürlich noch ein Traum, mit derartigem Rechenpower hantieren zu können... .
sind sie nicht. es gab in den letzten 15 jahren keine nennenswerte fortschritte.
es wurden lediglich ide alten erkenntnisse experimentativ mit größeren netzwerken / größerem hardwareaufgebot simuliert.
allerdings muss man auch dazu sagen, dass so viel neues es da vermutlich auch nicht mehr zu entdecken gibt. sonderlich kompliziert funiktionieren die einzelnen am denken und lernen beteiligten teile unseres gehirns nicht, wie sich das mancher wohl vorstellt.
Wenn ich jeden Tag so meine Umgebung beobachte, bspw. Fußgänger, die Smartphone-tippend ohne Rücksicht die Straße überqueren, komme ich zur Überzeugung, dass sich viele Gehirne auch mit einem 8086 simulieren ließen...
sind sie nicht. es gab in den letzten 15 jahren keine nennenswerte fortschritte.
es wurden lediglich ide alten erkenntnisse experimentativ mit größeren netzwerken / größerem hardwareaufgebot simuliert.
allerdings muss man auch dazu sagen, dass so viel neues es da vermutlich auch nicht mehr zu entdecken gibt. sonderlich kompliziert funiktionieren die einzelnen am denken und lernen beteiligten teile unseres gehirns nicht, wie sich das mancher wohl vorstellt.
Ich denk mal schon das es noch viel zu entdecken gibt, die Hirnforschung ist noch am Anfang. Man müsste nur mal besser zusammenarbeiten und das vielleicht besser finanzieren.
Es ist schon komisch das eine Eliteuniversität kein Geld hat für die Tesla und Co
"Erstaunlich ist hierbei, dass Hardware von der Stange eingesetzt wird. Jeder der 16 Server hat neben zwei Quad-Core-Prozessoren vier Nvidia GeForce GTX 680 verbaut, wobei jede GPU über vier Gigabyte Speicher verfügt. "