News Neuer Rekord bei künstlichen neuronalen Netzwerken

fethomm

Commander
Registriert
Okt. 2012
Beiträge
2.597
Ein Forscherteam der US-amerikanischen Elite-Universität Stanford hat mit Unterstützung des Chip-Herstellers Nvidia das nach eigenen Angaben derzeit weltweit größte, künstliche neuronale Netzwerk geschaffen, das im Modell die Arbeitsweise des menschlichen Gehirns beim Lernen demonstrieren soll.

Zur News: Neuer Rekord bei künstlichen neuronalen Netzwerken
 
"sowie viel zum Verständnis des menschlichen Genoms beigetragen. "

Ihr meint wohl "Gehirn".
 
Hm, 16 Server mit je 2 Quadcor CPUs und 4 fetten Grafikkarte. Das kommt mir jetzt nicht soo viel vor.
Mit den Finanzmittel die Google für ihre 1000 Server gebraucht haben könnte man sicherlich mit leichtigkeit deutlich mehr als 16 Stück von den Dingern dahinstellen.
 
Ein schönes Beispiel für den Einsatz von GPU in der Wissenschaft. IBM arbeitet doch auch an einer umfassenden Simulation eines Gehirns, nur läuft es auf BlueGene-Systemen.

@Skynet:
Statt Atomwaffen einzusetzen, werden dann alle ans Internet angebundenen Computer mit niedlichen Katzenbildchen und Videos überschwemmt :D
 
Interessant ist die Leistungsfähigkeit vorallem weil sie für das computing eigentlich völlig ungeeignete GPUs verwendet haben. Schade das OpenCL was Verbreitung und Verfügbarkeit von fertigen libraries nach wie vor CUDA hinter her hinkt, sonst wäre man nicht auf NVIDIA hardware angewiesen gewesen.
 
@noxon

Na dann betrifft es ja zum Glück nur die Amerikaner :). Skynet ist natürlich weit hergeholt. Bis eine Maschine den Menschen als Feind klassiert und autonom über Waffensysteme verfügen kann, dürfte es die Natur es schon lange für sie gerichtet haben (leider nicht so weit hergeholt).
 
Zuletzt bearbeitet von einem Moderator:
For auld lang syne...

leider steht nicht, welchen Aufbau das neuronale Netzwerk besitzt. Nehme aber stark an, es handelt sich um ein autoassoziatives neuronales Netzwerk. Na ja, hatte ich bereits 1993 in einer meiner Diplomarbeiten eingesetzt. Ebenfalls einen Kohonen Layer. In Kombination mit etlichen anderen mathematischen Verfahren wie Zeitreihenanalysen, Hidden Markov-Modellen etc.

Damals war es natürlich noch ein Traum, mit derartigem Rechenpower hantieren zu können... :).
 
halninekay schrieb:
Data, bald lebt er wirklich! Ist schon irre wie weit die sind.

sind sie nicht. es gab in den letzten 15 jahren keine nennenswerte fortschritte.
es wurden lediglich ide alten erkenntnisse experimentativ mit größeren netzwerken / größerem hardwareaufgebot simuliert.

allerdings muss man auch dazu sagen, dass so viel neues es da vermutlich auch nicht mehr zu entdecken gibt. sonderlich kompliziert funiktionieren die einzelnen am denken und lernen beteiligten teile unseres gehirns nicht, wie sich das mancher wohl vorstellt.
 
Wenn ich jeden Tag so meine Umgebung beobachte, bspw. Fußgänger, die Smartphone-tippend ohne Rücksicht die Straße überqueren, komme ich zur Überzeugung, dass sich viele Gehirne auch mit einem 8086 simulieren ließen...
 
Surrogates war nur der Anfang ;)
so faszinierend das auch ist, ich hoffe die brauchen noch 70 Jahre, bis dahin bin ich nicht mehr da :lol:
 
Dese schrieb:
sind sie nicht. es gab in den letzten 15 jahren keine nennenswerte fortschritte.
es wurden lediglich ide alten erkenntnisse experimentativ mit größeren netzwerken / größerem hardwareaufgebot simuliert.

allerdings muss man auch dazu sagen, dass so viel neues es da vermutlich auch nicht mehr zu entdecken gibt. sonderlich kompliziert funiktionieren die einzelnen am denken und lernen beteiligten teile unseres gehirns nicht, wie sich das mancher wohl vorstellt.

Ich denk mal schon das es noch viel zu entdecken gibt, die Hirnforschung ist noch am Anfang. Man müsste nur mal besser zusammenarbeiten und das vielleicht besser finanzieren.
Es ist schon komisch das eine Eliteuniversität kein Geld hat für die Tesla und Co :D

http://chaosradio.ccc.de/cr187.html
Kann man sich auch mal durchhören, ist sehr interessant.
 
aber irgendwie stimmt doch etwas bei den Angaben nicht:

2012 Google:
1.000 Server = 16.000 CPU-Kerne (bei Octa-Cores: 2000 Cpus)
1,7 Milliarden Parametern

2013: nVidia:
16 Server = 128 Kerne + 64 GPU Kerne
11,2 Milliarden Parameter

Die Performancesteigerung innerhalb von einem Jahr...

Grüße
franeklevy
 
Irgendwann passt solch ein Netzwerk auch in einen gewöhnlichen Privatcomputer - ich hoffe, das erlebe ich noch mit ;)
 
franeklevy schrieb:
aber irgendwie stimmt doch etwas bei den Angaben nicht:

2012 Google:
1.000 Server = 16.000 CPU-Kerne (bei Octa-Cores: 2000 Cpus)
1,7 Milliarden Parametern

2013: nVidia:
16 Server = 128 Kerne + 64 GPU Kerne
11,2 Milliarden Parameter

Die Performancesteigerung innerhalb von einem Jahr...

Grüße
franeklevy

Stimmt auch wenn die GPUs besser parallel rechnen können kommt das irgendwie nicht so hin, vielleicht wurde die ganze Sache auch stark optimiert.
 
@UltiSalamander

Halte durch! Zurmindest noch ca. 10 Jahre.

"Erstaunlich ist hierbei, dass Hardware von der Stange eingesetzt wird. Jeder der 16 Server hat neben zwei Quad-Core-Prozessoren vier Nvidia GeForce GTX 680 verbaut, wobei jede GPU über vier Gigabyte Speicher verfügt. "
 
na dann war ich wohl nich der einzige der den terminator soundtrack im hintergund gehört hat :D
 
flappes schrieb:
Die sollten da ein BOINC (http://boinc.berkeley.edu/) Projekt draus machen, dann hätten die genug Rechenleistung.

Aber nicht genug Bandbreite um die Daten unter den Knoten auszutauschen vermutlich. Rechenleistung ist nicht alles.
 
Zurück
Oben