Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia DGX-1: Supercomputer mit 8 Tesla P100 für künstliche Intelligenz
Eines der ersten Produkte auf Basis der angekündigten Pascal-GPU GP100 ist eine Art „Superkomplettrechner“. Nvidia beschreibt den DGX-1 als „First Deep Learning Supercomputer in a Box“. In dem Server-Rack stecken acht Tesla P100, denen zwei Intel Xeon mit 16 Kernen, 512 GB RAM und vier 1,92-TB-SSDs im RAID zur Seite stehen.
Naja ich bin nicht so überzeugt davon, dass die GPU die perfekte Architektur für KI ist.
Für deep learning sicher ein ganz interessanter Ansatz, aber ich denke für wirkliche Intelligenz mit eigenem Bewusstsein und selbstständigem Lernen wären dynamisch rekunfigurierbare Architekturen, seien es FPGAs oder Biocomputer, eine wesentlich größere Bereicherung. Leider wird dieses Thema immer noch viel zu stiefmütterlich behandelt, wie ich finde.
Okay.
Wenn du mich fragst, ob ich ein Bewusstsein habe, und ich sage ja, habe ich eins?
Jeder Computer kann dasselbe sagen. Hat der dann auch ein Bewusstsein?
Man kann Bewusstsein weder qualitativ, noch quantitativ nachweisen.
Und medizinisches Bewusstsein (=Wachsamkeit + Gehirnfunktion) != (sich selbst) Bewusst( )sein.
Und jetzt komm mir bitte nicht mit Fluidum, Seele, oder das was bei Harry Potter rauskommt, wenn ein Dementor an denen lutscht.
Soweit ich mitbekommen habe ist die größte Gefahr bei künstlichen Intelligenzen bzw. Superintelligenzen, dass diese "zufällig" und unbemerkt intelligent genug wird um den Menschen als Bedrohung oder Störfaktor für die zugedachte Funktion zu erkennen. Und laut den Experten wird es früher oder später zu einer solchen Superintelligenz kommen. Da finde ich es beruhigender, dass sich einige Leute bewusst damit beschäftigen eine solche Intelligenz zu schaffen und dabei solches Verhalten zu verhindern suchen.
Artikel-Update: Im Showcase der GTC 2016 durften nach der Keynote auch die ersten Hersteller entsprechende Systeme ausstellen. Mit dabei ist eine Lösung von QuantaPlex, die auf zwei Mainboards einmal die beiden Xeon-Prozessoren und auf der anderen Platine die acht Tesla P100 setzt und diese in einem flachen 3U-Gehäuse unterbringt. Die Anordnung der Tesla-Karten ist dabei extrem dicht gestaltet, was aufgrund der neuen Anschlüsse der Karten auf der Rückseite möglich ist.
[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
Dq Crysis nur 1 core unterstützt und 2 16 core verbaut sind wäre die Antwort wohl 32 mal.
SimsP schrieb:
aber ich denke für wirkliche Intelligenz mit eigenem Bewusstsein und selbstständigem Lernen wären dynamisch rekunfigurierbare Architekturen, seien es FPGAs oder Biocomputer, eine wesentlich größere Bereicherung. Leider wird dieses Thema immer noch viel zu stiefmütterlich behandelt, wie ich finde.
Gibt es ja bald die Intel Chips mit FPGA aufm die.
Viel interessanter find ich eig. Das Nvidia für deep learning FP16 vorschlägt.
So im Sinne, Fehler passieren eh, scheiss auf Genauigkeit. Das märzen wir durch die schiere Menge einfach weg.
Keine Ahnung, ob der Satz noch korrektes Deutsch ist.
Weil die Anschlüsse der Karten auf der Rückseite sind, können die Tesla-Karten dicht gestaltet werden?
Und was bedeutet "dicht gestaltet"? Der Abstand der einzelnen Teslas zueinander, die Bauteile der Teslas, oder beides?
Es ist wohl noch ein weiter Weg, bis man (endlich) an das Große rangekommen ist und was gleichwertiges zum menschlichen Gehirn erschaffen hat. Allein der Energieverbrauch: Hier beim DGX-1 bis zu 3.200 Watt, während das Gehirn bei ca. 20 W liegt (und dabei in allen Bereichen der Technik noch haushoch überlegen).
Hätte Nvidia das menschliche Gehirn erfunden, dann hätten sie bei dessen Ankündigung auf ihrer Hausmesse erstmal eine Attrappe aus Holz gezeigt Und bei den ersten Tests hätte man festgestellt, dass ein Teil der Speicherkapazität extrem langsam angebunden ist
Der Superkomplettrechner wird 129.000 US-Dollar kosten und soll bereits im Juni in den Vereinigten Staaten erhältlich sein. Andere Regionen sollen ab dem dritten Quartal bedient werden.
Es ist wohl noch ein weiter Weg, bis man (endlich) an das Große rangekommen ist und was gleichwertiges zum menschlichen Gehirn erschaffen hat. Allein der Energieverbrauch: Hier beim DGX-1 bis zu 3.200 Watt, während das Gehirn bei ca. 20 W liegt (und dabei in allen Bereichen der Technik noch haushoch überlegen).
Es wird noch sehr lange dauern bis Computer das Gehirn in Sachen Effizienz schlägt. Im Gegensatz zum Gehirn ist aber ein Computer weder vom Volumen noch Energieverbrauch beschränkt. Man kann ein beliebig großes Rechenzentrum samt ein paar Atomkraftwerken bauen.
Ich habe noch ein Spruch der Michael Dell zugeschrieben wurde im Kopf: Wir können jetzt schon Computer mit der Komplexität des menschlichen Gehirns bauen. Nur die Stromrechnung wird keiner zahlen wollen.
Das war vor vielen, vielen Jahren aber wie lange dauert es wohl, bis wir so etwas unter dem Schreibtisch haben?
Kommt mal runter, was soll dieser nVidia Spam? Ja, ne neue Generation von Grafikkarten, noch weit weg, und jetzt gibt es einen PC mit 8 Stück für "künstliche Intelligenz" (weil es ja so neu und toll ist) und ne extra News (zwischen zwei anderen)? Schon klar.
Wenigstens gibt es keinen Anlass sich über die Intelligenz Sorgen zu machen bei so einer Bestückung...
Nene, die reine Transistorenanzahl gibt keine Auskunft darüber wie performant sie in Spielen ist.
Vorallem da jetzt wohl auch mehr auf die theoretische Leistung hin optimiert wurde so wie es ausschaut.
bzgl Datum:
CB-News zu P100 schrieb:
Wann „Big Pascal“ als GeForce-Karte im Handel erscheinen wird, ist noch völlig fraglich. Es erscheint nicht unwahrscheinlich, dass dies erst Anfang des nächsten Jahres der Fall sein wird. Der kleinere GP104 als Nachfolger des GM204 und Ablöse der GeForce GTX 980 sowie GeForce GTX 980 Ti wird gegen Mitte des Jahres erwartet.