Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsKünstliche Intelligenz: Google entwickelt eigenen Chip für allwissende Dienste
Google hat auf der I/O 2016 den Themen künstliche Intelligenz und maschinelles Lernen viel Aufmerksamkeit gewidmet. In diesem Rahmen kündigte das Unternehmen an, seit Jahren insgeheim an einer neuen Tensor Processing Unit (TPU) für maschinelles Lernen und künstliche Intelligenz gearbeitet zu haben.
Google selbst spricht bei der erbrachten Leistung von einem Vorsprung von sieben Jahren aus heutiger Sicht. Dies entspräche „drei Generationen von Moore's Law“.
für beispielsweise die Bilderkennung im Auto kann ich mir das auch vorstellen. Auch da muss vielleicht nicht alles hoch präzise sondern intelligent und effizient erfolgen, Erkennung von Mustern.
Ich übersetze mir das so, das Google der Meinung ist durch Spezialisierung des Chips mit einem Zehntel der Transistoren dieselbe Leistung erbringen zu können wie auf einer traditionellen CPU von Intel etc.
Hmm... interessanter Artikel. Was ich nicht verstehe: Warum wird hier der Chip in der Vordergrund gestellt? Die Kernaussage des Artikel (nämlich die hohe Leistung) liegt doch in der Software (den Algorithmen) begründet und nicht in den paar ASCIs, die da zusammengestöpselt sind, oder?
eben, das Moore's Law ist ja kein physikalisches Gesetz das in Stein gemeisselt ist.
Von einer anfänglichen Verdopplung pro Jahr ist er später auf eine Verdopplung alle 2 Jahre umgesprungen, der Herr Moore..
Weil ja die Entwicklung schneller voran ging als er dachte
Er hat mit seiner Aussage aka Gesetz insofern bekannt gemacht, daß die Forschung es als unsichtbare 'Meßlatte' hernahm.
Mir ist sein 'Gesetz' so wichtig wie der sagenumwobene Sack Reis in China, also kann man (von mir aus) das
'Verdoppeln von Irgendwas in 2 Jahren' ruhig als Moores Law bezeichnen.
Ich habe keine Angst vor Skynet... das ist harmlos. Mir läufts nur eiskalt den Rücken runter, wenn ich einen NextGen Tamagochi als US-Präsidentschaftskandidaten sehe. Gegen Pokemon, und beide mit Goggle-KI
Das interessante an diesen Chips ist wohl, dass sie immer leicht abweichende Ergebnisse liefern. Also mal ist 1+1 = 1,9 und beim nächsten mal ist das Ergebnis 2,1 oder 2. Gerade Deep Learning braucht wohl nicht 100% akkurate Ergebnisse pro simuliertem Neuron.
Naja, und Chips die so ungenau rechnen sind ja eigentlich ein Horror...
Hmm... interessanter Artikel. Was ich nicht verstehe: Warum wird hier der Chip in der Vordergrund gestellt? Die Kernaussage des Artikel (nämlich die hohe Leistung) liegt doch in der Software (den Algorithmen) begründet und nicht in den paar ASCIs, die da zusammengestöpselt sind, oder?
Algorithmen die in Hardware umgesetzt werden sind schneller als in Software. Du kannst auch alles was eine Grafikkarte macht auf nem CPU "simulieren", aber dauert halt.
Ist aber vielleicht ein schlechter Vergleich. Besserer Vergleich wäre glaube ich Branch-Prediction oder Pipelining, was alles Algos sind die in Hardware laufen. Kannst du auch in Software machen, ist aber langsamer.
Ich muss dabei auch immer an I-Robot denken... und so witzig finde ich das eigentlich nicht.
Aber egal, die werden schon wissen was sie tun... oder nicht?
Ich frage mich immer wieder, wie wahrscheinlich wäre es das wir eines Tages von einer KI ausgelöscht werden oder zumindest in einen Krieg gezwungen werden. Skynet hin oder her.
Interessant wäre das allemal, zumal warum sollte eine KI uns auslöschen wollen? Das Risiko das es am Ende selber ausgelöscht wird, wäre doch zu hoch. Wer soll dann die Server etc. warten?