News Eyeriss: Chip mit 168 Kernen soll Smartphones intelligenter machen

fxler schrieb:
Bringt doch alles nix, wenn der Großteil der Nutzer (Jugend) immer blöder wird, ... , weil ihr Handy schon dem eigenen Kopf weit vorraus ist :D

Made my day :)

So sehe ich das im übrigen auch.
 
Echt seltsam, der Denkspagat. Auf der einen Seite singen die Unternehmen das Hohelied der Cloud Services, um geräteunabhängig möglichst viele Dienste frei skalierbar abzubilden.
Um dann doch wieder mit seltsamen Hardwareeskapaden genau solche Dienste wieder lokal ins Gerät zu implementieren.
 
kane70 schrieb:
Echt seltsam, der Denkspagat. Auf der einen Seite singen die Unternehmen das Hohelied der Cloud Services, um geräteunabhängig möglichst viele Dienste frei skalierbar abzubilden.
Um dann doch wieder mit seltsamen Hardwareeskapaden genau solche Dienste wieder lokal ins Gerät zu implementieren.
Das ist Forschung und Forschung deckt sehr viele Bereiche ab und hat nicht zwangsläufig irgendwas mit einem oder einer Gruppe von Unternehmen zu tun.
The MIT researchers' work was funded in part by DARPA.

Außerdem sind Öffentlichkeitsarbeit der Unternehmen (was bei uns ankommt) und Unternehmensziele/-bestrebungen zwei Paar Schuhe.

Weiterhin gilt das "Hohelied der Cloud Services" auch nur für einen begrenzten Teil von Unternehmen.

EDIT: Und es wäre schön, in der Kommentarspalte über technische Eigenheiten des Newsinhaltes anstatt über pauschalisierten Blödsinn lesen zu können.
 
Zuletzt bearbeitet:
Das klingt wieder alles nach tollem PR-Gelaber.
Haben die Entwickler vor der Einführung der neuen Konsolengeneration (PS4, XO) nicht alle hoch angepriesen, was denn nicht alles mit der neuen Rechenleistung alles für tollel Sachen mit der KI gemacht werden können. So "lifelike" die Gegner auch dann sein werden!!!

Was ist davon zu sehen......nichts.
Es bringt die größte Rechenpower nichts, wenn kein Entwickler das nötige Gehirnschmalz in die entsprechende Software investiert. Und (finanziell) in sowas investieren will keiner.

Und 168-Kerne im Smartphone bringen mal überhaupt nichts...weil es einfach eine dumme pauschale Aussage ist, die wie PR-Sprech klingen.
 
Zuletzt bearbeitet:
Roi-Danton schrieb:
Das ist Forschung und Forschung deckt sehr viele Bereiche ab und hat nicht zwangsläufig irgendwas mit einem oder einer Gruppe von Unternehmen zu tun.

Außerdem sind Öffentlichkeitsarbeit der Unternehmen (was bei uns ankommt) und Unternehmensziele/-bestrebungen zwei Paar Schuhe.

Weiterhin gilt das "Hohelied der Cloud Services" auch nur für einen begrenzten Teil von Unternehmen.

EDIT: Und es wäre schön, in der Kommentarspalte über technische Eigenheiten des Newsinhaltes anstatt über pauschalisierten Blödsinn lesen zu können.

Vielen Dank für die "Info". Vielleicht versuchst Du mal zu verstehen, dass andere Menschen die Welt aus anderen Augen betrachten.
Ich bin zufälligerweise IT Architekt bei einem Konzern. Die einzige Gründe, wenn bei uns momentan was nicht in die Cloud geht, sind entweder rechtlicher Natur oder basieren auf Verfügbarkeits- und anderen NFR-Themen - und das ist nicht nur bei uns so. Entsprechend bin ich interessiert an dem Thema. Tut mir leid wenn der technische Level nicht Deinen Erwartungen entspricht.
 
@kane70:
Das schließt sich doch nicht aus! Man braucht die Server immer noch für viele Dienste. Man kann ihnen aber CPU load abnehmen. Das macht die Server per se ja nicht überflüssig, verlagert nur einen Performancebedarf zum Endgerät. Wenn am Schluss die Cloudserver 20% weniger Last im Schnitt haben, ist doch allen geholfen.
Zudem liegt er ja nicht falsch. Die technische Seite dieser Geschichte ist dennoch eine Interessante!
 
Merle schrieb:
Das Interessante hier ist dieser Satz.
Was zeichnet diesen Chip aus? Also diesen Teil der Beschreibung.

Künstliche Neuronale Netze führen an sich sehr einfache Berechnungen durch (Multiplikation und Aktivierung), allerdings davon eben sehr viele parallel, weshalb die Berechnung in diesem Bereich (entsprechender Programmierung vorausgesetzt) sehr gut mit der Anzahl der Kerne skaliert.
Darüber hinaus wird gerade im bereich des Smart Home, Spracherkennung, und solchen Dingen sehr viel mit künstlichen Neuronalen Netzen gearbeitet. Gerade die Spracherkennung ist ein perfektes Beispiel, welche theoretisch auch lokal durchgeführt werden könnte. Allerdings müsste es dann in regelmäßigen Abständen auch Updates der Parameter/des Netzes geben und gerade durch die häufige Nutzung der Spracherkennung aller, verbessert sich das System ja (Maschinelles Lernen als Stichwort)
 
Wenn das Smartphone intelligenter werden soll,ok, aber mit allein mehr Kernen schafft man das nicht. Und wenn die üblichen Betriebssysteme eingesetzt werden, wovon ich ausgehe, dann wird das Phone auch nicht schlauer. Es müßte ja quasi ein ganz neues Betriebssystem her, was sowas wie intelligentes lernen ermöglicht. Für mich ist das nicht nur Zukunftsmusik, sondern es hört sich schon nach Scifi an...^^
Den Prototyp des Eyeriss-Chips, dessen Funktionsweise auf lernfähigen neuronalen Netzen (Deep Learning) basiert...
Wie das genau lernfähig sein soll und wie das funktionieren soll, das würde mich im Detail mal wirklich interessieren.
 
Die viel wichtigere Frage, die sich mir stellt ist die, das es ohne online zu sein doch überhaupt nicht funktioniert.
Im Artikel wird das Beispiel genannt, dass externe Server komplette Aufgaben übernehmen. Das Problem ist das nicht die Komplexität der Aufgaben, sondern die entsprechenden Daten, die einer solchen Datenbank hinterlegt sind. Wer hat den die ganzen Gesichtsprofile auf dem Handy, um solche Daten intern berechnen zu können? Wer hat denn die komplette Google Maps Karte der ganzen Welt auf dem handy, nur damit offline und intern navigiert werden kann? Wer hat eine Filmdatenbank aller Filme auf der Welt auf dem Handy, nur um intern und offline seine Filmeliste zu erstellen?

Ich denke hier geht es um PR und um Leistung, die in nahezu keinem Bereich genutzt werden kann.
Ziemlich überflüssige Power...
 
Kerne? Aber sie sprechen von "besser als jede GPU" also sind das nun x86, ARM Kerne oder nur shader cores?
Zumal das "Energieeffizient" noch so toll sein kann. Wenn ich einen Zusatz Chip im Smartphone hab der 4W braucht.... Dann braucht der bei Benützung nun mal 4W. Das ganze in die cloud senden ist lokal betrachtet immernoch wesentlich effizienter.


kane70 schrieb:
Um dann doch wieder mit seltsamen Hardwareeskapaden genau solche Dienste wieder lokal ins Gerät zu implementieren.
Das ist ein Projekt des MIT und hat wenig mit der realwirtschaft zu tun.
Ob das jemals in einem Smartphone eingebaut wird ist fraglich. Evtl Prototypen aber Serien? In den nächsten 7 Jahren nicht, sagt meine Glaskugel.

DrDoom schrieb:
lernfähigen neuronalen Netzen (Deep Learning) basiert...
Wie das genau lernfähig sein soll und wie das funktionieren soll, das würde mich im Detail mal wirklich interessieren.
Dann kann ich dir empfehlen schau dir die Videos von Nvidia an zum Thema autonomes Fahren. Die verwenden eine ähnliche Lernmethode um ihren Computern beizubringen wie man sich korrekt verhält auf der Straße.
Oder hier: http://news.mit.edu/2015/visual-scenes-object-recognition-0508


P.S zum Thema "das braucht dann ja ein ganz neues OS"
Nope tuts nicht. Man kann auch eine xeon Phi Karte zusätzlich in nen Windows PC stecken und so verwenden. Solange der Software Support dafür vorhanden ist. Bestes Beispiel ist da Googles neues Projekt mit 3D Sensoren und Lasern im Tablet um Innenräume /Gebäude zu vermessen. Die laufen auch unter Android.
 
Zuletzt bearbeitet:
Der Vorteil: es werden die Aufgaben bestimmten Kernen zugewiesen. Diese erledigen ihren job mit hoher Effizienz. Dann können für weitere Aufggaben mehr Kerne aktiviert/aber auch wieder abgeschaltet werden. Und ja, massive Parallelisierung lässt mich nicht Kerbal Space Programm auf dem Smartphone spielen, aber es können mehr Aufgaben übernommen werden, die Voraussetzung für die Weiterentwicklung des Smartphones und auch unserer Gesellschaft.
 
kane70 schrieb:
Echt seltsam, der Denkspagat. Auf der einen Seite singen die Unternehmen das Hohelied der Cloud Services, um geräteunabhängig möglichst viele Dienste frei skalierbar abzubilden.
Um dann doch wieder mit seltsamen Hardwareeskapaden genau solche Dienste wieder lokal ins Gerät zu implementieren.

Warum Denkspagat? Die Industrie setzt das um, was technologisch vorhanden ist. Das sind momentan Clouds usw.
Sebstlernende Chips wie diesen Eyeriss hier gibt es halt bisher nur auf experimenteller Ebene. Aber die Industrie möchte trotzdem Dienste wie Gesichtserkennung, Spracherkennung usw. anbieten. Und setzt deshalb auf Cloud Computing etc.. Und erzählt natürlich jedem, wie toll das sei^^ Bringt ja auch Vorteile, weil technologisch halt (noch) nix anderes da ist.
Aber sollten solche Chips wie der Eyeriss vom MIT ihren Durchbruch bekommen, dann wirst Du ganz schnell (neue) Firmen sehen, die damit Geld verdienen wollen und Dir erzählen wie toll neuronale Chips und Netzwerke usw. doch sind.
 
Um mal etwas zum Thema zu sagen und nicht über die Inteligenz der heutigen Jugend ...

Durch den Chip, sehe ich gerade ziemlich viele Lieutenant Commander Datas hier in einer hoffentlich nicht ganz so entfernten Zukunft rumlaufen.^^
Die spärlichen Infos hören sich schonmal gut an.
 
Gutes Projekt und die einzig sinnvolle Anwendung für die mittlere bis entferntere Zukunft wenn man nicht nur als Unternehmer denkt.

Bringt aber viele Probleme die bei der Hardware anfängt, die noch lange nicht so weit ist, bis über die Software, die leider auch hier kompromittiert werden kann und wird, bis hin zu den individuellen Erfahrungen die jedes Gerät machen muss bevor es individuell einsetzbar ist!

Als Zwischenlösung könnte man ja auch eine dezentrale Vernetzung über Schwarmintelligenz implementieren!?!

Ideal wäre natürlich eine komplett selbstständig Anwendung - aber da dauert noch viele Jahre bis die Rechner das im großen schaffen, geschweige denn wie hier im kleinen.
Aber ein sinnvoller, guter Ansatz - im Gegensatz zu den meisten idiotischen, großindustriellen Forschungsprojekten die man sonst zu lesen bekommt!
 
Es ist interessant und zugleich erschreckend, was technisch alles möglich ist.
Die Technik ist in den letzten Jahrzehnten unglaublich weit vorrangeschritten. Smartphones, VR, selbst fahrende Autos, Nanomedizin,... Ob das jetzt in allen Bereich gut ist, sei mal dahin gestellt. Der Mensch will sich immer weiter über die Natur stellen, nur wird das irgendwann mal tierisch schief gehn!

Wenn diese entwicklung so weiter geht, enden wir bald alle wie in "Matrix" (nur ohne Neo:D)
 
Na dann her damit.

Bringt mir nur nix. Nutze gerade diese Funktionen eh nicht. :P Daher dürfte es für mich wohl eher eine Energieverschwendung als eine Ersparnis darstellen.

Ich sehe auch generell keinen zu großen Markt für die genannten Funktionen. Für autonome Autos, ja aber sonst nein. Es handelt sich um Funktionen die einen winzigen Teil der Aufgaben eines Endgeräts darstellen. Bei vielen ist das Gerät die meiste zeit im Standby und verbraucht dann Unmengen für Funktionen die eigentlich nur 1x im Monat angefragt werden.

Besser wäre ein simpler Prozessor der im Standby nur µW statt heute mW verbraucht. Da freut sich die Umwelt über weniger CO2.
 
Zurück
Oben