News iPhone: Apple soll an eigenem AI-Chip arbeiten

cnlohmueller

Ensign
Registriert
Aug. 2014
Beiträge
210
Apple arbeitet an einem Chip für künstliche Intelligenz. Das berichtet Bloomberg unter Berufung auf eine anonyme Quelle. Der intern als "Apple Neural Engine" bezeichnete Chip könnte beispielsweise die Gesichts- oder Spracherkennung übernehmen – und gleichzeitig die Batterielaufzeit verlängern.

Zur News: iPhone: Apple soll an eigenem AI-Chip arbeiten
 
Apple scheint das Konzept von ARM Chips für Spezialaufgaben ziemlich zu mögen.
Laut Forbes bekommen die nächsten Macbooks ja auch einen zweiten ARM Chip für Hintergrundaufgaben.
 
Ich finde zu künstlicher Intelligenz gehört auch die Fähigkeit sich seiner Welt bewusst zu sein, was erfordert, dass man Objekte erkennt.
Sprach- und Objekterkennung ist also eine der Grundlagen für künstliche Intelligenz und gehört dementsprechend auch dazu.

Zum AI-Chip selbst:
Dieses Jahr könnte ein verdammt großes Jahr für das SoC im iPhone werden.
Mit iOS 11 wird man wohl auf 32bit-Support verzichten, d.h. in den 2017er iPhones (die ja iOS 11 only sein werden) kann der Prozessor auf alle Schaltkreise verzichten, die für die Abwärtskompatibilität zu 32bit-Anwendungen nötig sind.
Und die Ankündigung zukünftig auf die PowerVR-GPUs zu verzichten liest sich so als würde man bereits in den Modellen diesen Jahres eine eigene GPU verwenden und Lizenzzahlungen zukünftig nur noch für iPhone 7, 6s, SE und die iPads (und Apple Watch?!^^) leisten, die ja teilweise noch eine Weile verkauft werden.
D.h. auch bei der GPU wird sich enorm viel tun.
Jetzt noch einen AI-Coprozessor oder vielleicht eher AI-Schaltkreise im A-SoC integrieren, Platz wäre ja nach dem diesjährigen Umbau sicherlich, und Apple würde sich noch stärker von der Konkurrenz abgrenzen als nur durch in der Regel zum Release höhere Leistung.
 
Ich frag mich obs das am Ende bringt alles auszulagern.
Wenn ich mal so 25 Jahre zurück denke, da gabs den Co-Prozessor noch extern (bzw. auch optional), der Cache war lange zeit auf dem Board, der Speichercontroller ebenfalls, der Chipsatz bestand noch aus 2 Teilen.
Erst hat man Jahre lang alles in die CPU gepackt um effizienter (und billiger) bauen zu können und jetzt holt man alle möglichen Teile raus um effizienter zu werden. ;)
 
Erst hat man Jahre lang alles in die CPU gepackt um effizienter (und billiger) bauen zu können und jetzt holt man alle möglichen Teile raus um effizienter zu werden

Das Problem wird eher die Wärmeabführung sein. Früher hat n 40er lüfter mit nen mikrokühlkörper ohne WLP gereicht, heute braucht man schon so ziemliche Monster, um den CPU den Kopf zu kühlen.

Früher haste auch das Problem der Anbindung externer Chips gehabt, der ISA / PCI Bus war nicht wirklich günstig dafür. Heute haste mit PCIe Lanes ausreichend Geschwindigkeit, um externe Chips für Spezialaufgaben auszulasten. Auch durch Mehrkern Prozessoren wurde die Situation gegenüber früher verbessert.

Auch sollte die Versorgung auf dem CPU Chip dürfte ziemlich problematisch für solche extra HochleistungsChips sein. Extern dürfte es einfacher zu bewältigen sein.
 
Blutschlumpf schrieb:
Erst hat man Jahre lang alles in die CPU gepackt um effizienter (und billiger) bauen zu können und jetzt holt man alle möglichen Teile raus um effizienter zu werden. ;)

Man holt keine Teile raus, sondern entwickelt komplett neue zusätzliche Teile, die für einen speziellen Anwendungsfall (AI) um längen effizienter sind als die bisherige Technik. Auch Nvidia hat der V100 deshalb extra Tensorcores hinzugefügt.
 
iSight2TheBlind schrieb:
Ich finde zu künstlicher Intelligenz gehört auch die Fähigkeit sich seiner Welt bewusst zu sein, was erfordert, dass man Objekte erkennt.
Sprach- und Objekterkennung ist also eine der Grundlagen für künstliche Intelligenz und gehört dementsprechend auch dazu.

Zum AI-Chip selbst:
Dieses Jahr könnte ein verdammt großes Jahr für das SoC im iPhone werden.
Mit iOS 11 wird man wohl auf 32bit-Support verzichten, d.h. in den 2017er iPhones (die ja iOS 11 only sein werden) kann der Prozessor auf alle Schaltkreise verzichten, die für die Abwärtskompatibilität zu 32bit-Anwendungen nötig sind.
Und die Ankündigung zukünftig auf die PowerVR-GPUs zu verzichten liest sich so als würde man bereits in den Modellen diesen Jahres eine eigene GPU verwenden und Lizenzzahlungen zukünftig nur noch für iPhone 7, 6s, SE und die iPads (und Apple Watch?!^^) leisten, die ja teilweise noch eine Weile verkauft werden.
D.h. auch bei der GPU wird sich enorm viel tun.
Jetzt noch einen AI-Coprozessor oder vielleicht eher AI-Schaltkreise im A-SoC integrieren, Platz wäre ja nach dem diesjährigen Umbau sicherlich, und Apple würde sich noch stärker von der Konkurrenz abgrenzen als nur durch in der Regel zum Release höhere Leistung.

Bereits die GPU des A10s ist keine normale PowerVR Rogue GPU mehr sondern eine Version von Rogue bei der Apple einige Teile ausgetauscht haben.
Also ist das sehr wahrscheinlich.
 
Für mich liest sich der Artikel als ob Apple in ihren zukünftigen iPhones einen zusätzlichen Prozessor einbauen wollen, um den Hauptprozessor zu entlasten, dass wiederum Energie sparen soll.
Eigentlich eine gute Idee.
Aber dass das ganze jetzt auch noch mit KI in Verbindung gebracht wird, hört sich bei mir mehr nach PR an.
 
@Corros1on
Apple hat bereits seit Jahren bestimmte Funktionen in externe (bzw. mittlerweile wieder im SoC integrierte) Chips ausgelagert, siehe Motion-Coprocessor.

AI-Funktionen kann man auch besser mit spezialisierter bzw. angepasster Hardware umsetzen und da das immer wichtiger wird ist es sehr naheliegend, dass Apple so etwas integriert. Ob nun in einen speziellen Chip oder einfach mit ins SoC nimmt sich dabei nicht viel, insbesondere da ich mir keinen Anwendungsfall vorstellen kann in dem AI-Funktionen unabhängig vom SoC sein müssen um Strom zu sparen.

Bei den M-Prozessoren ging es darum die Bewegungsdaten des Gerätes jederzeit auswerten zu können ohne dabei den Hauptprozessor aufwecken zu müssen, deshalb wurden diese Funktionen mit dem iPhone 5s ja ausgelagert.
Aber in iOS 10 hat Apple ja bereits die Bilderkennung in der Photos-App integriert, die Objekte in geschossenen Fotos erkennt während das Gerät ungenutzt am Netzteil hängt. Das funktioniert dann natürlich über den Hauptprozessor, der da eh nichts zu tun hat und ruhig Strom verbrauchen darf.

Beim nächsten iPhone wird ja über einen Fokus auf Augmented Reality spekuliert und da ist es natürlich enorm sinnvoll wenn das Gerät beispielsweise verschiedene Hunderassen sofort erkennt und nicht erst wenn es wieder am Strom hängt^^
Dafür ist es sinnvoll spezialisierte Schaltkreise dafür zu haben, um nicht unnötig Strom zu verbrauchen - aber diese können auch ruhig im SoC sein, denn der schläft währenddessen sowieso nicht.

Das hat alles absolut gar nichts mit PR zu tun!
 
Effizienz heißt für mich Weiterentwicklung am Akku bzw. weniger Platz für unnötigen Schnickschnack im Gerät, weg vom Trend ein Smartphone wie ein Stück Papier zu zu machen sondern eine normale Standardgröße unter Berücksichtigung eines Akkus mit soweit wie möglich viel Kapazität. Da wird die Elektronik kleiner aber statt hier nachzubesser haut man noch mehr Technik rein und lässt das andere schleifen. Einfach bescheuert. Den Kunden verkauft man dann die neuen Features die von der Mehrheit eh nicht so richtig ausgenutzt werden und am Ende hat man ein eigentlich unrundes Produkt wo sich die Kunden weiterhin über niedrige Akkulaufzeiten beschweren. Kennen wir alles schon. Aber wenn Einsicht Fehlanzeige ist, was will man machen. Ist bei Apple nicht anders wie bei anderen Firmen.
 
Das Geheule bezüglich der Akkulaufzeit geht mir richtig auf den Sack!
Das iPhone 7 (Plus) hält länger als die vergleichbaren Vorgänger, das einzige Modell welches da noch mal einen draufsetzt ist das iPhone SE und auch bei Android ist die Akkulaufzeit hoch und in den letzten Jahren eher noch leicht gestiegen (insbesondere bei Samsung).

Klar, die kann man alle leerspielen wenn man aufwendige Spiele spielt oder GPS-Navigation bei Atomblitz-Displayhelligkeit betreibt, aber das können nicht die Anwendungsfälle sein auf die optimiert wird. Bei normaler Nutzung kommt man locker über den Tag und alles darüber ist überflüssig, denn eine ganze Woche oder sonstige "Handy"-Laufzeiten wird man nicht mehr erreichen und ob ich das Teil nun jeden Tag lade oder alle zwei Tage nimmt sich absolut nichts.
 
yast schrieb:
Auch Nvidia hat der V100 deshalb extra Tensorcores hinzugefügt.

Moment - meinst du damit das die Tensorcores exklusiv für den V100 kommen und andere NVIDIA Volta Chips diese nicht bekommen würden?

Falls ja: hast du seriöse Quellen dafür?

Das wäre ja super uncool...

Falls OpenCL-Support (vor allem schneller/stabiler) für die meisten machine learning frameworks zu AMD's Vega wieder nichts wird, wollte ich 2018 für so um die 600 Eur auf eine 1180 (oder wie auch immer ein V104 dann heißt) umsteigen.

Ohne Tensorcores aber befürchte ich, dass der Leistungsunterschied zu einer 1080 keine ~600 Eur wert sein wird.
 
Wenn es um KI Chips geht sollte man sich in Youtube mal neurale Netzwerke anschauen. Das hat nur sehr bedingt mit klassischer Berechnung und Programmierung zu tun.
Absolut cool wie schnell man da gut funktionierende Zahlenerkennung hinbekommt rein über das Anlernen von Samples.

Deswegen gibt's von Google auch dem Tensor AI CPU und von NVidia Tensor Kerne, da bei neutralen Netzwerken wohl hauptsächlich Matrizenberechnung stattfindet.

Edit:
https://youtu.be/u4alGiomYP4

Find ich cool. Nicht lange statisch coden was gemacht werden soll sondern den PC selbst lernen lassen + selbst optimierend.
 
Zuletzt bearbeitet:
wie gesagt, solange da keine AGI gebaut wird ist alles noch im Grünen ^^ :P

Nicht lange statisch coden was gemacht werden soll sondern den PC selbst lernen lassen + selbst optimierend.

oh oh oh ..... mir schwant böses ....
 
@iSight2TheBlind
Doch es ist nervig und ich bin jemand der nicht ständig spielt oder sowas. Aber bspw. rein bei Internetverbindungen merke ich, das zieht kräftig den Akku leer. Da kann man sicherlich einiges optimieren und alle 2-3 Tage aufladen ist mir einfach nicht genug. Das Problem ist aber auch, dann werden Smartphones gebaut die viel Akku haben aber der Rest taugt dann nichts. Da wird dann übertrieben einen auf sehr sparsam gemacht und da eine Krücke an Soc verbaut was nicht mal sein muss. Nur so als Beispiel. 1 Woche ist sicherlich problemlos machbar wenn die Hersteller eine gute technische Mittelklasse rausbringen, in einem nicht zu platten Gehäuse mit einem dementsprechend großen Akku und paar wichtigen Features. Die Diskussion um Akkulaufzeigen wirst du immer haben weil es nun mal viele Menschen gibt die nicht dauernd aufladen wollen. Da bringt es auch nichts zu sagen das man das ja machen könnte wie das tägliche Zähne putzen.

Was willst du noch alles "dauernd und täglich" laden? Elektrische Zahnbürste bspw. das gleiche Problem. Weswegen es Leute gibt die den alten Akku durch einen stärkeren austauschen (wenn es die Elektronik zuläßt) und erst dann zufrieden sind das das Teil länger hält. Dann kommt vielleicht eine Smartwatch dazu usw. Besteht dann der Lebensinhalt vieler Menschen darin, dauernd Zeit für oft immerwiederkehrende Ladesituation aufzuwenden? Das kann man minimieren was meiner Ansicht nach ein großes Ziel sein sollte, statt immer mehr Funktionen einzubauen die ohn Wunder, dann vom größeren Akku wie du es sagst "zusätzlich" und somit insgesamt noch mehr ziehen. Von den Akkulaufzeitentests halte ich nicht viel was man an persönlichen Erfahrungsberichten sieht.

Dich stört es nicht, micht stört es. Ist halt so. Und weil man eben längeres von früher gewohnt war, ist das ne Art Rückschritt. Klar hat man heute mehr Möglichkeiten aber ich persönlich will das alles nicht denn am Ende ist es ein Gerät wo man nicht alle Funktionen ausgereizt nutzt, dass sind eher Verkaufsargumente. Da heiße ein wie obiges beschriebenes Gerät willkommen.
 
@Krautmaster: (künstliches) neuronales Netzwerk. Mit Neutralität hat das nichts zu tun ;)

Wobei der englische Fachbegriff (artificial) neural network deutlich verbreiteter ist, da Forschung heutzutage mit wenigen Ausnahmen i.d.R. immer in Englisch stattfindet.

"Matrizenberechnung" (2D) ist auch nur bedingt richtig, da es vor allem auch sehr viele Vektoren (1D) und n-dimensionale Tensoren gibt. Deshalb heißt Google's TensorFlow auch TensorFlow, weil es i.d.R. um 1-dimensionale (Vektor), 2-dimensionale (Matrix) oder 3-5 dimensionale Tensoren (für conv kernels) geht.
Flow weil die Daten durch einen Graphen "fließen", dessen einzelne Nodes (Knoten) die einzelnen Operationen und Ergebnisse darstellen.

"Matrizenberechnung" ist also ein wichtiger Bestandteil, aber eben auch nur ein Teil. Konkret geht es bei neural networks um lineare Algebra und im Zuge dessen i.d.R. um Optimierungsprobleme.

Auf diese oder sehr ähnliche Weise organisiert das übrigens jede machine learning library. Also das abstrakt ein neural network als Graph dargestellt wird und die einzelnen Komponenten sowie ihre Verbindungen untereinander dann als Knoten respektive Kanten.

Davon zu unterscheiden ist übrigens ein (echtes/biologisches) neuronales Netz(werk). Bei diesem sind nämlich sehr viele, unterschiedliche Dendriten als Eingangspotenziale mit einem einzigen Neuron verbunden. Ist die Anregung im Input groß genug, d.h. sie überschreitet einen gewissen Schwellwert, feuert das Neuron, d.h. löst einen Impuls über sein Axon aus (das wiederum mit weiteren Neuronen verbunden ist, bei denen das Signal dann über deren Dendriten eingeht).

Die Problematik hierbei ist nun, dass biologische Neuronen kontinuerlich, sich mehr oder weniger arbiträr vernetzen können, Verbindungen mit der Zeit auf-/abbauen können und vor allem "spiken", d.h. ihre Erregung skaliert nicht mit der Intensität (Amplitude) eines Signal, sondern mit der Frequenz.

All diese Sachen kann man künstlich im Computer nicht direkt abbilden: heutige Computer bilden (ob nun auf Festplatte, im RAM, im Cache, ...) immer diskrete Zustände ab.
Einzelne Verbindungen von Neuronen untereinander "manuell" (z.B. per OOP) aufzulösen, wäre unglaublich ressourcenaufwändig und würde die heutigen Möglichkeiten von Computern um Größenordnungen übersteigen.
Ebenfalls ist es nicht möglich, parallel bei neuronen im Größenbereich von 1e^4 (kleinere Experimente) bis 1e^7 (großes Zeug auf dicken Clustern) dynamisch je nach Stimulanz die Frequenz anzupassen.

Als Abhilfe nimmt man deshalb lineare Algebra: da kann man stark parallel große Vektoren, Matrizen bzw. eben allgemein n-dimensionale Tensoren verarbeiten.
Um nun die unterschiedlichen Verbindungen abzubilden, geht man grundsätzlich immer erstmal davon aus, dass "alles mit allem" verbunden ist und setzt diejenigen Gewichte, bei denen keine Verbindung von einem Neuron zum anderen mehr dargestellt werden soll einfach auf Null (somit "sendet" das Neuron kein Signal mehr, da ja alles per Multiplikation/Addition propagiert wird).
Für die Schwellwerte und das Spiken, also die Frequenz bei unterschiedlicher Erregung hat man sich auch eine gute Abhilfe einfallen lassen (trivial etwa "if"-statements zu benutzen wäre wiederum um Größenordnungen zu Ressourcenaufwendig): für den Schwellwert zieht man einfach einen bias-Vektor per Subtraktion vom Ergebnis ab. Damit werden Ergebnisse erneut "genullt", die den erforderlichen Schwellwert nicht überschreiten und anstatt die Frequenz modellieren zu müssen, bedient man sich einfach nicht-linearer Aktivierungsfunktionen und nimmt hinterher deren Output als Messgröße für die Erregung eines künstlichen Neurons.

Wobei man i.d.R. nur darauf achten muss, dass die Funktion differenzierbar ist und normalerweise monoton steigend sein sollte.

Die Problematik der Kontinuität löst man im Prinzip nicht, aber 16- oder 32-bit floats bieten für derzeitige machine learning Lösungen ausreichend Genauigkeit/Zustände.
 
Zuletzt bearbeitet:
Früher hat man aber auch ein Briefmarkendisplay ohne Hintergrundbeleuchtung (und Farben) gehabt, Spielkonsole die zwar keine Lüfter hatten aber auch keine Leistung, Tiefkühlpizza war mal eine krass neumodische Sache und Autos waren noch rein mechanisch, hatten aber auch keine Airbags oder ESP.

Das war einmal und nun ist es nicht mehr so!

Wenn man unbedingt mehr Akkulaufzeit möchte kann man zu den paar Androidgeräten mit Mittelklasse-SoC und drangeflanschter Autobatterie greifen oder nimmt gleich ein "Handy".

Wem die Akkulaufzeit einer Smartwatch nicht ausreicht der muss keine kaufen, irgendwelche normalen Uhren die bei eingegangenen Nachrichten vibrieren haben für mich aber nichts smartes.
 
iSight2TheBlind schrieb:
Wenn man unbedingt mehr Akkulaufzeit möchte kann man zu den paar Androidgeräten mit Mittelklasse-SoC und drangeflanschter Autobatterie greifen

Ähm, soviel zum angeflanschten Autobatterie 😉
Schon mal was von Turing Test gehört?
Erst wenn ein Chip oder ein Computer diesen Test mehr als eindeutig besteht bin ich bereit diesen auch als KI oder im englischen als AI zu bezeichne alles andere ist für mich nur Marketing oder ein hübscher Algorithmus.
Die Akkus sind momentan überall die Achills Verse in der Elektronik.
 
@ascer:

Ich muss mal einfach nur danke sagen! So einen informativen Post liest man selten. Danke dir.
 
Zurück
Oben