News Intel NNP zur AI DevCon: Spring Crest folgt Lake Crest mit vierfacher Leistung

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.736
Intels erste Generation eines Neural Network Processor (NNP) mit dem Codenamen Lake Crest ist bei Partnern im Test, da kündigt der Hersteller auf der heutigen AI Developers Conference bereits den Nachfolger Spring Crest an. Dieser soll bereits im kommenden Jahr verfügbar werden und die drei- bis vierfache Leistung bieten.

Zur News: Intel NNP zur AI DevCon: Spring Crest folgt Lake Crest mit vierfacher Leistung
 
... und wie schaut es da aus mit dem "Mircocode"... :rolleyes:
 
Wäre für Leser wie mich ganz hilfreich, die nicht wissen, was genau ein Neural Network Processor ist, wenn in 3 Sätzen das noch erklärt worden wäre.
 
Wenn mich nicht alles täuscht (ich habe dazu noch kein whitepaper gefunden), sollten das weitgehend normale prozessorkerne sein, deren Rechenwerke darauf optimiert sind, sehr performant diejenigen Rechenoperationen ausführen zu können, die für neuronale Netzwerke sehr häufig gebraucht werden.
 
Bestimmt Xeon Phi mit Atom kernen wo die AVX einheiten gegen Tensorcores ausgetauscht wurden.
 
Hannibal Smith schrieb:
Ich dachte Google sei Nvidia haushoch Überlegen

Das ist auch so, aber Google's TPUs sind (1) Google-intern, d.h. andere Unternehmen, Presse, Wissenschaft, ... interessiert das nicht so stark, da sie ohnehin keinen Zugriff auf die Hardware haben und (2) soweit ich weiß nur deshalb so effizient, weil sie konkret auf Google's Libraries ausgelegt sind. Auf einer Tesla kann man für pre-/post-processing etwa bei Computer Vision Tasks ja auch OpenCV und zig andere in der Wissenschaft, Robotik, ... übliche Libraries beschleunigen.

Die TPUs sind afaik NN-only. Wobei das ja aber auch nicht tragisch ist, wenn man dann andere Beschleuniger oder schlicht dicke Xeon's oder Epyc's im Rechenzentrum hat (die aufgrund ihrer langjährigen Historie als Server-CPUs ja sehr gut mit fast jeder herkömmlichen Software skalieren), dann reicht es natürlich auch wenn die TPUs nur die NN-Simulationen stemmen und der Rest ausgelagert ist.

Nichtsdestoweniger gibt es selbstredend Szenarien wo es ganz nett ist, mehr als nur die NNs selbst auf einem Beschleuniger wie einer Tesla laufen zu lassen.

Gerade im sehr mobilen Bereich, etwa bei Drohnen, Robotern, ..., muss man sich wegen der Leistungsaufnahme ja sehr beschränken und eine NVIDIA-GPU bekommt eine ganze Anzahl an pre-/post-processing tasks, die neben einem NN ja häufig anfallen, recht effizient berechnet.
 
nebulus schrieb:
Und diese High End AI CPUs

Ja, ganz bestimmt, nur dafür...in dem ganzen Artikel wird Intel nicht mit einem einzigen Wort erwähnt.
 
ascer schrieb:
Ja, ganz bestimmt, nur dafür...in dem ganzen Artikel wird Intel nicht mit einem einzigen Wort erwähnt.

Ich sprach nicht von Intel, sondern von allen AI Systemen... Die Hauptaufgabe dieser Systeme ist die echtzeit Gesichtserkennung.
 
nebulus schrieb:
Ich sprach nicht von Intel

Du hast aber von High-End "AI CPUs" gesprochen und genau davon ist im Artikel die Rede...das exkludiert z.B. ja explizit alle GPU-Systeme, wie etwa die von NVIDIA und Konsorten.


nebulus schrieb:
Die Hauptaufgabe (...) ist (...) Gesichtserkennung.

Quelle?
Die Behauptung ist nicht haltbar.
 
Bei dem Titelbild dachte ich noch so:
"Intel verbaut ja auch VEGA bei sich, warum nehmen die jetzt nen kompletten Fiji?"

Die-Shot-AMD-Fiji-1.jpg


Fiji als AI-Geheimwaffe :D das wäre eine Totenbeschwörung aller erster Kajüte.
 
Zurück
Oben