v_ossi schrieb:
... oder ob man Knights Mill nur alibimäßig auf den Markt wirft um sich kein Totalversagen eingestehen zu müssen?
Und wo wird Knights Mill dann in der Realität eingesetzt? Wer benutzt die? Und in welchem Umfang?
Ob da Gewinne bei rausspringen, wird wohl nur Intel selbst wissen.
Der Vorgänger Knights Landing hat aber eine recht große Verbreitung erlangt. Allein 3 der Top-10 Supercomputer verwenden diesen. Die Nr. 2 verwendet noch Knights Corner (Vorgänger).
Wo der Platz für Knights Mill sein wird, wird solange unklar sein, bis man weiß, wie er sich im Deep Learning gegen NVidias GV100 schlägt.
Ein Bisschen schlechter darf er bzgl. Performance/Watt sein, da er andere in dem Umfeld nicht zu unterschätzende Vorteile bietet und flexibler ist.
Sollte er für Deep Learning deutlich schlechter sein als GV100, dann wird er sich wohl genauso positionieren wie Knights Landing. Was ja wie beschrieben nicht unbedingt schlecht sein muss.
konkretor schrieb:
Solche Karten werden oft im Wissenschaftlichen Umfeld eingesetzt, es ist aber oft so das die normalen x86 Kerne auf einer CPU oft das selbe können wie die Xeon Phi Geschichten, daher lohnt es für viele nicht den Code anzupassen sondern kaufen sich einfach mehr Racks dazu.
Wobei man anmerken muss:
Damit die "normalen x86er" aka Xeons in etwa auf dieselbe Peak-Rechenleistung kommen wie ein Xeon Phi, braucht man selbst bei den aktuellen Skylakes mit AVX512 und FMA ca. 3x16 Kerne. Da hat der Phi dann immernoch den direkten Vorteil bei der Leistungsaufnahme und auch den indirekten, weil man nur ein 1-Sockel-Board braucht und nicht "1,5" Dual-Sockel-Boards.
Dafür muss man aber auch die Codeanpassung für Skylakes AVX-512 machen und da diese mit den Xeon Phi binary compatible sind und die Anpassung auf AVX512 dieselbe ist, ist das praktisch ein Abwasch.
Wenn man auf moderner Hardware seinen Code also effizient ausführen will, muss man sowieso anpassen.
Für Speicherlastige Anwendungen ist der MCDRAM des Xeon Phi auch nicht zu verachten.
Andererseits sind die normalen Xeons deutlich vielseitiger. Anwendungen, die eine höhere single thread Leistung brauchen, laufen auf Xeon Phi vergleichsweise schlecht. Wenn man genügend Nodes bzw. Kerne hat, um dieselbe hohe Parallel-Leistung mit normalen Xeons zu erreichen, ist das im Schnitt über viele verschiedene Anwendungen idR eindeutig besser.
Ich persönlich gehe aufgrund der aktuellen News, die man auch kürzlich so von der SC17 gehört hat, davon aus, dass Intel die Xeon Phis einstampft und die entstandene Lücke mit MCMs aus normalen Xeons schließt. Vielleicht auch mit HBM an Bord.
Um NVidia nochmal im Bereich der Zusatz-Beschleuniger anzugreifen, hat man ja jetzt Herrn Koduri.
Waelder schrieb:
interessant das es eine Firma wie Intel nicht geschafft hat in dem Sektor Fuß zu fassen...
Von welchem Sektor ist denn die Rede? GPUs? Die erste veröffentlichte MIC-Generation (Knights Corner) war schon keine GPU mehr. Die zweite Generation war schon hauptsächlich nichtmal mehr eine "Karte".
Sie haben einen Versuch bei den GPUs unternommen und das hat nicht so hingehauen. Da das resultierende Produkt aber für einen anderen Bereich ganz passabel gepasst hat, hat man da halt weitergemacht. Mit diesen Produkten hat man aber eben auch schon lange nicht mehr versucht im GPU-Bereich Fuß zu fassen.
Einen neuen Anlauf zu GPUs gibt es ja dann wohl in Zukunft mit Herrn Koduri.