News Intel Xeon Phi 31S1P für 125 statt 1.991 US-Dollar

Krautmaster schrieb:
Intel hat mit Phi aber kein Monopol, ganz im Gegenteil, ergo können die das Teil verkaufen oder verschenken wie sie wollen.

Ja das riecht halt sehr stark. Ist wie im Mobile-Bereich, wo sie angeblich 1 Mio Umsatz aber 1 Milliarde Verlust machen .. und 40 Mio. Tablets mit ihren Chips ausgestattet haben wollen, verbuchen diese aber als "contra revenue". Jaaa das ist schon ziemlich undurchsichtig, gerade von außen. Aber wenn du in einem Markt quasi nichts zu sagen hast, sind Quer-Subventionen aller Art halt viel leichter durchzudrücken. Da zählen halt verschenkte Bay Trail genau so zu wie jetzt zu 5% der Originalpreises "verkaufte" Xeon Phi.

Und dagegen klagen oder was sich hier einige einreden, kannst du nicht. Es ist eine "zeitlich begrenzte, lokale Promotion". Viel Glück das irgendwie anzufechten, zumal Intel ja so eine Schar von Anwälten hat die das 5000 Mal durchgespielt haben. 0 Chance.
 
Damit berechnet man floating point berechnungen. Die werden nicht als videokarten ersatz eingesetzt.
Man ist mit 2-3 970 besser bedient als mit einer phi fúr 1.800$.

Die dinger werden sehr heiss bei beanspruchung. Fur bit coin mining gebe es bessere alternativen der phi schluckt zu viel strom was das angeht. Kommen auf 1tflops aktuell schneller als ein sockel 2011 3 system
Nur einige wenige sockel 2011 boards unterstutzen die io mapping über 4gb. D.h die karte wird nicht erkannt wenn das bios large adress register nicht unterstuzt. Wenn das bios es nicht kann dann wird er sich nicht mit dem pc synchrinisieren ein 64 but adresse wird benotigt.
Man könnte im BIOS nach pci memory mapping io 64bit adress zuweisung oder ähnlichem ausschau halten ob die option vorhanden ist , nicht mit dem system memory mapping verwechseln es muss pci, decoding dahinter stehen. Aber auch wenn es virhanden ust, ist es keine garantie. Mehr oder weniger weil das bios die volle adressierung der phi nicht zuweisen kann. D.h das mapping müsste mindestens 8gb unterstützen. Die 4gb io mapping reichen dafür nicht aus. 8gb io mapping sind meustens nur auf workstations von typ sockel 2011 zu finde seltener auf consumer boards von typ office pc. Das problem ist eigentlich das selbe wie bei neuen grafikkarten die erst ein bios update benotigen weil das memory mapping die nicht addressieren kann
Der preis ist verlockend, auf dem Markt und open siurce markt gibt es dafür keine freizugängliche software.
Software muss nicht dafur extra designed werden sondern neu recompiled. Z.b ffmpeg in
MPI, OpenMP and NUMA.
Das prinzip ist egentlich das selbe als wurde man auf einen distri memory cluster aufsetzen.
Software mit einer mkl librarie unterstuzt von haus an die beschleunigung des phis. Die kommt aber gewöhnlich nur in super computern zum einsatz
http://en.m.wikipedia.org/wiki/Math_Kernel_Library
https://software.intel.com/en-us/intel-mpi-library

Fur den normalen otto normal nutzer oder semi pro nutzer ist es rausgeworfenes geld die meisten konnen damut nichts anfangen.
Die dinger sind noch zu neu nur für entwickler intressant damals wie mit cuda.
Keine schlechte idee von intel die als promo so günstig anzubieten um die software entwicklung bisschen anzukurbeln. Anwendungen mussen multithreaded laufen im singlethread schwächelt das gerät. Der einzige vorteil liegt in der reinen vector berechnung und nicht in video encoding. Das ist nicht der gewollte einsatz zweck vom phi. Der phi hat nur einen 32 bit integer jeder haswell 256 bit avx2 wird da schneller encoden decoden von film matrial. Performance technisch eher mit ner intel atom cpu zu vergleichen dafür aber stromsparender als mehrere i5 im parallelen cluster.
https://software.intel.com/de-de/forums/topic/537804

https://software.intel.com/en-us/articles/special-promotion-intel-xeon-phi-coprocessor-31s1p
http://www.amazon.com/Intel-BC31S1P...8-1&keywords=Intel+Xeon+Phi+Coprocessor+31S1P

Den deal gabs seit juli 2014 schon und seit dem hat sich nichts am preis getan. Weil die meisten damit nichts anfangen können eher nur 1-2%

The experimental results show that our fully-optimized algorithm gains more than 300-fold speedup on parallelized Sparse Autoencoder compared with the original sequential algorithm on the Intel Xeon Phi coprocessor. Also, we ran the fully-optimized code on both the Intel Xeon Phi coprocessor and an expensive Intel Xeon CPU. Our method on the Intel Xeon Phi coprocessor is 7 to 10 times faster than the Intel Xeon CPU for this application. In addition to this, we compared our fully-optimized code on the Intel Xeon Phi with a Matlab code running on single Intel Xeon CPU. Our method on the Intel Xeon Phi runs 16 times faster than the Matlab implementation. The result also suggests that the Intel Xeon Phi can offer an efficient but more general-purposed way to parallelize the deep learning algorithm compared to GPU. It also achieves faster speed with better parallelism than the Intel Xeon CPU.
http://dl.acm.org/citation.cfm?id=2672903
 
blöderidiot schrieb:

vincez schrieb:
Samsungtr hat oben auf der Seite die Antwort für dich. Muss jetzt nicht nur in der Forschung zum Einsatz kommen.


Danke, der Link hat das für mich ganz gut erläutert. Kann zwar mit dem allen im Detail relativ wenig anfangen, weis aber nun zumindest, wo genau ich dieses Stück Hardware einordnen muss und wozu es genutzt wird. Ist also doch wie vermutet eine Lösung, die mit nVidia Tesla und co konkurriert.
 
Zuletzt bearbeitet von einem Moderator:
MAD_SOLDIER schrieb:
Ich kann mir ja 10 jetzt günstig kaufen und sobald die Aktion vorbei ist für 800€ das Stück wieder verkloppen :D oder nicht?!

Nö, kannst du nicht.

Denn diese Karte wird seit Oktober verramscht, "damals" bekam man sie für 195 US-Dollar.
 
blöderidiot schrieb:
Schon klar wie Du das meinst; aber - welche konkrete Software für Deinen konkreten Rechner plus Xeon Phi 31xx gibt's denn "vorkompiliert"?
Ich hab keine Ahnung, da ja eine Zeitlich beschränkte Lizenz für den Compiler dabei ist, kann ich mir den Quellcode runterladen, kompilieren und dann das Programm so lange verwenden wie ich will. Aber ich hab auch sicher nicht vor mir so eine Karte zu kaufen. Mir gings nur darum die Aussage richtig zu stellen, man würde eine Lizenz zum Betrieb benötigen (zumindest hatte ich die Aussage von mediafrost so verstanden).
Ich stimme dir aber zu, dass die Karte nochmal deutlich interessanter wäre, wenn der Compiler und die Bibliotheken open source und oder zumindest kostenlos wären.
 
DrToxic schrieb:
Da werden sich jetzt ein paar Leute, die diese Karte vor Kurzem noch gekauft haben aber ganz schön ärgern.

Das ganze ist min. seit November 2014 bekannt, vielleicht sollten "die paar Leute" auch mal ein paar zusätliche Quellen im Internet lesen.

Was hier bei CB wieder verschwiegen wird, und insbesondere für deutsche Käufer interessant ist, ist das der deutsche Zoll kräftig die Hand aufhält - damit ist das alles dann gar nicht mehr so billig. Der einzige bei Intel gelistete Ital. Anbieter konnte im Dez. nicht und schon gar nicht zu den Preisen liefern.

Wer sich wirklich für diese Karte Interessiert sollte hier erstmal lesen:
http://www.pugetsystems.com/blog/2013/10/03/Top-5-Xeon-Phi-Misconceptions-508/
 
moshimoshi schrieb:
Software muss nicht dafur extra designed werden sondern neu recompiled. Z.b ffmpeg in
MPI, OpenMP and NUMA.3[/url]

Das Problem ist nicht zwingend, dass die S/W neu kompiliert werden muss. Knights Corner hat den gewaltigen Vorteil, dass sich Programme um ein vielfaches (!) leichter entwickeln lassen, als dies z.B. mit CUDA der Fall ist (daher ist CUDA Support auch in 2015 ziemlich mau), nur müssen dafür halt erstmal auch Daten anfallen... Das Schlimme ist dann das Verarbeiten der Daten. Es ist definitiv ein Unterschied, ob man für Systeme mit 2/4/8 (mehr oder weniger schnellen) Kernen programmiert (wo schlampige Parallelisierung nicht unbedingt auffallen muss...) oder ob man seinen Algorithmus darauf trimmen muss, mit einer (fast) beliebigen Anzahl an Kernen zu rechen, die wie im Falle des Phis dafür dann aber eher langsamer sind (ganz zu schweigen davon, dass der Algorithmus gleichmäßig mit der Anzahl an Kernen skalieren sollte...). Wie moshimoshi hier schon treffend erwähnt hat, eignen sich auch nicht alle Daten dafür. Das wäre echt ein Katastrophe, wenn man (Firmen/Unis) sich ein System mit Knights Corner für Berechnungen in die Bude stellt, viel Kohle für Support und Compiler-Lizenzen zahlt und das Teil dann nicht vernünftig ausgelastet wird...
 
Zuletzt bearbeitet:
Den Intelcompiler halte ich für Linux sexy. Mal schaun wie gut der GCC-kompatibel ist.
Edit: n bisschn kompliziert. hätte mirn paket gewünscht.
 
Zuletzt bearbeitet:
@Volker

joa, aber wirklich anfechten könnte man das wohl auch nur wenn man den Schaden für den Kunden beziffern kann, und das wird schwer. Mitunter kommt das dem Kunde ja auch oftmals entgegen.
 
Vulpecula schrieb:
Das Problem ist nicht zwingend, dass die S/W neu kompiliert werden muss. Knights Corner hat den gewaltigen Vorteil, dass sich Programme um ein vielfaches (!) leichter entwickeln lassen, als dies z.B. mit CUDA der Fall ist (daher ist CUDA Support auch in 2015 ziemlich mau), nur müssen dafür halt erstmal auch Daten anfallen... Das Schlimme ist dann das Verarbeiten der Daten. Es ist definitiv ein Unterschied, ob man für Systeme mit 2/4/8 (mehr oder weniger schnellen) Kernen programmiert (wo schlampige Parallelisierung nicht unbedingt auffallen muss...) oder ob man seinen Algorithmus darauf trimmen muss, mit einer (fast) beliebigen Anzahl an Kernen zu rechen, die wie im Falle des Phis dafür dann aber eher langsamer sind (ganz zu schweigen davon, dass der Algorithmus gleichmäßig mit der Anzahl an Kernen skalieren sollte...). Wie moshimoshi hier schon treffend erwähnt hat, eignen sich auch nicht alle Daten dafür. Das wäre echt ein Katastrophe, wenn man (Firmen/Unis) sich ein System mit Knights Corner für Berechnungen in die Bude stellt, viel Kohle für Support und Compiler-Lizenzen zahlt und das Teil dann nicht vernünftig ausgelastet wird...

Die Unis die sich mit solchen Sachen ERNSTHAFT auseinandersetzen haben auch die Leute die sich um die Numerik kümmern und ihre Algorithmen dementsprechend schreiben. Aber nicht immer ist das möglich.
Nicht umsonst haben die meisten Superrechner hier in D keine Beschleunigerkarten eingebaut. Viele Algorithmen skalieren einfach schlecht auf GPUs. Da kann dann auch keiner was dagegen machen.

Krautmaster schrieb:
@Volker

joa, aber wirklich anfechten könnte man das wohl auch nur wenn man den Schaden für den Kunden beziffern kann, und das wird schwer. Mitunter kommt das dem Kunde ja auch oftmals entgegen.

Naja NVidia hat mit der Titan ja etwas ähnliches durchgezogen. Die haben den Chip der wesentlich teureren K20(X) zum Spottpreis angeboten, so kann auch ein kleines Institut mal die CUDA Programmierung ausprobieren. Nur hat halt NVidia einen viel größeren Marktanteil im Bereich Beschleuniger Karten für Simulationen. Da hat sich doch auch keiner beschwert.
(Nur mal so als Gegenbeispiel)
 
Zuletzt bearbeitet:
Mir stellen sich gerade 2 Fragen, vielleicht kann mir die ja jemand beantworten.


1) Braucht man einen Xeon Prozessor als Hauptprozessor und wenn ja, reicht dann ein kleinen Xeon E3 1231 auf einem Desktop Board?

2) Kann man die Kerne dann genauso wie "normale" CPU Kerne nutzen? Sprich zum beispiel für Virtuelle Maschinen nutzen, Rendern etc?
 
Mir stellt sich gerade nur 1 Frage, vielleicht kannst du die ja beantworten.

1) Hast du den Thread gelesen?
 
qqALEXpp schrieb:
Die Unis die sich mit solchen Sachen ERNSTHAFT auseinandersetzen haben auch die Leute die sich um die Numerik kümmern und ihre Algorithmen dementsprechend schreiben. Aber nicht immer ist das möglich.
Nicht umsonst haben die meisten Superrechner hier in D keine Beschleunigerkarten eingebaut. Viele Algorithmen skalieren einfach schlecht auf GPUs. Da kann dann auch keiner was dagegen machen.

Das ist ja der Punkt. Wenn es Personal gibt, das sich um die Algorithmen kümmert, dann ist ja alles halb so wild. Aber gerade das zeigt ja auf, dass eine derartige Karte im Heimbereich flüssiger als flüssig ist.

Die Skalierbarkeit eines Algorithmus nimmt i.d.R. mit steigender Komplexität ab; ist leider so. Ich geh auch mal davon aus, dass auf Systemem wie dem Xeon Phi quasi nichts wirklich gut nach oben raus skaliert, was nicht mit einer Divide & Conquer Strategie fährt.
 
Das würde ich so unterschreiben.

Die Skalierbarkeit ist hier noch ein kleineres Problem als bei GPUs, da ich "nur" 57 Kerne statt mehrerer tausend habe. Aber das Anwendungsgebiet für diese Karten ist wirklich minimal. (sonst bräuchte Intel solche "Querfinanzierung" nicht)

Aber wenn ich lese, dass sich Leute so ne Karte für daheim holen wollen oder den icc statt gcc verwenden wollen muss ich schon schmunzeln :D
 
Rein theoretisch könnte man nicht die Karte so anbinden das sie als weitere logische Kerne angesprochen werden?
Die Frage ist wirklich nur rein theoretisch, weil sie ja auf x86 aufbauen ihren eigenen Ram haben etc etc, also eigentlich wie eine normale CPU arbeiten.

Also generell wäre das ja eine einfache Lösung für alle Programme die parallelisierbar sind und von Endnutzern gebraucht werden, Videoschnitt, CAD, Animation etc.
 
Schafft diese Karte in einfachen Berechnungen das 2-4 Fache wie ein 220 € Xeon? Ich finde gerade keine aussagekräftigen Benchmarks. Aber ich müsste mir wohl sowieso erst ein neues Mainboard sowie Netzteil kaufen :D

@Keloth: CAD meist nur in Strömungssimulationen, ich schaue gerade zu wie mit den teuersten Programmen in CAD und FEM 6 HT Kerne durchgehend auf 0 % sind.... Oft ist hier auch schon nach 4 Kernen Schluss weil hier die Grenze erreicht ist an der über 50 % der Leistung des 5ten Kernes schon in die Verwaltung fließt ...
 
Zuletzt bearbeitet:
FEM/FVM Berechnungen sind doch in den meisten Fällen durch die Speicherbandbreite limitiert, oder wie erklärst du dir dann dass der 2600k nur durch HT Kerne mehr als doppelt so schnell wie der 2500k ist bei annähernd gleicher Geschwindigkeit. Selbst der 2,2 GHz Laptop ist ja schneller als der 2500k was ja eindeutig zeigt, dass hier die CPU nicht das Problem darstellt.
Deine drei Prozessoren haben ja alle nur vier Kerne (zwei CPUs zusätzl. HT). Da bist du aber noch SEHR weit entfernt davon das Ding auf 57 Kernen zu skalieren...

Ob da der Xeon Phi mit seinen wenigen 8 GB wirklich die richtige Wahl ist sei mal dahin gestellt.

Zumindest beim Matlab Support weiß ich, dass hier nur bestimmte Funktionen der mkl unterstützt werden, das lohnt sich wahrscheinlich eh nur bei gigantischen Matrixoperationen oder FFT. Zumal der Support nur seitens Intel besteht, Mathworks bietet gar keine Unterstützung der Xeon Phi an
 
Zuletzt bearbeitet:
Zurück
Oben