News Exakte Details zu Intels „Xeon-Phi“-MIC

Die Angabe der Quelle für die Bilder wäre ganz nett gewesen. Vor allem wenn ich gewisse Vorstellungen habe, woher die Inspiration zur News stammt...

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=366311&page=106

Seis drum. Die Angabe bzgl der Bildquelle ist nämlich wirklich wichtig, und die habt ihr leider unterschlagen... Vor allem solltet ihr die wirklich mal lesen und verstehen ;)

R4yd3N schrieb:
Schon ein Wort von Adobe oder Autodesk bezüglich möglicher Unterstützung? Oder bleibt der KNC gänzlich in der
wissenschaftlichen Ecke?

Und ob sich Intel da gegen das bereits gut etablierte CUDA behaupten kann? Vor allem wenn man sich die Leistungsaufnahme anschaut. 300 Watt scheint da ein bisschen zuviel des Guten.
Was heist hier behaupten? Du führst darauf x86 Code aus. DAS ist quasi summa cum laude ;)

Cuda/OpenCL nutzt man ja nur, weils halt nicht anders geht. Da schlägt sich aber keiner drum....
 
Der Text ist fast unlesbar. Eine Tabelle wuerde es viel verständlicher machen.
 
@ blöderidiot

Eben nicht, denn so eine simple einordnung der Peak(?) Performance, sagt weder aus, wie viel von der Perfmance bei einer bestimmten Problemstellung überhaupt nutzbar ist und ob sich die gegebene Architektur überhaupt bzw halbwegs sinnvoll für diese Problemlösung nutzen lässt; denn zB bei GPUs ist dies nicht immer der Fall.
 
Sry für die dumme Frage, aber ist das jetzt ein Prozessor oder eine Grafikkarte ?? Oder ein Mix aus beidem ?
 
So manch einem würde es wirklich gut tun den kompletten Text vor dem Kommentieren zu lesen, und nicht nur die Überschrift samt Bildern anzusehen.
 
Intel experimentiert ja mit Raytracing wäre so ne Karte in finanziell etwas geschwächter Form nicht auch als zusatzkarte für Raytracing in Games denkbar?
So ähnlich wie damals phys -x von ageia nur halt für Raytracing.
Oder sie hauen in ihr Portfolio noch paar Gamer cpus rein wo statt der bisherigen Igpu dann nen Knights Corner werkelt der sich um Raytracing kümmert.
Das wär mal interessant und würde in Sachen Grafik wieder mal einen Sprung nach vorne machen.
Derzeit ist die igpu in games ja uninteressant und somit nur Platzverschwendung.

PS.:Ja ich weis die Karte ist für den Profieinsatz gedacht und so einfach wäre die Umsetzung auch nicht, aber man wird ja noch träumen dürfen ;)
 
DF_zwo schrieb:
So manch einem würde es wirklich gut tun den kompletten Text vor dem Kommentieren zu lesen, und nicht nur die Überschrift samt Bildern anzusehen.

Aber die Überschrift und der Artikelinhalt sind auch nicht das gelbe vom EI:

"Exakte Details zu Intels "Xeon-Phi"-MIC"

und im Artikel steht dann:

"VR-Zone möchte nun weitere Details zum aktuellen Stand von Xeon Phi in Erfahrung gebracht haben, wobei es sich teilweise um bereits bekannte Informationen handelt, die mit einigen Gerüchten vermischt werden. "

-> sind das jetzt also"extakte Gerüchte"???
 
Vitec schrieb:
Intel experimentiert ja mit Raytracing wäre so ne Karte in finanziell etwas geschwächter Form nicht auch als zusatzkarte für Raytracing in Games denkbar?
So ähnlich wie damals phys -x von ageia nur halt für Raytracing.

Wo wäre der Vorteil gegenüber GPUs? Raytracing lässt sich doch schon wunderbar darauf ausführen und die Rechenleistung der GPUs ist auf jeden Fall höher.
 
pipip schrieb:
Ich bin gespannt ob jeder core ebenfalls mind eine FPU beinhaltet, oder ob es gar wie bei Buldozer ist.
Bin gespannt ob man dann auch von "Fake Cores" reden möchte... xD

Da das Teil auf möglichst viele FLOPs ausgelegt ist stellt sich wohl eher die Frage ob jede FPU auch einen Integer-Core hat ;-)


Intel sieht ja Raytracing als ein großes Ziel... mich würds freuen wenn es endlich mal in die Richtung geht. Das man raytracing auch mit GPUs machen kann kam bei nVidia auch erst auf als Intel mit dem Larabee kam... irgendwie hab ich so den Verdacht das einige Designentscheidungen beim Fermi stark davon beeinflusst waren und der Rückzieher von Intel sicher für einigen Wirbel bei nVidia gesorgt hat ;-)
 
Wofür braucht man die als Privtakunde? In Spielen wirds wohl kaum helfen, bei Videoschnitt vielleicht?

Das musste einfach als erster Post kommen.
Könnte wetten: Überschrift gelesen und Bildchen angeguckt "Boa Intel bringt ne Grafikkarte!"
Fehlt nur noch "Kann man damit Crysis spielen" - wobei der Spruch etwas aus der Mode gekommen ist, seit GTX4/500 und HD6000 das in Max Details mit AA und AF flüssig können.

Mich würde interessieren, ob die einzelnen Kerne als "echte" X86 Kerne angesprochen werden können.
Soll heißen ob auf einem hypothetischen Win7 im Taskmanager dann 61 Kerne mehr auftauchen. Spielt aber in der Praxis keine Rolle.
Hat jemand ein paar konkrete Anwendungsbeispiele? Ich nehme mal an, das Zeug wird in Supercomputern verbaut, die einfach nur dazu da sind die Daten auszurechnen, mit denen sie gefüttert werden. Also Klima, Aktienhandel (ja die setzen HPC ein in diesem perversen Leerverkäufe-Markt im Sekundentakt) und Atomwaffen.

Was mich wundert sind die komischen Ausbaustufen.
Wo ist da bitte groß ein Unterschied spürbar zwischen 61 und 57 Kernen? Das ist ja wie die GTX480 auf die 580 (taktbereinigt - also nur der eine Shaderblock mehr). Und war nicht außerdem mal die Rede von 80 Kernen, die einem stark modernisierten P3 ähneln?

Edit:
Intel sieht ja Raytracing als ein großes Ziel... mich würds freuen wenn es endlich mal in die Richtung geht. Das man raytracing auch mit GPUs machen kann kam bei nVidia auch erst auf als Intel mit dem Larabee kam... irgendwie hab ich so den Verdacht das einige Designentscheidungen beim Fermi stark davon beeinflusst waren und der Rückzieher von Intel sicher für einigen Wirbel bei nVidia gesorgt hat ;-)

Das ist eigentlich wie PhysX eine Art Betrug am Kunden. Intel steckt viel Geld in Raytracing. Und sie versuchen den Code (wie eben auch bei PhysX, das eigentlich kein Mensch braucht) proprietär zu machen. Mir kann keiner erzählen, dass es nicht auch möglich wäre den Code auf GPU Shadern zu berechnen. GPUs sind in der SP Leistung den CPUs um Welten überlegen und wachsen weiterhin sehr stark an. Selbst wenn auf GPUs merklich Effizienz verloren geht, können die in Zukunft sicher immer noch schneller.

Halte Raytracing sowieso für eine Sackgasse. Es sieht einfach im Consumerbereich keinen Deut besser aus als Rasterisierung und braucht absurd viel Leistung. Ich denke es wird auf eine Kombination aus verschiedenen Rendermethoden hinauslaufen. Die ganzen Standard Sachen wie Texturen und solide Objekte werden wohl weiterhin (sinnvollerweise) auf Rasterisierung laufen. Dazu könnte man wunderbar variabel einzelne Objekte mit Raytracing umsetzen. Etwa Fensterscheiben, Objekte aus Glas, Wasser und co.
 
Zuletzt bearbeitet:
Vitec schrieb:
Intel experimentiert ja mit Raytracing wäre so ne Karte in finanziell etwas geschwächter Form nicht auch als zusatzkarte für Raytracing in Games denkbar?
So ähnlich wie damals phys -x von ageia nur halt für Raytracing.
Oder sie hauen in ihr Portfolio noch paar Gamer cpus rein wo statt der bisherigen Igpu dann nen Knights Corner werkelt der sich um Raytracing kümmert.
Das wär mal interessant und würde in Sachen Grafik wieder mal einen Sprung nach vorne machen.
Derzeit ist die igpu in games ja uninteressant und somit nur Platzverschwendung.

PS.:Ja ich weis die Karte ist für den Profieinsatz gedacht und so einfach wäre die Umsetzung auch nicht, aber man wird ja noch träumen dürfen ;)

knights corner wird nicht für den endbenutzer markt kommen!
Für Raytracing lohnt das nicht, dazu benötigt man nur single precision Genauigkeit und das ist die definitive Schwäche von Knights Corner durch das agressive 1:2 verhältnis.

Zum Vergleich: Schon AMDs 5870 liegt mit 2,7Tflops deutlich über der SP Leistung der Xeon Phi modelle und diese Karte ist mittlerweile drei Jahre alt.
 
Leute, das Ding ist für HPC ausgelegt und nicht für den Consumermarkt geeignet. Man kann auch nicht einfach die Karte in einen Rechner stecken und Windows darauf installieren, da da schon eine eigenen Linux-Distribution drauf läuft (im Grunde also ein "Cluster als Steckkarte").

Davon ab ist MIC für Double Precission ausgelegt und verwendet eine Erweiterung von AVX [512bit Register] für SIMD Befehle...

Den Hauptvorteil von MIC scheinen die meisten hier auch nicht wirklich zu sehen: Intel kann jetzt eine komplette Suite von Tools (Compiler, Profiler, ...) anbieten, die sowohl auf normalen CPUs, als auch im Rechenzentrum (HPC) verwendet werden können. Zusätzlich bieten sie als einziger Hersteller ein konsistentes Programmiermodell! Anders als bei OpenCL/CUDA können mit MIC etablierte und hoch optimierte Bibliotheken (zB BLAS) verwendet werden, ohne dass sie an die strikte und teilweise stark kontraproduktive (Branching!) Architektur von GPUs angepasst werden müssen.
 
hach wie schön wärs doch wenn intel sich die sache mit der dedizierten grafik nochmal überlegen würde
 
Finde ich persönlich sehr interessant, gerade weil die Leistung nicht rein Peak sein soll, sondern unter praktischen Szenarios abrufbar sein soll. Die Leistungsaufnahme muss allerdings noch etwas verbessert werden. Kann mir nur schwer vorstellen, dass bei den aktuellen Server PSUs noch derartige Reserven vorhanden sind.

Grundsätzlich bin ich sehr gespannt auf echte Benches, zumal prognostiziert worden ist, dass die Effizienz bei einer bestimmten Zahl von Cores, reduziert würde. Allerdings kommt das sicherlich auch auf die verwendeten Interconnects zwischen den CPUs an. Man wird sehen was Praxistests bringen. Kann mir jedoch vorstellen, dass eine derartige Karte eher in meinen Rechner Einzug hält, als eine überzüchtete Gamerkarte.

Weiterhin finde ich den Ansatz sehr gut, weil CUDA als proprietärer Standard nicht zu dulden ist. Die Khronos Group hat gerade zu diesem Zweck die OpenCL-API spezifiziert, sodass entsprechende Tools sowohl auf AMD Karten, als auch nV Karten laufen können. Auch die OpenCL Implementierung von Intel für deren CPUs ist durchaus gut. Wenn die Xeon Phis auch mit inbegriffen würde, sehe ich wirklich heterogenen Systemen nichts mehr im Wege. Stellt euch vor: Intel Board, mit AMD Grafik & nV Grafik drin. Dann wird das Transcodieren von Videos auf alle funktionalen Einheiten ausgelagert werden können. Diese Art von kooperativem Multiprocessing sollte dann hoffentlich auch bis zu den Softwareentwicklern durch-"sickern".

Auch wissenschaftliche Konzepte, wie das Polytopenmodell, propagieren bereits die Paradigmen der "Autoparallelisierung". Ich vermute entsprechende Code-Refactoring-Werkzeuge würden zu immensen Leistungssteigerungen führen.

Freue mich! :)
 
Ich kann mir vorstellen, dass das sehr interessant für Simulationen in mittlere unternehmen ist. Cuda etc hin oder her... Es ist einfach viel praktischer 1500 Prozesse x86 auf 200 cps zu starten als den ganzen Kram für begrenzte/umständliche Befehlssätze zu optimieren. Vorallem wenn viel auf mathematischer Seite optimieren werden muss. Auch was die live auswertung/Beurteilung und Reduzierung
von Messdaten angeht kann das praktisch sein.
 
Cr4y schrieb:
Man sollte nicht unerwähnt lassen, dass Xeon Phi wohl noch auf PCIe 2.1 setzen wird, und daher in der HPC- Branche recht kritisch gesehen wird.

Dazu würde ich gerne Fakten sehen, denn alle namhafte Hersteller haben, laut Intel, Xeon Phi auf der Fahne stehen bzw. arbeiten an Produkten für den HPC Bedarf.

http://www.golem.de/news/intel-aus-larrabee-wird-xeon-phi-mit-1-teraflops-1206-92601.html

Laut Intel sollen alle großen Hersteller von Supercomputern wie Bull, Cray, Dell, HP, IBM, Inspur, SGI und NEC an Systemen mit Xeon Phi arbeiten.

Kann ich auch belegen ;-) ... darf ich aber nicht

QDOS schrieb:
Leute, das Ding ist für HPC ausgelegt und nicht für den Consumermarkt geeignet. Man kann auch nicht einfach die Karte in einen Rechner stecken und Windows darauf installieren, da da schon eine eigenen Linux-Distribution drauf läuft (im Grunde also ein "Cluster als Steckkarte").

Davon ab ist MIC für Double Precission ausgelegt und verwendet eine Erweiterung von AVX [512bit Register] für SIMD Befehle...

Den Hauptvorteil von MIC scheinen die meisten hier auch nicht wirklich zu sehen: Intel kann jetzt eine komplette Suite von Tools (Compiler, Profiler, ...) anbieten, die sowohl auf normalen CPUs, als auch im Rechenzentrum (HPC) verwendet werden können. Zusätzlich bieten sie als einziger Hersteller ein konsistentes Programmiermodell! Anders als bei OpenCL/CUDA können mit MIC etablierte und hoch optimierte Bibliotheken (zB BLAS) verwendet werden, ohne dass sie an die strikte und teilweise stark kontraproduktive (Branching!) Architektur von GPUs angepasst werden müssen.

Vorallem sollten die Codes, die für x86 optimiert sind, auch ohne größeren Aufwand auf die MIC Architektur angepasst werden. Basiert ja auch auf x86 ;-)
 
Zuletzt bearbeitet:
calluna schrieb:
Und bevor hier wieder Vergleiche zu GPUs kommen... die 1 TF soll kein Peakwert sein, sondern die durchschnittliche Leistung bei variierenden Matrixgrößen....

Hier wäre mal nen nettes Vergleichs-Diagramm hilfreich. Ohne einen ordenltichen unabhängigen Test, klingt es zu sehr nach Intel-Marketing geblubber.
 
Zuletzt bearbeitet:
Ich sag nur ein. Die Folding@Home SMP Division wird sich freuen.
 
Rein aus neugier, und ja, mir ist durchaus bewusst das Knights Corner einem anderen Zweck dient...aber würde dem Ding jetz Hardwaretechnisch etwas fehlen (abgesehn vom Videoausgang) um als Grafikkarte zu dienen, oder scheitert es rein auf Software Ebene?
 
@Matzegr

Hier wäre mal nen nettes Vergleichs-Diagramm hilfreich. Ohne einen ordenltichen unabhängigen Test, klingt es zu sehr nach Intel-Marketing geblubber.

Was genau klingt da nach Intel-Marketing-Geblubber? Informiere dich einfach genauer.

Davon abgesehen: Intels Marketing für den Mainstream funktioniert ganz ohne technische Details. Das hier ist aber kein Produkt für den Massenmarkt, sondern für eine Kundschaft, bei der falsche Angaben zur Leistung nicht viel bringen.

@r4yn4

Es scheitert an der Leistung. Das, was Intel vorhatte, benötigt sehr viel mehr an Rechenleistung... vielleicht gibt es in ein paar Jahren einen erneuten Versuch. Wenn Intel unbedingt eine diskrete Grafikkarte herstellen wollte, könnte man auch einfach 32/64/128 etc. Kerne der iGPUs für eine Grafikkarte verwenden.
 
Zuletzt bearbeitet:
Zurück
Oben