Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntel stellt „Knights Corner“ als Xeon Phi vor
Im Rahmen der International Supercomputing Conference in Hamburg hat Intel heute den Larrabee-Erben „Knights Corner“ als Xeon Phi offiziell vorgestellt. Zuvor war ein erster Supercomputer mit der entsprechenden Ausrüstung auf Platz 150 der heute vorgestellten Top500-Liste der Supercomputer gesichtet worden.
Man könnte die News doch mal mit VergleichsZahlen ergänzen, wieviel TFlop die AMD und Nvidia und eine gewöhnliche CPU in der DP bringt...
Damit der Leser sich auch etwas darunter vorstellen kann.
AMD Radeon HD 7970 Double Precission Performance: 947 GFLOPS
Also bisher nichts spektakuläres, zumal es sich bei der oben genannten ja um eine consumer Karte handelt. Der Keppler Vollausbau, als auch die nächste Generation der AMD Karten dürften da nochmal ordentlich einen drauf setzen.
Jop,
DP kriegt AMD offiziel fast 1 TFlop/s hin (Tahiti GhZ-edition wird die Grenze knacken)
NV etwa 0,5 Tflop/s in double precision (Mein letzter Stand von der NV-Website)
Bald kommt auch die neue FireGL mit 2 Tahiti-GPUs raus, die rechnerisch dann natürlich mehr kann.
Von daher wünsche Ich der Intel-lösung einen horrenden Stromverbrauch, sodass sich eine FireGL eher lohnt.
Jop, die AMD Radeon HD 7970 kommt auf 947 GFLOPS bei Double Precission. Also wirklich nichts spektakuläres. Wenn bald die 1GHz+ Edition von der 7970 kommt ist man auch damit locker über 1 TFLOPS.
Mag ja sein, dass die AMD Karten genau so schnell sind. Der Clou bei Knights Corner ist aber nach wie vor dass die Kerne x86 sind und man sich so die komplizierte Programmiererei über die GPU-APIs größtenteils sparen kann.
Und das ist für viele Anforderungen immer noch ein echtes Verkaufsargument. Ihr müsst immer bedenken, dass bisher bestehende hochkomplexe Simulationspackages entweder auf x86 oder PowerPC laufen. Nach der News heute sind gut 90% aller Großrechner x86.
Diese Packages müsste man alle feinsäuberlich auf GPUs umprogrammieren und dabei auch peinlichst darauf achten, dass mann nicht versehentlich ein Bottleneck einbaut, da die enorme theoretische Leistung der Grakas sonst komplett verpufft.
@dgschrei: Woher stammt die Info, dass es sich nach wie vor um x86 Kerne handelt? Selbst wenn, x86 Kerne sind auch nur so einfach effizient programmierbar weil sie einen vergleichsweise großen Cache mitbringen. Ich kann mir nicht vorstellen, dass auf dieser Karte wahnsinnnig viel Cache verbaut ist, schon gar nicht pro Kern. Außerdem sind mit Cuda und OpenCL zwei API's auf dem Markt, die OOP auf GPUs erlauben.
Jop,
DP kriegt AMD offiziel fast 1 TFlop/s hin (Tahiti GhZ-edition wird die Grenze knacken)
NV etwa 0,5 Tflop/s in double precision (Mein letzter Stand von der NV-Website)
Nur haben beide Karten den Nachteil dass sie bescheiden zu programmieren sind - wer einmal mit OpenCL oder CUDA gearbeitet hat, wird verstehen, warum es ein großer Vorteil ist, dass Intel hier auf x86 setzt...
Du glaubst doch nicht ernsthaft, dass man diese Karten einfach in bestehende Server einbaut und schwuppsdiewupps hat man 50 x86 Cores mehr, die man ohne Änderungen an der Software nutzen kann?! Klar wird es vielleicht etwas weniger Aufwand sein die x86 Software für Knights Corner zu optimieren als komplett auf GPGPU umzusteigen, allerdings muss man sich nur die Entwicklung bei GPGPU anschauen und man wird feststellen, dass man wahrscheinlich, wenn man jetzt etwas Arbeit in die Optimierung auf GPGPU vollzieht, auf lange Zeit gesehen deutlich besser dasteht, was Leistungsfähigkeit und Effizienz angeht.
Woher stammt die Info, dass es sich nach wie vor um x86 Kerne handelt? Selbst wenn, x86 Kerne sind auch nur so einfach effizient programmierbar weil sie einen vergleichsweise großen Cache mitbringen. Ich kann mir nicht vorstellen, dass auf dieser Karte wahnsinnnig viel Cache verbaut ist, schon gar nicht pro Kern. Außerdem sind mit Cuda und OpenCL zwei API's auf dem Markt, die OOP auf GPUs erlauben.
Die Info stammt von Anfang an von Intel - das war ja der Sinn hinter MIC. Die x86 sind einfacher zu programmieren, da wir ca. 20 Jahre Erfahrung in den Tools haben, sie bei weitem eigenständiger agieren können als GPU-Kerne und es nicht notwendig machen, den Buildprozess mit 2 oder mehreren Compilern zu verpfuschen (CUDA braucht ja einen eigenen Prä-Compiler, nachdem dann der eigentliche Compiler seine Arbeit tut...)
In vielen Bereichen macht GPGPU gar keinen Sinn, da die GPU-Kerne nur Datenparallel arbeiten können und daher sofort serialisieren, wenn man einen Branch im Code hat - und der lässt sich nicht in jeder Anwendungsdomäne verhindern.
Nebenbei, hat Intel selbst schon gezeigt wie simpel man Code auf die Intel MIC auslagern kann...