Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNeue Xeon Phi und Ausblick auf 14-nm-Ableger von Intel
Etwas mehr als ein halbes Jahr ist seit der Einführung der ersten Xeon Phi, Codename „Knights Corner“, vergangen, da schickt sich Intel an, weitere Modelle vorzustellen. Die bisherige 5100-Serie wird dabei sowohl nach oben, von den Xeon Phi 7100, als auch nach unten, Xeon Phi 3100, abgerundet.
14nm mit haus hoch überlegener Fertigung und trotzdem nicht wirklich den bereits erhältlichen voraus. Wohl der Hauptgrund warum die Heizkraftwerke nicht in den Desktop wandern und mit NV und AMD konkurrieren sollen/können.
Schon faszinierend. 14 nm Strukturbreite bei 193 nm Anregungswellenlänge. Bin mal gespannt, wann die Lichtquelle mit 13,5 nm verfügbar ist und wo die Reise dann hingeht.
Du hast den Text aber schon gelesen? Alle Daten in der Tabelle beziehen sich auf Knights Corner. Welche noch im 22nm Verfahren gefertigt sind. Oder beziehst du dich auf eine andere Quelle?
Ne scheinbar nicht. Knights Landing in 14 nm macht vieles anderes. Allein die Optionen den weiterhin als Co-Prozessor oder aber als echte CPU einzusetzen, dazu EDRAM mit auf dem Package. Also die haben da weit mehr vor als mit Knights Corner hier und heute. Das ist aktuell mit gar nichts vergleichbar.
ziemlich abgefahren würde ich sagen... beachtlich was aus dem als so verteufelten Larrabee Konzept alles vorgeht. Ich bin auch mal gespannt was da noch so kommt.
Sicherlich nicht schlecht, fragt sich nur wie man sowas im Desktopbereich sinnvoll nutzen will? Für spiele ists im moment unnötig da zuwenig parralelisiert ist und um Grafiken zu berechnen, nun ja da gibts besseres Ansonsten ists schon beeindruckend
Aber über den Preis müsste man mal reden
Wenn ich ein Super Computer kaufen würde/müsste, dann eindeutig die Tesla's. In sache Perfomance/Watt sind sie mit vorsprung auf Platz 1, trotz grössere Fertigungsstruktur sind sie die Xeon Phi's voraus (Finde der Name Xeon Phi aber Geil, klingt ein bisschen nach Pokémon ).
Aber Intel hatte ja damals mit den Larrabee erste geh versuche unternommen, deswegen könnte ich mir vorstellen dass die Phi's später viel besser werden.
Etwas seltsam finde ich aber, das in sache SP/DP bei nVidia und AMD um über das Faktor 3 zunehmen/abnehmen (wie man es auch drehen mag), während Intel da nur grob ~ Faktor 2 erreichen.
Etwas seltsam finde ich aber, das in sache SP/DP bei nVidia und AMD um über das Faktor 3 zunehmen/abnehmen (wie man es auch drehen mag), während Intel da nur grob ~ Faktor 2 erreichen.
Generell eine Frage der Balancierung, wieviel Chipfläche man in die DP-Performance bzw in die SP-Performance stecken will:
-NVIDIA Fermi: Nur eine Sorte FPUs. Diese können sowohl SP als auch DP Befehle ausführen. Jede FPU macht pro Takt eine SP Operation, benötigt jedoch 2 Takte für eine DP Operation. Dadurch das Verhältnis von 2:1.
-NVIDIA Kepler: Unterschiedliche FPUs für DP und SP. Multiprozessor besitzt 192 SP-FPUs und 64 DP-FPUs. Dadurch das Verhältnis von 3:1.
-AMD Tahiti: Analog zu Fermi nur mit einem Verhältnis von 3:1.
-Xeon Phi: Wahrscheinlich auch analog zu Fermi (wie bei CPUs so üblich) mit einem Verhältnis von 2:1.
Ja in der Tabelle kann man sehr schön sehen wie bescheiden Intel gegen Nvidia und AMD abschneidet echt lächerlich!
Was kannst du dort sehen? Die Peakperformance? Was sagt die aus ? Wieviel ein Gerät theoretisch maximal erreichen könnte, nicht aber wieviel es tatsächlich bei einem bestimmten Programm erreicht. Schau dir einmal eine Radeon 5870 an. Horrende Peak-Performance von 2720 GFLOPs. Das ist fast so viel wie eine Radon 7950 mit 2867 GFLOPs. Dennoch schlägt die Radeon 7950 die 5870 meist um längen, weil sie viel mehr von ihrer Peak Performance entfalten kann als ihre ältere Schwester.
Ähnlich verhält es sich zwischen dem PHI und den GPUs mit denen er verglichen wird. Erstere werden tendentiell mehr seiner Performance entfalten können als letztere.
Für wissenschaftliche Rechnungen ist die doppelte Genauigkeit weit wichtiger, weswegen dieser Wert auch als Maßstab der TOP-500-Liste der Supercomputer herangezogen wird. Darum würde ich Intels Karten sicherlich auch nicht als komplett lächerlich bezeichnen, besonders wenn man die Eingeschaften der vollwertigen x86-Kerne zu schätzen weiß.
Bei Computergrafik kommt es aber im Regelfall nicht auf diese Genauigkeit an, sodass AMD und Nvidia dafür komplett auf SP optimieren. Das hat natürlich auch Konsequenzen für diese Ablegerkarten. Entsprechend geht da das Verhältnis deutlicher auseinander.
@ nai: Jeder weiss das das nichts damit zu tun hat weil das von ganz anderen Sachen abhängt. Die Tabelle zeigt sehr schön das knights corner was Rechenleistung und Energieverbrauch angeht Nvidia und AMD nicht annähernd das Wasser reichen kann! Schon larrabee konnte nicht mal annähernd mit AMD und Nvidia mithalten ;-)
Intel hat auch schon mal konkretere Angaben über Veröffentlichungen gemacht oder sollen wir jetzt raten, ob so ein 14nm-Xhi endes des Jahres kommt oder doch erst Ende nächsten Jahres? Es ist schon auffällig, dass die Roadmaps von Intel plötzlich nur mehr bis Ende 2014 gehen bzw. teils gar keine Veröffentlichungstermine machen.
-NVIDIA Fermi: Nur eine Sorte FPUs. Diese können sowohl SP als auch DP Befehle ausführen. Jede FPU macht pro Takt eine SP Operation, benötigt jedoch 2 Takte für eine DP Operation. Dadurch das Verhältnis von 2:1.
-NVIDIA Kepler: Unterschiedliche FPUs für DP und SP. Multiprozessor besitzt 192 SP-FPUs und 64 DP-FPUs. Dadurch das Verhältnis von 3:1.
-AMD Tahiti: Analog zu Fermi nur mit einem Verhältnis von 3:1.
-Xeon Phi: Wahrscheinlich auch analog zu Fermi (wie bei CPUs so üblich) mit einem Verhältnis von 2:1.
AMD Tahiti hat 4:1, wobei die GCN-Architektur prinzipiell auch 2:1 könnte.
Beim Xeon Phi kann eine Vektor Unit 8 64fp FMAs oder 16 32fp FMAs pro cycle. -> 2:1
Nachtrag zum Thema Peak-Performance vs. Linpack Performance:
Wenn wir mal NUDT Tianhe-2 (Intel Xeon/ Intel Xeon Phi) mit ORNL Titan (AMD Opteron/ Nvidia K20x) vergleichen kommt der Tianhe-2 auf eine Effizienz (Linpack/Peak) von 62% und der Titan auf 54%
Da hat Intel also nen Vorteil.
Wenn wir jetzt noch den Verbrauch (bei Linpack) beachtet wendet sich das Blatt.
Tianhe-2: 1,902 GFLOPS/W
Titan: 2,177 GFLOPS/W
Das ist eigentlich eine Überraschung, da Xeon und Xeon Phi in 22nm gefertigt werden und der Opteron und K20x in 32nm bzw. 28nm.
@ nai: Jeder weiss das das nichts damit zu tun hat weil das von ganz anderen Sachen abhängt. Die Tabelle zeigt sehr schön das knights corner was Rechenleistung und Energieverbrauch angeht Nvidia und AMD nicht annähernd das Wasser reichen kann! Schon larrabee konnte nicht mal annähernd mit AMD und Nvidia mithalten ;-)
Tut mir leid, aber ich verstehe deine Aussage nicht bzw. ich finde sie extrem widersprüchlich. Du weisst, dass die Peakperformance im Endeffekt nicht aussagt wieviel Rechenleistung man tatsächlich bei einem Algorithmus erzielt, sagst aber gleichzeitig aus, dass der Phi wegen der niedrigen Peak-Performance ein Vollversager sei? Ich bitte hier um eine genauere Erklärung.
AMD Tahiti hat 4:1, wobei die GCN-Architektur prinzipiell auch 2:1 könnte.
Beim Xeon Phi kann eine Vektor Unit 8 64fp FMAs oder 16 32fp FMAs pro cycle. -> 2:1
@ nai: Jeder weiss das das nichts damit zu tun hat weil das von ganz anderen Sachen abhängt. Die Tabelle zeigt sehr schön das knights corner was Rechenleistung und Energieverbrauch angeht Nvidia und AMD nicht annähernd das Wasser reichen kann! Schon larrabee konnte nicht mal annähernd mit AMD und Nvidia mithalten ;-)
Dumm nur, dass absolute Rpeak und Energieverbrauch in diesen Marktsegmenten nicht ausschließlich entscheidend sind.
Der Xeon Phi hat als einziger Co-Prozessor das Privileg, parallelisierten x86-Code nativ auszuführen, was die Flexibilität ungemein erhöht und den Aufwand von Anpassungen an eine sehr empfindliche und spezialisierte API (z.B. CUDA) deutlich reduziert. Dazu gehören auch entsprechende Compiler, Tools und Libraries, wo Intel mit Sicherheit keinen schlechten Stand hat.
1.) Es gibt so gut wie keine Anwendungen außer eben der typischen Grafikberechnung für Spiele, wo SP noch brauchbar wäre. Hier sind von den insgesamt 32Bit nur 24Bit für Kommastellen verfügbar oder anders gesagt man kann Geldbeträge über 160.000 Euro nicht mehr auf den Cent genau darstellen. Hier gibt es meistens so große Abweichungen, dass es gar keinen Sinn macht, damit Berechnungen anzustellen, da sich die Fehler bei ein paar Rechenschritten multiplizieren und man sehr bald keine aussagekräftigen Werte mehr hat.
2.) Von der Performancedaten kann man noch gar nichts sagen. Die Frage ist, wie die GPUs ausgelastet werden. Typische Grafikkarten GPUs können sich bei klassischen GPU Computing Aufgaben kaum von vergleichbaren CPUs absetzen (z.B. 2 Sockel System mit je 8 Kernen), da meistens zwar Rechenleistung ohne Ende vorhanden ist, aber nicht genug schneller Cache/RAM. Eine hohe Bandbreite hilft hier nicht unbedingt viel, wenn der RAM nicht gut mit parallelen Zugriffen umgehen kann.
Es wäre wirklich interessant einmal ein paar aussagekräftige Benchmarks davon zu sehen.
3.) Das das Ding bei der Spieleleistung hinterher hinkt, ist klar. Dafür war es aber auch nie gedacht. Es kauft sich keiner eine 4K Euro Grafikkarte, um damit Crysis auf vollen Details zocken zu können. Das Ding hat seine Daseinsberechtigung in Supercomputern oder Workstations zur Videobearbeitung. Hier ist auch in der Regel genug Budget dafür vorhanden.