News Intel stellt „Knights Corner“ als Xeon Phi vor

Woher stammt die Info, dass es sich nach wie vor um x86 Kerne handelt?

Das ist schon seit ein paar Jahren bekannt das Intel x86 Kerne bei Larrabee verwendet.
 
weil gpus im prinzip genau auf diese art von berechnung ausgelegt sind und nichts anderes können. cpus hingegen sind alleskönner. und wie in jedem bereich ist ein spezialist immer effizienter.
 
Warum sind VGA´s auf diesem Gebiet stärker als eine aktuelle Highend CPU?

Weil auf einer VGA hunderte bis tausende Einzel-Rechenkerne diesselbe Aufgabe gleichzeitig lösen .
 
Weil eine aktuelle Highend CPU nur 8-16 Kerne hat und eine GPU mehrere tausend Kerne.

EDIT: zu langsam! :p
 
Hört sich ein bissen doof an.. kenn mich da auch nicht so aus .. aber warum hat den die CPU nicht so viele Kerne wie eine GPU ?
 
Ein Kern einer CPU stellt um die 1.000 verschiedene Befehle zur Verfügung. Die Befehle drehen sich um Berechnung von Ganzzahlen, Gleitkommazahlen, Speicherverwaltung, Speicherschutz, Virtualisierung, Sprungvorhersage, und und und.

Ein Kern einer GPU stellt Pi mal Daumen 30 Befehle zur Verfügung, die sich hauptsächlich um Vektorberechnung drehen.

Das ist der Unterschied.
Ein Ural-LKW kann so ziemlich alles. Aber er wird nie einen Bugatti Veyron auf der Autobahn abhängen. Letzterer kann zwar schnell fahren, aber keinen Anhänger mitschleppen oder einen Kran auf der Ladefläche haben.
Eine CPU ist ein Allrounder, er kann alles, ist aber nie so richtig gut darin. Eine GPU kann nur eines und da ist sie rasend schnell.
 
kingsyrie schrieb:
Hört sich ein bissen doof an.. kenn mich da auch nicht so aus .. aber warum hat den die CPU nicht so viele Kerne wie eine GPU ?

Weil dann die CPU so groß wie ein Backblech wäre, darum.
 
Wäre schön, nicht? Einfach Karte einstecken und schon hat man 54 CPU-Kerne mehr, die im Betriebssystem im Taskmanager angezeigt werden. :D
 
mironicus schrieb:
Wäre schön, nicht? Einfach Karte einstecken und schon hat man 54 CPU-Kerne mehr, die im Betriebssystem im Taskmanager angezeigt werden. :D

Da wärst du aber ganz schön entäuscht über die allgemeine Leistung eines einzelnen Kerns (ca. Pentium 4 mit 1GHz). Die x86 Kerne haben von Intel ein wenig Transitorgebastel bekommen was die DP Leistung enorm erhöht. Ob das jetzt einfacher zu programmieren ist als eine GPGPU sei mal dahingestellt.
 
Zuletzt bearbeitet von einem Moderator:
Ich glaub sogar als intel mit larrabe das erste mal irgendwo erwähnt hat waren noch P90 kerne im gespräch oder wars schon PIII oder ich 8irre mich und es war tasächlich P4 ?
Auch muss man bedenken das intel schon im 22nm Prozess arbeitet ,
Die Karte allein nur für Serversachen entwickelt wurde und so machen es die 1 Teraflop nicht wirklich so interessant.
Die Consumer GRafikkarten schleppen sicher einiges an unnötigen Gamedingen mit die fläche wegnehmen die man für professioneles arbeiten nutzen könnte.
Und wenn sie tasächlich die 6 und 8 pci anschluss ausnutzt dann dürfte die auch kein stromsparwunder sein.

Wenn ich mir vorstelle was bei amd oder nv rauskommen würde wenn die in 22nm wären.Da würden die entweder bei gleicher Leistung massiv Stromsparender oder bei gleichem stromverbauch effektiver.
Intel hat halt den vorteil das sie Technologisch etwas weiter vorne sind.
Ob und inwieweit die Programmierung mit der Intelkarte leichter ist kann ich nicht beurteilen.

Aber es waren ja auch gerüchte im gespräch das so ein typ (zu faul zum googlen) mit raytracing forschung betreibt und vielleicht kann man nen knights corner gpu bald als zusatzkarte wie aigea bald in den pc stecken die sich dann nur um raytracing in games kümmert.So ne art hast du die karte drinnen kannst du im game raytracing nutzen. Hast nur ne normale Graka dann wird die option nicht angeboten.
Wäre für Intel natürlich interessant weil man so einen Markt hätte der keine Konkurrenz aufweisen würde und wenn man damit rauskommt und das technologisch vorne alsauch auf Raytracingberechnungen optimiert, würde es vermutlich richtig lange dauern wenn jemand als konkurrent auftreten würde und könnte dann wohl auch nicht ganz mithalten weil Intel einfach Finanziell jeden Konkurrenten massiv überflügelt und zur not einfach mehr in forschung stecken und der Konkkurent wäre geschicht.
 
Zuletzt bearbeitet:
@Vitec

Wenn die mit (einem oder mehren) 22NM Chips wirklich "nur" knapp 1 TFLOP
berechnen kann und dabei trotzdem den 6+8Pol Stecker braucht, ist das nicht allzu rühmlich für Intel.

Gerade eine Gamerkarte wie eine 7970 ist da nicht schlechter, viel, viel, viel günstiger wird vermutlich weniger verbrauchen und ist dabei noch in 28NM hergestellt.
Gerade AMD's GCN Architektur ist auf GPGPU ausgelegt und dabei sehr stark.
Man stelle sich vor AMD designe aufgrund dieser Architektur eine reine Karte für
GPGPU und nix zum Gamen. Die würde wohl jetzt schon haushoch gewinnen.
Oder NV bringt den Kepler vollausbau als Tesla?

Wenn hier jemand technisch weiter ist, dann sicher nicht Intel.

Intel betreibt eine sehr fortschrittliche Fertigung, aber das dürfte es gewesen sein mit Fortschrittlich.

Der Einzige Vorteil ist die x86 Programmierbarkeit.
 
Zuletzt bearbeitet:
@vitec uninteressant. Die meinsten Games werden immer noch für die Konsolen programmiert und danach auf den Pc optmimiert. Diese dann extra noch für Raytracing aufbohren für die vielleicht 0,5% Gamer die sich so einen Karten leisten (wollen/können) dürfte auch für die Spielerentwickler komplett uninteressant sein. Wenn allerdings Intel bei der übernächsten Konsolengeneration nen Zusatzchip fürs Raytracing unterbringen kann dann wirds interessant. Inwieweit Intel da interesse dran hat ist ne andere Frage.
 
@modena.ch
Deine Bewertung ist so nicht korrekt.

Ein Knights Corner-Kern schafft bei nur 5 Watt ca. 20 GFlops Leistung.
Ein Core-i7 990X-Kern erzeugt schon 21,6 Watt Verlustleistung und schafft dabei nur 13,8 GFlops.
Ein Phenom X6 1100T-Kerne erzeugt 20,8 Watt Verlustleistung und schafft dabei 13,2 GFlops.

Wenn man das mit anderen CPUs vergleicht, dann ist Knights Corner bemerkenswert.
Wenn das nicht "technisch weiter" ist, was ist es dann?
 
1.) Die TFlops/s spiegeln nur die Rohleistung im Idealfall wieder. Das muss nicht unbedingt viel mit der realen Leistung zu tun haben.

2.) Ob die Kerne jetzt auf x86 oder, ARM oder irgendeinem anderen Befehlssatz basieren, ist vollkommen egal. Das erledigt sowieso der Compiler.
Es ist deshalb so mühsam zu programmieren, weil es sich nicht um eine CPU handelt d.h. der Code wird nicht direkt ausgeführt, sondern muss über Schnittstellen erst mühsam zur GPU geschafft werden und das Ergebnis wird später wieder abgeholt

3.) Eine GPU zu programmieren erfordert einen ganz anderen Denkansatz. Man verwendet hier z.B. keine Schleife, in der man hochzählt, sondern jeder Schleifendurchlauf ist ein Shader, der unabhängig arbeitet. Auf einer CPU kann man mehrere Threads machen, aber das skaliert nicht gut auf 50 Kernen, geschweige denn auf mehreren 1000.
Weiters arbeitet eine GPU nur dann brauchbar, wenn diese nicht allzu viel vom Cache/RAM abhängig ist. Portiert man das klassische Zugriffsverfahren einer CPU auf eine GPU, bricht diese hoffnungslos zusammen und von der ursprünglichen Rohleistung bleibt nicht viel übrig.

Von den bisher brauchbaren Anwendungen war es immer so, dass eine High End Karte vielleicht 2-3 mal so schnell wie eine High End CPU war (z.B. beim Videos transcodieren). Klar kann man mehr herausholen, aber nicht das 1.000 fache. Wenn man das 3fache bekommt bei selber Transistorenanzahl, kann man schon glücklich sein.
 
Das Teil soll laut Intel nur 75watt verbrauchen!

Die PCIe-Karten werden zudem laut Intel keine spezielle Stromversorgung brauchen und sich innerhalb der Grenzen des PCIe-Standards bewegen. Dieser sieht 75 Watt über den Slot vor. Das verspricht eine hohe Effizienz und Packungsdichte für entsprechende Hardwareprojekte.
 
@GTX480

Die Karte ohne Lüfter - ja die mit Lüfter hat wie ich schon schrieb 1x8 und 1x6 Pin.
 
modena.ch schrieb:
Gerade eine Gamerkarte wie eine 7970 ist da nicht schlechter, viel, viel, viel günstiger wird vermutlich weniger verbrauchen und ist dabei noch in 28NM hergestellt.
Gerade AMD's GCN Architektur ist auf GPGPU ausgelegt und dabei sehr stark.
Man stelle sich vor AMD designe aufgrund dieser Architektur eine reine Karte für
GPGPU und nix zum Gamen. Die würde wohl jetzt schon haushoch gewinnen.
Oder NV bringt den Kepler vollausbau als Tesla?
Wenn bei der Programmierung oder schon bei der Problemstellung irgend etwas nicht 100% stimmt, bleibt bei den GPUs von AMD und NV nicht viel von der Rohleistung übrig, die reale Leistung bricht dann schnell auf 2-10% ein. Im Gegensatz dazu sind die dedizierten x86 Kerne von Intel deutlich tolleranter.


modena.ch schrieb:
Wenn hier jemand technisch weiter ist, dann sicher nicht Intel.
Soweit ich das sehe hat er technologisch und nicht technisch geschrieben und da ist Intel den Anderen weit vorraus.
 
Zurück
Oben