@noskill
Mit jeder neuen Grafikgeneration (also fast jährlich) steigert sich die Leistung der Grafikhardware um ungefähr 75% und da sind Treiberoptimierungen nicht drin!
Um das zu erreichen müsste Intel jedes Jahr die Anzahl der Recheneinheiten auf dem Larrabee fast verdoppeln.
und was außer die Anzahl der Recheneinheiten zu verdoppeln, machen die anderen Hersteller?
wie Silverhawk sagt, Intel war und ist jedem anderen Hersteller bei der Fertigungstechnik weit vorraus und genau damit haben sie in der Vergangenheit viele Konkurrenten alt aussehen lassen.
SLI/CF haben noch immer massenhaft Probleme, vorallem was den Input-Lag betrifft...
und die Probleme können nicht verschwinden, solange AFR verwendet wird und die zweite Grafikkarte ein Bild vorrausberechnen muss, von dem noch gar keine Input Daten vorhanden sind...
Larrabee kann dadurch, dass er eben die Arbeit nicht erst in Hardware auf dem einzelnen Chip verteilt sondern bereits im Treiber die Arbeit an "einem" Bild auf mehrere Chips verteilen --> vergleiche Hydra von LucidLogic welches ja ein von Intel gesponsertes Startup ist.
@Kasmopaya
Geht ja schon los beim Atom wo der Ion(16 Kerne der jeden Nehalem platt macht wenn die Software stimmt) 10 mal wichtiger ist als die CPU und hört im Servermarkt bei Tesla auf...
die wenigen Anwendungen, welche bisher von der GPU beschleunigt werden, decken eben nur die paar Bereiche ab, für welche GPUs geeignet sind. Solche heutigen GPUs können keine CPU ersetzen.
Wenn man sich etwas mit threaded Programmierung auskennt, weiß man wie wenige Aufgaben es gibt welche sich beinahe beliebig teilen lassen und nur solche können auf heutigen GPUs schneller als auf CPUs ausgeführt werden. Weiterhin kann man die Masse der Berechnungen nur durch schnellere einzelne Kerne beschleunigen, was ohnehin der Engpass in der Zukunft sein wird.
Als Co-prozessor für eben jene geeigneten Aufgaben, werden sie sich in Zukunft aber sicher sehr gut positionieren. (den FUSION Ansatz, kann man ja genau so interpretieren)
Und genau hier wird Larrabee noch weitaus besser verwendet werden können.
Tesla, wenn dann auf dem Markt für wissenschaftliche Rechner, aber sicher nicht auf dem Servermarkt
Und ION beschleunigt gerade mal Videos und Spiele, kann den Atom aber ansonsten kaum unterstützen --> von wegen Nehalem platt machen. Außerdem hat der 9400m 54 Gflop peak bei SP welche der i7 920 mit DP beinahe erreicht (im SisoftSandra Bench, also noch deutlich unter peak).
Aber, wie gesagt, ohnehin nicht vergleichbar nur um klarzustellen, dass der ION auch bei optimalen Bedingungen nicht an einen i7 herankommt. d.h. mit einem optimierten GPU Konvertierer kann man auch beim optimal geeigneten Videokonvertieren bei gleichem Detailgrad nicht mehr aus dem ION rausholen als mit einem ebenfalls optimierten CPU Konvertierer und i7.
bei den schnelleren GPUs sieht dies natürlich anders aus
edit:
@gruffi
Zitat von Winterday
Die Unterschiede zwischen nVidia/AMD GPU und Intels Larrabee sind grösser als Du meinst. Man kann beispielsweise einen G200 nicht einfach mit C programmieren. Zudem muss bei nVidia die CUDA Schnittstelle genutzt werden.
Was glaubst du, worauf Spracherweiterungen wie CUDA oder OpenCL basieren? Ich sehe in der x86 Kompatibilität des Larrabee mittlerweile auch keinen Vorteil mehr. Im Gegenteil, C oder C++ bieten keinen grundsätzlichen Support für die erforderliche Parallelisierung. Man kann zwar auf Threads zurückgreifen, dass die hier aber sonderlich hilfreich sind, wage ich zu bezweifeln. Letztendlich bleibt Intel wohl auch nichts anderes übrig, als den Code auf OpenCL oder ähnlichem aufzubauen. Wenn ich das noch richtig in Erinnerung habe, nannte sich dies bei Intel Ct. Keine Ahnung, was daraus mittlerweile geworden ist.
du solltest dir den Unterschied zwischen Programmiersprachen, Befehlssätzen und Schnittstellen wohl noch mal etwas genauer ansehen.