News Intels Larrabee bringt über 1 TFLOPS

Soein Käse bei Wiki... was soll es bringen etliche auch wenns tausende uralte P54C auch im x-kleinen nm zu verbauen. Die können doch nix keine Befehle groß und wenn sie alles Implentieren sollten dann ists auch kein P54C ne.

Nja Käse denk ich hatte mal was anderes gelesen von MultiChips iwi vom PowerVR SGX oder so finds auch nicht mehr.

http://mitrax.de/
 
Abwarten. Die DX11 Compute Shader könnten Larrabee im Bezug auf die ach so außergewöhnliche Multifunktionalität bis dahin das Wasser abgraben. Immerhin brät sich Intel mit Larrabees Architektur ja eine ziemliche Extrawurst.
Sollten Softwareunternehmen auf die Compute Shader zur softwarebeschleunigung setzen, hätte Intel hier schon ein dickes Problem.
Und ob nur für Larrabee Entwickler Spiele mit Raytracing Engine rausbringen, wenn aktuell so ziemlich jedes große Spiel als Multiplattform Titel erscheint, bei denen PC-Besitzer sich schon über höher aufgelöste Texturen und angepasste Menüs freuen, das wage ich irgendwie zu bezweifeln.
Schliesslich und endlich hat Intel es bis heute nicht mal auf die reihe bekommen, für seine IGP´s vernünftige Treiber zu entwickeln, da wäre für Larrabee auch sehr viel Arbeit nötig.
 
Ich bin wirklich auf den Larrabee gespannt und je nach Preis würde ich mir eventuell einen zusammen mit ner konventionellen Grafikkarte holen.

Da es ja standard-X86-Prozessorkerne sind, dürften auch viele Programme mit kleineren Anpassungen drauf laufen. Wie es beim Gamen aussieht wird sich allerdings erst zeigen müssen.

LG Vanadis
 
rockys82 schrieb:
Soein Käse bei Wiki... was soll es bringen etliche auch wenns tausende uralte P54C auch im x-kleinen nm zu verbauen. Die können doch nix keine Befehle groß und wenn sie alles Implentieren sollten dann ists auch kein P54C ne.
Der P54C ist ein normaler Pentium Kern. Klar besitzt der nicht alle modernen Befehlssatz-Erweiterungen, das ist das, was ihn so klein macht, dass man dadurch eine "extreme" Multi-CPU bauen kann.
Eben so klar ist aber auch, dass auf dem Ding noch immer so ziemlich alles läuft, da sie zur aktuellen Architektur noch immer Kompatibel sind. Das wiederum ist der große Vorteil gegenüber den "Prozessoren", die auf den aktuellen Grafikkarten verwendet werden - diese sind nämlich nicht kompatibel und es muss alles speziell dafür programmiert/übersetzt werden, da sie einen ganz anderen (sehr vereinfachten) Befehlssatz haben.

Man hat also ganz viele ganz kleine Prozessoren, die im Grunde die selben "Fähigkeiten" haben, wie die großen, bei entsprechend geringer Leistung pro Kern natürlich. Ich sehe nicht, wo das "Käse" sein soll.
 
Bereits in Intels White Paper steht, dass ein Kern ca. 40 FLOPS bringt, bei 32 Kernen mal 40 kommt man eben auf über 1200 Flops. Die Angabe gilt allerdings nur theoretisch, wenn man alle Erweiterungen mitrechnet. Insbesondere die Multiple-ADD-Erweiterung bringt schon doppelte Geschwindikeit für Adition und Multiplikation, wenn beide Rechenarten gleichzeitig ausgeführt werden können. Die Sache ist nur die, dass es keinen sinnvollen Code geben kann, der all die Erweiterungen ausnutzt und das permanent in jeder SIMD einheit. Zudem kommen noch weitere Limmitierungen und nicht komplettes auslasten der FPU. Für das Ausladen der SIMD einheit mit normalem Shadercode gibt Intel 88 Prozent an. Da bleibt am Ende von den theoretischen Werten nichts übrig...
 
Worauf stützt sich eigentlich die Annahme, dass Larrabee als Grafikkarte für D3D / OpenGL Spiele eingesetzt werden wird?

Für mich hört sich das ganz stark nach einem im Befehlssatz erweiterten GPGPU-Gespann an, das weder alleine ein Betriebssystem verwalten kann, noch einem aktuellen D3D-Beschleuniger Konkurrenz machen kann.

Larrabee basiert auf Prozessoren, die von der Architektur mit dem Pentium-P54C vergleichbar sind - und davon richtig vielen.
Diese CPUs unterstützen nicht mal den MMX-Befehlssatz, geschweige denn SSE und dessen Nachfolger. Als CPU-Ersatz absolut unbrauchbar, viele Programme und Betriebssysteme kommen ohne die erweiterten Befehlssätze einer aktuellen CPU nunmal nicht aus oder laufen verdammt langsam.

Als GPU-Ersatz wird's auch verdammt eng:
- 64 niedrig getaktete CPUs kommen nunmal gegen die aktuell 240 (1D) oder 160 (5D) Streamprozessoren einer nVidia/ATi GPU nicht an
- Intel müsste endlich einen vernünftigen 3D-Treiber entwickeln - wenn man auf die aktuellen Treiber schielt, fällt es schwer, daran zu glauben

Larrabee ist also nichts ganzes und nichts halbes.
Den einzigen Verwendungszweck für Larrabee sehe ich in speziellen Anwendungen, die zu komplex für aktuelle GPUs und zu einfach für aktuelle CPUs sind - ein Zwischending also für hochspezialisierte Anwendungen, auf die der Privatanwender wohl noch lange warten kann.
Larrabee ist für Unis, Serverfarmen und Firmen gedacht, aber garantiert nicht für Privatanwender und schon dreimal nicht zum daddeln. Dafür wäre er viel zu teuer, stromverschwenderisch und deutlich schwächer als die viel stärker spezialisierten Prozessoren von ATi und nVidia.
 
Intel muss nicht nur die Hardware bereitstellen ,sondern auch Treiber programmieren und auf dem laufenden halten. Hier hapert es doch noch sehr ;-D
 
Mal sehen wie sich die Karte schlägt, vor allem sieht man ja das CUDA immer mehr unterstützt wird. Mit der x86 Unterstützung geht es sicherlich noch schneller und 2 TFlops zusätzlich zum Prozessor ist schon was.

Bei den Spielen wird besonderst der Treiber vieles entscheiden, denn so viele Kerne müssen sinnvoll genutzt werden um gute Leistung zu erzielen.

Ein Vorteil hätte die Karte, sie wäre nichts spezielles von der Architektur her und man braucht nicht mit jeder DirectX Version neue Hardware.

Wenn sie von der Leistung Top ist werde ich mir eine zulegen!
 
Jaja wie der Avalanche von den Bitboys, an dem wurde auch 10 Jahre lang entwickelt, und kaufen konnte man ihn nie :D Wenngleich wahrscheinlich auch viele Patente heute bei nVidia und ATI verwendet werden.

Ansonsten, klarer Fall für den VAPORWARE Award :D
 
Zuletzt bearbeitet:
Wenn ich mich nicht täusche, wird bei der x86-Architektur des Larrabee die TFLOP-Leistung in doppelter Genauigkeit gemessen, also 64 bittige FKZ. Bei den Grakas von ATI und Nvidia wird die TFLOP-Leistung dagegen 32 bittig gemessen, da sie keine 64-Bit-FKZ unterstützen.

Allerdings dürfte doppelte Verarbeitungsbreite des Larrabee kaum positive Auswirkungen auf 3D-Engines haben, da 32 Bit eigentlich schon vollkommen ausreichend sind. Das sieht bei wissenschaftlichem Einsatz anders aus. Aber vielleicht werden schon die Direct3D-11-Karten ebenfalls 64-bittige FKZ in Hardware verarbeiten können (wird das in DX11 festgelegt?).
 
Zu einer "guten" und marktfähigen Grafikkarte gehört weit mehr als nur eine gute GPU. Intel ist auf diesem Sektor zwar nicht ganz unerfahren, aber ATI und NV sind da viele Jahre im voraus. Außderdem braucht eine gute Katre auch einen guten Treiber und einen guten Support.

Wenn dieses Abenteuer für Intel keine Eintagsfliege wird dann können sich die Anwender freuen. Intel hat die Möglichkeit und die Mittel zu dem dritten Anbieter von Grafiklösungen zu werden. Das würde die anderen unter Druck setzten noch besser zu werden und auch auf die Preise würde das Einfluss nehmen.

Ich hoffe das Intel es schafft und das wir bald eine GPU mit 8, 16, 32 oder besser noch 64 Kernen bekommen.
 
Ich glaube ihr habt Matrox vergessen, die gibt es durchaus immer noch, wobei sie natürlich für Spieler auch uninteressant sind und eigentlich auch für Firmen, aber es gibt noch genug ahnungslose IT-Admins die das Zeug einfach kaufen.

Zu Larrabee kann ich nur sagen: hoffentlich Flopt dieser Blödsinn endlich, damit man keine News dazu mehr lesen muss.
 
1Teraflop ist ja auch das mindeste oder? bevor der raus ist haben die andern Lager ATI/Nividia schon 3 Teraflop^^
 
Klamann schrieb:
oder laufen verdammt langsam.

Als GPU-Ersatz wird's auch verdammt eng:
- 64 niedrig getaktete CPUs kommen nunmal gegen die aktuell 240 (1D) oder 160 (5D) Streamprozessoren einer nVidia/ATi GPU nicht an

und wie kommst du nu zu der Schlussfolgerung? wegen den unterschiedlich großen Zahlen? AMD und nVidia zählen ihre Streamprozessoren oder wie das AMD nennt "Stream Verarbeitungs Einheiten", die kannst du doch nicht in Relation zu den Kernen setzen. HD 4870 hat 10 Shadercluster mit 800 "Stream Verarbeitungs Einheiten, die man am Ehestens mit Intels SIMD-Einheiten vergleichen kann. Intel hat dann voraussichtlich mit 32 Kernen 512 (32*16) SIMD-Einheiten mit über 1 GHz. Das größere Problem sehe ich auch nicht in den SIMD-Einheiten, sondern in der Softwareseitigen Abarbeitung von GPU-Aufgaben auf den Kernen (die bei Grakas in Fixed funktion unitits erledigt werden, und zu denenen die Streamprozessoren NICHT zählen) und dazu gibt es keine Erfahrungswerte.
 
Zuletzt bearbeitet:
generell kann man noch gar nichts hier vergleichen. die architektur des larrabee soll etwas vollkommen neues sein. der einzige bekannte leistungswert ist 1 tflop/s. das sagt aber über die tatsächlich nutzbare leistung auch noch nicht wirklich viel aus. ati und nv sind von der architektur her sehr viel ähnlicher und schon da sind die tflop/s-werte nicht wirklich mit der tatsächlichen leistung vergleichbar. ati hat mehr theoretische tflop/s aber nv die schnelleren highend-karten.

imho wird aber die erste larrabee-generation noch weit hinter ati und nv liegen. ich vermute sogar, dass intel nur wirklich an die spitze kommen kann, wenn sich die spieleengines zu deren gunsten weiterentwickeln (stichwort ray tracing).
 
Sorry! Aber es muss sein, sonst vergißt es noch jemand!!!

:D Die PS3 hat aber 2.18 TFLOPS sagt Sony und die 360 hat 1 TFLOPS sagt Microsoft. Warum nimmt man dann nicht einfach die PS360 Chips und baut die auf Grafikkarten, schon hat man jede menge Geld gespart :evillol:

McDaniel-77


P.S.: Konkurrenz belebt das Geschäft. Wenn Intel es schafft einen potenten Grafikchip zu präsentieren, der es gegen AMD/ATI und nVidia aufnehmen kann, können wir uns nur freuen. Dann gibt es immer mehr Leistung zum kleinen Preis. Heute bekommt man doch schon High-End Grafikkarten, wo selbst Crysis absolut flüssig spielbar auf maximalen Einstellungen läuft für 150 Euro. PC Technologie war noch nie so günstig!!!
 
Das ist zwar alles nur Mutmaßung aber ich denke, dass der Larabee für Intel so endet wie der Pentium 4. Das wird eine glatte Fehlkalkulation...:freak:
Nur beim P4 hat Intel der hohe Bekanntheitsgrad und gewisse Verträge mit gewissen Geschäften geholfen das Zeug trotzdem an den Mann zu bringen.
 
Ich denke mal, daß Larrabee keine direkte Konkurrenz zu den Produkten der beiden anderen Hersteller sein wird. Sein Einsatz kann vielfältig sein, ohne große Anpassung der Software!

Das heißt, wenn der "Steuerchip" in der Karte erkennt, daß eine Aufgabenstellung mehr Rechenleistung benötigt, wird diese Berechnung eben gleich von der Karte ausgeführt.

Bei den anderen beiden Herstellern, mußten die Produkte durch spezielle Treiber und Software sozusagen "Alltagstauglich"gemacht werden. Das fällt nun weg. Auch sind die Einsätze recht beschränkt.

Ich hoffe, daß sich an diesem Ansatz (wie er mal irgendwo dargestellt worden ist) nicht viel geändert hat.
 
wird sich aber durch openCL auch relativieren. programme die mit dieser api geschrieben werden laufen auch einfach so auf grakas.
 
Zurück
Oben