News Intels Larrabee besitzt zwei HD-Decoder

Was viele hier anscheinend nicht beachten: Intel hat nahezu unbegrenzte Geldmittel zur Verfügung. Wenn mit der ersten Generation Verluste eingefahren werden, was soll´s? Man muss sich erst mal auf dem Markt behaupten.

Intel hat noch nie kurzfristig gehandelt, deswegen gehe ich stark davon aus, dass die ganze Sache Hand und Fuß hat.

Des Weiteren finde ich es erschreckend, dass wirklich Leute glauben, Intel würde einfach mal aus Spaß auf den Grafikmarkt gehen. Ohne sich Gedanken zu machen, ob das Konzept erfolg haben kann. Als ob Intel mehrere Milliarden Dollar verbrät, ohne sich sicher zu sein, dass es was nutzt...
 
pezli schrieb:
Äh nein? Du kannst direkt x86-Code drauf laufen lassen.
Das wird dir aber nichts nützen. Sprachen wie C oder C++ bieten keine Möglichkeiten, derart parallelen Code zu erzeugen. Und am einfachsten ist das eben mit einer Spracherweiterung zu realisieren. Und genau das ist ja zB OpenCL.
So wie ich das bei Larrabee mitbekommen habe, wird man auf Spracherweiterungen verzichten und lediglich einen eigenen Compiler samt Runtime anbieten. Damit lässt sich dann zwar Legacy Code teilweise ohne Änderungen übersetzen, ist natürlich aber nicht gerade effizient, da parallele Aufgaben uU nicht optimal verteilt werden können. So werden für generelle Parallelisierung High-Level Threads genutzt, was aufwändiges Thread Switching zur Folge hat. Und Parallelisierung auf Thread Ebene, die die kompletten Kapazitäten der SIMD Einheiten ausnutzt, ist bei Legacy Code auch recht schwierig.
Wie ich schon sagte, du benötigst einen weiteren Software Layer. In welcher Form auch immer. Ich sehe daher wenig Chancen, wie Larrabees x86 Kompatibilität Programmierern irgendetwas einfacher machen wird. Im Gegenteil, ich habe eher die Befürchtung, dass die x86 Kompatibilität die Hardware relativ ineffizient macht.

C3rone schrieb:
Was viele hier anscheinend nicht beachten: Intel hat nahezu unbegrenzte Geldmittel zur Verfügung. Wenn mit der ersten Generation Verluste eingefahren werden, was soll´s?
Nun ja, ganz so einfach ist das nicht. Produkte unter den Kosten zu verkaufen, verstösst gegen geltendes Wettbewerbsrecht. Und das ruft die Kartellwächter auf den Plan.
 
Zuletzt bearbeitet:
@C3rone

Oje - wenn alles so einfach wär. "Ein große Firma mit Unmengen an Geld macht keine Fehler und auch keine Fehlinvestitionen" :freak:

General Motors hat vielleicht auch so gedacht...

MfG
 
Der SSD Markt hat gezeigt, dass man sich sehr wohl überlegt, wo und wie man einsteigt. GM hat schon seit Jahren unklug hantiert, ein solches Verhalten ist bei Intel in keinster Weise auszumachen.

Das Intel keine Fehler macht oder nie Fehlinvestiert habe ich auch nie gesagt. Aber sie werden ganz sicher nicht in in den dedizierten Grafiksektor einsteigen, ohne sich vorher Gedanken darüber gemacht zu haben.

Und Gruffi, natürlich kommt es da auf mehrere Faktoren an. Aber die Möglichkeiten, am Kartellamt vorbei zu agieren, sind immens. Natürlich stellt sich keiner hin und singt strahlend "wir verkaufen unter Produktionspreis".
 
C3rone schrieb:
Des Weiteren finde ich es erschreckend, dass wirklich Leute glauben, Intel würde einfach mal aus Spaß auf den Grafikmarkt gehen. Ohne sich Gedanken zu machen, ob das Konzept erfolg haben kann. Als ob Intel mehrere Milliarden Dollar verbrät, ohne sich sicher zu sein, dass es was nutzt...
Der Itanium beweißt das Gegenteil.

gruffi schrieb:
Ich sehe daher wenig Chancen, wie Larrabees x86 Kompatibilität Programmierern irgendetwas einfacher machen wird. Im Gegenteil, ich habe eher die Befürchtung, dass die x86 Kompatibilität die Hardware relativ ineffizient macht.
Das halte ich auch für möglich. Auch wenn die ganze Sache noch schwer zu bewerten ist, die bisherigen Infos hörten sich nicht gut an. Naja, die Zeit wird's zeigen.
 
das wunsch szenario aus intel sicht sieht also so aus:
im stillen kämmerlein entwickeln sie treiber und entwicklungsumgebungen für raytraycing basierte engines. dann nutzen sie ihre machtstellung und ressourcen aus, um 1-2 bekannte spieleschmieden zu "überzeugen". deren nächste oder übernächste blockbuster sind dann ersteinmal für raytraycing ausgelegt. die jahre an erfahrung für alle belange von gpu's bei der konkurenz sind dann für den arsch, denn bei rytraycing nutzt das alles nix.

wenn intel dieser schachzug gelingt, konkurieren sie nicht mit nvidia und co auf deren schlachtfeld - sondern zwingen diesen ihr eigenes schlachtfeld auf. damit ändert sich der heimvorteil - und nvidia/ati nutzen all die jahre erfahrung mit den aktuellen verfahren eher mal garnix.

somit ist die frage weniger wie leistungsfähig ist larabee1/2 - sondern wie leistungsfähig ist intels marketing hinter den verschlossenen türen der softwarestudios?

aktuell würde ich noch auf niemanden in diesem kampf mein geld wetten. aber intel sollte man auch nicht unterschätzen indem man larabee stumpf neben eine aktuelle graka in einem aktuellen spiel antreten lässt. dies wird kein kampf der gpu's - es wird ein kampf der systeme. das äquivalent wäre also weniger intel vs. amd - sondern eher pc vs. mac, und dieser wurde bekanntlich nicht an der benchmarkfront entschieden...
 
@ MacroWelle

War ja klar, dass jetzt jemand mit Itanium oder Pentium 4 kommt... das ändert aber rein gar nichts an meinen Aussagen.
 
Rambus hätte ich noch im Angebot für Liste
auch hat Intel schon versucht Graka´s herzustellen I740(http://de.wikipedia.org/wiki/I740)
und da ist es am Treiber und der Performance gescheitert und Intel hat bis jetzt nur igp`s gemacht seit diesem Abenteuer.

ich seh Larrabee auch eher erstmal im HPC bereich vll wenn es da gut läuft später auch mit abgespeckten Modellen aber eher ab Version 2 (mit dem Atom als Ion Konkurrenz :D )
grüsse
 
Denke diese Karte dürfte ganz interessant werden. Wobei die erste wohl mehr ein wir können es und sind da sein wird. Keine Rücksicht und nur maximale Leistung ohne auf den Verbrauch zu achten. Denke das die Karte schon ein Monster wird. Also eine rechzt unintereasste Karte.

Aber Teil zwei, wird denke ich sich mehr an den Markt richten und auch uns Gamer ansprechen. Erstmal die Erfahrungen sammeln und dann gehts ans eingemachte. Dafür das Intel nur Lappi und Onboardlösungen gebaut hat ist es damit was ganz anderes.

ich bin gespannt und freu mich auf Teil 2 der Karte die dann hoffentlich gut ankommt und auch Leistung/Verbrauch was bieten kann. Könnte mir dann überlegen (nach CB Test versteht sich) eventuell so eine Karte zu kaufen. Macht sich schon ganz gut, Intel CPU, Chipsatz Intel und dann auch Grafikkarte von Intel? Naja mal gucken, dass wird sicher noch eine Zeit dauern. Ende 2010 denke ich werden diese Karten Interessant
 
gruffi schrieb:
nVidias aktuellster Chip, GT200b, hat 470 mm². 700 mm² sind fast nochmal 50% mehr. Da kann man nun wirklich nicht von "nicht viel größer" sprechen. Und selbst nVidia hinkt bezüglich Performance/mm² schon ziemlich stark hinterher. Irgendwie habe ich mehr als nur Zweifel, dass die erste Larrabee Generation konkurrenzfähig wird.

Und in den Topkarten bauen sie davon zwei ein, also insgesamt deutlich größer. ;)
Ich sehe nicht ganz das Problem, ist ja nicht so als würde der Chip deswegen nicht ins Gehäuse passen oder automatisch ein eigenes Kraftwerk benötigen.
 
HD ist Zukunft und finde es schön das Intel da Produkte dementsprechend Entwickelt.
 
gruffi schrieb:
nVidias aktuellster Chip, GT200b, hat 470 mm². 700 mm² sind fast nochmal 50% mehr. Da kann man nun wirklich nicht von "nicht viel größer" sprechen. Und selbst nVidia hinkt bezüglich Performance/mm² schon ziemlich stark hinterher. Irgendwie habe ich mehr als nur Zweifel, dass die erste Larrabee Generation konkurrenzfähig wird.

jo, sehe ich genauso...

Decius schrieb:
Und in den Topkarten bauen sie davon zwei ein, also insgesamt deutlich größer. ;)
Ich sehe nicht ganz das Problem, ist ja nicht so als würde der Chip deswegen nicht ins Gehäuse passen oder automatisch ein eigenes Kraftwerk benötigen.

...ich kann mir derzeit auch nicht vorstellen, wie dieses monstrum zu einem halbwegs vernünftigen preis angeboten werden könnte. bei der größe und den daraus resultierenden fertigungskosten fällt larrabee wohl eher in die "enthusiast"-sparte.
allerdings ist auch schon aus älteren news hinreichend bekannt, dass larrabee mit nvidias gt200 auf einer höhe liegen soll (wenn überhaupt) - was die 3d-performance angeht. das wurde afaik sogar von offizieller seite so als ziel angepeilt.
die gt200 haben top performance, keine frage, aber leider nicht mehr zum zeitpunkt des larrabee-release. da sind ati und nvidia schon wieder eine komplette generation weiter. von daher denke ich auch, dass noch einige zeit vergehen wird bis larrabee für den mainstream-markt interessant wird.
 
Zuletzt bearbeitet:
Decius schrieb:
Und in den Topkarten bauen sie davon zwei ein, also insgesamt deutlich größer. ;)
Ich sehe nicht ganz das Problem, ist ja nicht so als würde der Chip deswegen nicht ins Gehäuse passen oder automatisch ein eigenes Kraftwerk benötigen.

herrlich erkannt, damit dürfte das Thema erstmal gegessen sein ;) -> top mann

@ Topic

Intel entwickelt nun seit Jahren an der Larrabee herum. Gleichzeitig legt man den Fokus immer mehr auf Raytracing, kauft Entwickler ein und stellt Engines vor. Ich halte es garnicht für so utopisch dass Intel versucht Nvidia und AMD/ATI auf anderer Ebene Konkurrenz zu machen.

Ich denke zusammen mit Dx11 wird die Sache hier weit offener für unterschiedliche Arten eine 3D Welt zu rendern. Das Ganze wird sich vermischen. Nvidia schläft sicher auch nicht, sieht man ja daran dass sie ebenfalls Raytracing Engine berechnet von eigenen Grafikkarten präsentieren.

Für mich stellt sich nur eine brennende Frage: Wann werden wir die Larrabee erstmalig im Einsatz sehen? Ich denke zu diesem Zeitpunkt wird uns so einiges klarer sein /werden.
Das Intel keine halben Sachen macht sollte klar sein, sonst wär die Karte sicher schon lange auf dem Markt.
 
Die erste Variante werden wir kaum am Markt sehen, die ist eher für Entwickler und sonstige "Freaks". Nr. 2 kommt dann schon in 32nm, die Fläche sollte sich um 350mm² einpendeln. Neue Engines sind sowieso fällig, mal gucken was Intel hier bewirken kann...
 
Decius schrieb:
Und in den Topkarten bauen sie davon zwei ein, also insgesamt deutlich größer. ;)
Ich sehe nicht ganz das Problem, ist ja nicht so als würde der Chip deswegen nicht ins Gehäuse passen oder automatisch ein eigenes Kraftwerk benötigen.

Es geht eher in dem Fall um den Preis. Zwei 200mm² Chips sind billiger als ein 400mm², wenn ein Teil des 400mm² Chips im Eimer ist kann man den ganzen Chip wegwerfen. Bei den zwei 200m² Chips kann man dann wenigstens noch einen weiter verwenden.

Edit: Es sind keine 200m² sondern 200mm².
 
Zuletzt bearbeitet:
Naja,

ich würde eher sagen das Intel groß mit einschlagen wird, das sind ja keine Laien wie viele hier (mich eingeschlossen).
Nur weil wir ein wenig Ahnung von Shadern und Clustern haben, sind wir noch lange keine Ingenieure die das voll durchblicken....

Ich programmiere selbst in C, C#, Java, Ruby....
Auch ein wenig CAD programmierung kann ich, aber was die da immer wieder zaubern verblüfft mich immer und immer wieder aufs neue!
Hoffen wir das beste, 3 Konkurrenten sind besser als 2 Konkurrenten.
Belebt das Geschäft und fördert die Entwicklung ;)
 
Sie haben doch schon gezeigt wie es geht, die SSDs waren astronomisch teurer, hatten aber die Leistung das viele sie dann doch gekauft haben. Da es sich immer noch in Preisregionen bewegt die viele bezahlen können, es also nur am wollen liegt, muß man mit dem Leistungsabstand Begierde erzeugen.
Zu dem GM post, beim Kfz liegt es oft am können , nicht am wollen.
 
Also ich glaube nicht, dass Larrabee (in der stärksten Ausbaustufe) irgendwas anderes als das High-End angreifen wird.
Ich mein... jemand wie Intel mit nicht enden wollendem Geld kann sich schon leisten, jedwede Ziele ohne Rücksicht auf Aufwand zu realisieren, wie zum Beispiel gesehen am X25-M damals und dem Zitat "I think Intel has just Conroe'd the HDD market".
 
Decius schrieb:
Und in den Topkarten bauen sie davon zwei ein, also insgesamt deutlich größer.
Wer baut zwei von was wo ein? Dir ist schon klar, dass sich dadurch nichts an der Performance/mm² ändert? Dir ist hoffentlich auch nicht entgangen, dass ATI und nVidia aktuell in 55 nm fertigen. In 40 oder 28/32 nm werden deren Chips nochmal um einiges kleiner sein. Sollte der vor einigen Monaten gezeigte Larrabee Wafer tatsächlich in 45 nm gefertigt worden sein und 64 komplette Dies enthalten haben, rechne ich mit etwa 700-800 mm² pro Die. Mal ganz theoretisch gerechnet, mit 85% Effizienz beim Shrinken, ein GT200 in 32 nm läge dann etwa bei 190 mm², Larrabee in 32 nm bei etwa 450 mm². Also selbst wenn nVidia 2 Chips nehmen würde, wäre die Fläche immer noch geringer. Und vergiss mal ATI nicht, die sind bezüglich Performance/mm² momentan absoluter Spitzenreiter. Ein RV790 in 32 nm würde nur etwa 110 mm² benötigen.


Und da hier wieder Raytracing ins Spiel gebracht wird. Erwartet nicht zu viel davon. Larrabee wurde als Rasterizer geplant und realisiert. Und die Konkurrenz forscht auch schon länger an Raytracing. Das Verfahren mag zwar ein anderes sein, Lösungsstrategien aber nicht zwangsläufig. Man sollte sich nichts vormachen. ATI und nVidia haben ein ungemein umfangreiches Know-How auf diesem Gebiet. Das zu egalisieren oder gar zu übertrumpfen, ist alles andere als einfach. Da ist auch Intel keine Ausnahme. Unendliche Ressourcen haben sie auch nicht.
 
Zuletzt bearbeitet:
Floletni schrieb:
Es geht eher in dem Fall um den Preis. Zwei 200mm² Chips sind billiger als ein 400mm², wenn ein Teil des 400mm² Chips im Eimer ist kann man den ganzen CHip wegwerfen. Bei den zwei 200m² Chips kann man dann wenigstens noch einen weiter verwenden.

Und @ Decius

Und darüber hinaus hat die 4870 X2 auch zwei Chips mit nur 256m² verbaut ;-) Da kann man sich dann erst recht vorstellen wie groß der Unterschied zu einem 700m² Chip sein wird. Is schon krass.
 
Zurück
Oben