News Larrabee so schnell wie GeForce GTX 285?

Scheint ein nettes Stück Hardware zu werden...

Dann kommen aber noch harte 2 Jahre auf Intel zu um vernünftige, schnelle und stabile Treiber zu entwickeln - um wenigstens halbwegs auf ati und nvidia niveau zu kommen.
 
TheShaft schrieb:
Komplettzitat entfernt.

Mit der Marktmacht und den Ressourcen von Intel sehe ich schwarz für die Konkurrenz. Intel hat grosse Erfahrung im Kaputtmachen von Konkurrenten.
 
Zuletzt bearbeitet von einem Moderator:
Grenzwert schrieb:
Komplettzitat entfernt.

Solang die keine Treiberentwickler abwerben von nvidia / amd, sehe ich schwarz für intel ;)

Nichts ist komplexer als ein Grafikkartentreibber. Und der Larrabee Treiber wird wahrscheinlich nochmal doppelt so wichtig wie die von aktuellen Karten, da wirklich (fasT) alles frei programmierbar ist...
 
Zuletzt bearbeitet von einem Moderator:
Jo, wenns wirklich so massiv auf die Treiber ankommt, dann wirds schwerfür Intel. Wir wissen ja alle, wie *hust* gut sie das können.
 
wdragon schrieb:
Was soll der Käse? Larrabee so schnell wie GeForce GTX 285, das ist doch ein großer Erfolg, wenn das zutreffen würde.

Schon mal ein Anfang für Intel, aber die Aussage kommt ja von Intel selber und Herstellerangaben sind immer geschönigt. Wahrscheinlich in dem Bereich in dem es drauf ankommt(AA+AF) höchstens auf GTX 260-192 Niveau, schätz ich jetzt mal :D

Wenn die Treiber von Larabee beim Start was taugen fress ich einen Besen, das klappt niemals das Intel sofort mit ATI und NV auf einem Qualitätslevel stehen...
 
Zuletzt bearbeitet:
Habt ihr alle so derbe Probleme mit den Intel Chipsatz Treibern?

Ich jedenfalls nicht und ob nen GMA xxx nun DX 10 unterstützt oder nicht ist mir ehrlich gesagt scheiß egal und dem Rest der nicht Zocker wohl auch.
 
killerpixel schrieb:
Falsch, es steht da er soll so schnell sein...das is n gewaltiger Unterschied
Lies nochmal genau die News.
computerbase schrieb:
Derzeit würde Larrabee in etwa die Leistungen einer GeForce GTX 285 aufweisen können.
Mich interessiert, in wie weit sich die Performance nach Einschätzung mittels neuer Treiber/Software oder auch mehr Kerne noch steigern lässt.
 
6cm^2 waren glaube ich als Die-Fläche im Gespräch, die Leistung erreicht ATI mit 1/3 davon. Auch wenn das Ding mehr kann wird es für ne GraKa zu teuer sein.

Naiv würde ich vermuten, dass Intel die erste Generation schon abgeschrieben hat bzw. die eh nur dafür gedacht war, Erfahrungen zu sammeln. Der wirkliche Angriff auf die Konkurrenten kommt dann mit der zweiten Generation.
 
Also in meiner letzten Firma hatten wir auch so einen OnBoard Käse von Intel. Ständig hat sich da irgendein Speicherbereich in den von der Grafikakare rein geschrieben gehabt und es gab Grafiksalat.
Nee, Treiber sind keine Stärke von Intel.

@Sgt
Mich interessiert, in wie weit sich die Performance nach Einschätzung mittels neuer Treiber/Software oder auch mehr Kerne noch steigern lässt.
--> Man kann mit einem besseren Treiber nicht über die Performance der Hardware hinaus. Wenn da steht dass der soviel haben wird, dann sit das eben die Obergrenze. Und mehr Kerne, das Teil hat schon eine Fläche von 600mm². Willst du einen Chip pro Wafer rausschneiden? *g*
 
Zuletzt bearbeitet:
Bin ich mal gespannt. Intel scheint ja jetzt seine Krakenarme ausgefahren zu haben
und greift nach den Grafikmarkt, dem Mobiltelefonmarkt, etc. In 20 Jahren
gibt es nur noch eine Firma und keine Staaten mehr. ^.^
 
noskill schrieb:
Nein, in Form von Shadern wie bei ATI und NVIDIA. ;)

Naja im Endeffekt kommt die Hardware zum Tragen, wie man jetzt die Berechnung von Effekten realisiert ist eigendlich egal. Intel wird andere Schnittstellen zur Verfügung stellen und die Programmierung per Software ist bei ATI und NV schließlich auch nötig.

Denke mal die Intel GPUs werden dadurch flexibler und Intel wird wohl die nötige Software bzw. Schnittstelle zu DirectX selbst programmieren. Von daher kein negativ Argument für mich.
 
Und, wenn sie schneller oder gleich schnell wie eine 285 ist dann ist Intel auf einen sehr guten Weg. Egal ob schneller oder gleich schnell, wäre schneller als alles andere was Intel bis jetzt gebaut hat und wenn das die erste Gamer Karte ist dann bitte, bin ich auf die zweite gespannt und dann könnten die Dinger richtig gefährlich werden für ATI und NV.

Warten wir es ab, ich werde es verfolgen.
 
ja moment mal eine frage,
das larrabee so schnell sein soll wie eine GTX 285 hab ich schonmal gelesen aber ich hab auch gehoert das der oder die Larrabees linear mit der anzahl der Kerne skalliert. Heisst das wenn man 10 damit on den rechner stopft das man dann doch wieder high-end ist oder was ist los ?!
 
noskill schrieb:
Nein, in Form von Shadern wie bei ATI und NVIDIA. ;)

Es geht nicht um Shader. Shader sind auch frei Programmierbar. Es geht um die Fixed-Function-units. Larrabee hat nur die TMUs als Fixed-Function Units. Alles andere wird frei Programmierbar auf den Kernen ausgeführt. Hier spricht man dann von Softwarerenderingpipeline, während die Renderingpipeline von nvidia und ATI in Hardware gegossen ist und eben nur die Shader frei programierbar sind...
 
Ich bezweifle dass, das Ding AMD und Nvidia gefährlich werden kann, denn die wissen auch schon seit langem das Intel so etwas entwickelt und das darin eine menge Potenzial steckt.
Die haben mit Sicherheit schon selber was in Entwicklung, was richtig einschlagen wird....

Und nur weil Intel das entwickelt heist es noch lange nicht das es gut wird (Bsp. Pentium 4 :freak:), außerdem müssen die das auch erstmal hinkriegen kosten effizient zu produzieren was ich mir bei der angeblichen DIE Größe schwer machbar vorstelle.
 
Sgt.Speirs schrieb:
Lies nochmal genau die News.
lies du sie nochmal. das ist lediglich laut aussage eines anonym gebliebenen intel sprechers! also nix weiter als eine behauptung ohne hand und fuß!
 
Könnte gut sein, dass Larrabee gut skalliert mit mehreren Einheiten.
Aber man wirds sehen müssen.

Realistisch betrachtet, kann man aber eigentlich nur hoffen, dass sie es nicht schaffen.
Einen dritten Hersteller kann der Grafikkartenmarkt wahrscheinlich nicht mehr stemmen. Dafür sind die Entwicklungskosten zu hoch, als dass weitere Absatzverluste durch einen dritten Hersteller noch kompensiert werden können. Zu der Idee kann man zumindest anhand der Quartalszahlen von nV und AMD kommen.

Intel wirds wohl nciht interessieren, aber sehr wohl einen der beiden anderen Hersteller.
Und ob man nun unbedingt will, dass gerade Intel einen der anderen beiden verdrängt...
 
Auch wenn Intel mir nicht Hause kommt so freue ich mich doch auf den Release Tag, so kann ich mir sicher sein das die Preise von NVidia oder aber ATI recht in Ordnung sein werden und fallen werden ;).
Bin trotzdem mal gespannt was die Karte tatsächlich unter der Haube haben wird.
 
Das Nadelöhr wären dann Speicherbandbreite und CPU. Also Linear ist das gewiss nicht.
 
Zurück
Oben