Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsLarrabee als Consumer-Grafikkarte ist Geschichte
Eines der ehrgeizigsten Projekte von Intel in den letzten Jahren war „Larrabee“, mit dem man den High-End-Grafikmarkt angreifen wollte. Gegenüber US-Medien hat Intel nun aber bestätigt, dass die erste Generation nicht in den Consumer-Markt entlassen werde, das Forschungsprojekt selbst aber weiterlaufen soll.
Naja,habe ich mir fast schon gedacht das dass nichts wird (ersteinmal) der Verbrauch der Prototyps hat bestimmt auch eine bestimme wichtigkeit ausgespielt das Larabee erstmal nicht kommt Juhu 1200er Post xD
Ist doch gar nicht so schlecht. Gerade bei einem so großen Markt sollte man nicht mit einer Krücke starten oder ein Produkt rausbringen, das nur einigermaßen mithalten kann.
Wir haben doch schon bei anderen Dingen (wie z.B. Hyperthreading) gesehen, dass Intel - nach einiger Zeit - durchaus etwas Brauchbares zaubern kann.
In 2 oder 3 Jahren sieht das mit Larrabee vielleicht schon anders aus. Irgendwann muss ohnehin der Sprung von Rendering auf Raytracing kommen und dann kann Intel die anderen immer noch weg pusten.
Wenn ich jetzt die Zitate einiger CB User raussuchen würde...bei der letzten Larrabee Vorstellung, von wegen ihr werdet euch wundert....Schade, keine raytraced QuakeWars Demos mehr...
Jo, überrascht mich auch nicht, war ja schon so leicht zu erahnen...
Wenn ich ehrlich bin...ich freu mich sogar:-) Der Markt ist für nvidia und ATI schon hart, da brauchen wir nicht noch jemand. Zumindest nicht Intel!!!
Nach Rambus, 10Ghz PIV, BTX, Wimax, Itanic liegt eben noch der Larrabee auf Intels eigenem Schrottplatz*g*
Wundert mich nicht wirklich wie es jetzt gelaufen ist.
Über 20 Jahre (im Falle von ATI) Know How kann man nicht in ein paar Monaten nachholen oder für Geld kaufen. Neben der reinen Hardwarevoraussetzung ist auch die Softwareseitige Unterstützung für eine VGA Karte nicht zu unterschätzen, und spätestens hier denke ich ist der Vorsprung der beiden Player ATI und NVIDIA uneinholbar auf kurze Sicht für jemand der "neu" hinzustösst und eine eigene Technologie etablieren möchte.
Wieso Larrabee ist auf einer x86 Architektur aufgebaut u keine Grafikkarte in dem Sinne,also sind sehr wohl Parallelen zur erkennnen zwischen der 48Core CPU u dem eingestellten Larrabee Projekt,erst recht da sie beide komischerweisse Multicoreanwendungen zur Entwicklung dienen sollen
-AMD hat mit HD3870->HD4870->HD5870 praktisch jährlich die (theoretische) Rechenleistung verdoppelt, die nächste Serie ist für nächstes Jahr geplant. Wenn Intel da ein Jahr zu spät ist, ist das Game Over. Ab4er richtig gut ist die Nachricht wohl erst für nvidia, die bekommen ihren heiss gelieben GPU-Computing-Markt erst mal exklusiv.
-Sollten die nächsten CPU-Achritekturen von Intel nicht einen integrierten Grafikkern haben, der auf Larrabee basiert?
-1.5 G$ an die EU, 1.25G$ an AMD, in das Projekt haben sie sicherer weit mehr als 1G$ versenkt und am Ende des Jahres werden sie immer noch schwarze Zahlen schreiben. Hat noch jemand das Gefühl, dass CPUs billiger sein könnten?
Wundert mich nicht wirklich. Intel bastelt daran ja schon ewig rum und haben seitdem noch nicht einmal Demos von Larrabee gezeigt was die angebliche Leistungsfähigkeit erreicht.
Das witzige daran finde ich nur, zuerst wollte Intel nVidia/ATI Druck machen bzw. in deren Marktsegment einsteigen und zwischenzeitlich ist es eher umgekehrt. AMD und Intel machen eher Intel mit GPU Computing Druck.
1.5 G$ an die EU, 1.25G$ an AMD, in das Projekt haben sie sicherer weit mehr als 1G$ versenkt und am Ende des Jahres werden sie immer noch schwarze Zahlen schreiben. Hat noch jemand das Gefühl, dass CPUs billiger sein könnten?
Dafür kann sich Intel aber genau SOLCHE Forschungsarbeit leisten, und auch, wenn ein grosses Projekt wie Larrabee nichts wird, geht Intel nicht gerade (fast) Bankrott wie andere Unternehmen. No risk no fun. So kommt evolutionäres neues zustande... seid froh dass Intel das Geld dazu hat. Wo wären wir ohne Intels Forschung?
Raytracing (voxel tech) im Gamesektor ist damit aber nicht vom Tisch. Carmack wendet teile dieser Technik bereits in der Tech5 Engine an.
Eine extra Grafikkarte wird in Zukunft wohl nicht mehr für Office und mehr notwendig sein. Ich denke, dies hat auch Intel schon länger erkannt und
daher konzentriert man sich eher auf die Implementierug der Grafikeinheit in die MultiCoreCPU. Dennoch werden die Forschungsergebnisse aus dem Larrabee-Projekt nicht
umsonst gewesen sein. Nicht zuletzt, weil sie massive mulitcore CPUs greifbarer gemacht haben.
Larrabee war Anfangs als "High-End"-Lösung definiert, mit der Hoffnung, man könnte mit nV und Ati mithalten. Dann relativierte Intel immer mehr bis zu diesem Schritt.
Mich wundert nur, dass man nicht schon viel früher die Reißleine gezogen hat.
Ob GPU Computing oder CPU MultiCore, der Einsatzzweck entscheidet. Aber im wissenschaftlichen Sektor geht der Trend ganz klar zur GPU. nV hat dies frühzeitig erkannt.