News Larrabee als Consumer-Grafikkarte ist Geschichte

Auf gut deutsch wird dies wohl heißen, ging wohl in die Hose.
 
Tja das war dann wohl viel Wind um nichts?
Vielleicht war man einfach zulangsam, sodass ATI/NVidia mit den neuen Generationen schon wieder zu stark war/wäre...
 
fox40phil schrieb:
kurz gesagt, gibt es demnächst keine CPU mit integrierter GPU? komme nicht so ganz klar mit den ganzen Codenamen^^

gabs/gibts ne alternative in 32nm?

Larrabee hat nix mit dem 32nm Prozessor u integrierter Grafikeinheit zu tun,das sind zwei unterschiedliche Schienen
 
Hm, war eigentlich abzusehen, weil Intel es trotz der Vorteile in der Fertigung nicht geschafft hätte, das Teil auf absehbare Zeit konkurrenzfähig zu bekommen und das Teil mit passenden Treibern auszustatten. Zudem entwickelt sich GPGPU nicht so, wie Intel das erwartete. Für IGPs usw. braucht man Larrabee ebenfalls nicht, hier stimmt das Konzept nicht und Serie6 von Imagetech ist hier besser einsetzbar.
 
also ganz ehrlich.ich habe damit nie wirklich gerechnet.zumindestens nicht so früh.alles andere hätte auch bedeutet das die jungs bei amd und nv. schlafen und das konnt ich nun doch nicht glauben
 
Da hätte Intel lieber mal die i5/7 Modelle im Preis gesenkt, dann hätten die jetzt mehr davon.Das ist wie mit nVidia und der Ion Plattform.Ohne die wären DirectX11 Karten von nVidia noch in diesem Jahr zu kaufen.Da hat man den Trend der Netbooks aufgegriffen.
Intel hat das Interesse in Raytracing gesehen und hat gemeint da kann man kräftig absahnen.Die sollen weiter ihre CPUs und Under-Low-Onboard "Grafikkarten" auf Mainboards verbauen und nicht sagen man hätte eine Chance gegen ATi und nVidia.

Persönlich hab ich nicht damit gerechnet das Larrabee jemals erscheint.
 
Killermuecke schrieb:
Hat noch jemand das Gefühl, dass CPUs billiger sein könnten?

Ich hab eher ein anderes Gefühl (das mehrere Gerichtshöfe der Welt auch haben), aber das ist an anderer Stelle schon ausreichend diskutiert worden.

Ein "kleiner" Misserfolg für Intel tut dem Markt mal nicht schlecht, möchte ich meinen.
 
@MR2: Du hast Skulltrail vergessen ;-)

Es wäre so schön gewesen, wenn Larrabee released worden wär. Aber wahrscheinlich wollten sie sich ein weiteres katastrophales Debakel ersparen und haben den Keim schon frühzeitig erstickt. Da wird Intel noch sehr viel Zeit brauchen, um auf ein angemessenes Niveau aufschliessen zu können. Ihre Grafiklösungen haben mich nie wirklich überzeugen können (ATi/nVidia können einfach mehr, auch bei IGPs).
greetz
 
@Mr. Apprentice:
Kennst du die Wörter "Innovationen", "Forschung" und "Risiko" ?
Ich finde deine Aussage extrem kurzsichtig!
 
Jetzt heißt es erst mal abwarten. Früher oder später wird es doch noch auf den markt kommen.
 
Schade, wirklich sehr schade :(
Varporware... Damit bleibt Intel im Grafikbereich zwar weiterhin marktführer, allerdings mit karten die von der leistung mit dem mainstream von anno 2004/2005 konkurrieren. Sehr schade.
 
MR2 schrieb:
Nach Rambus, 10Ghz PIV, BTX, Wimax, Itanic liegt eben noch der Larrabee auf Intels eigenem Schrottplatz*g*
Wo gehobelt wird fallen Spähne, eben auch bei Intel.

Einzige was schade ist heutzetage das alle ihr eigenes Süppchen versuchen zu kochen und R&D nur für Profit gemacht wird. Das bremst den tatsächlichen Fortschritt ungemein.
 
Erinnert mich an die Matrox Grafikkarte die auch Nvidia und ATI angreifen sollte aber dann keine Chance hatte.
 
@Pat
Du hast eine Seite weiter vorne bereits geschrieben dass du es gut findest dass Intel mit Larrabee mal einen Versuch startet.
Intel hat damit geprahlt dass Larrabee es locker mit ATi und nVidia aufnehmen könne.Sowas ist einfach ein extrem gefährliche Aussage.Denn war es nicht Intel, der extrem kurzsichtig geplant hat.
Und glaubst du dass wenn ich mich in so einem Forum anmelde und mich im Allgemeinen sehr für Computer interessiere, dass ich dann ein problem mit Fortschritt und Innovation habe?
Der Computer ist der Inbegriff für Forschung Fortschritt und Innvation.
Aber Intel hat einfach nur sehr draufgängerisch gehandelt, was ja von den meisten hier bereits so gehandelt wurde, denn kaum einer rechnete mit einem Release von Larrabee.
Ich hätte mich auf Larrabee gefreut und hab auch in Erwägnis gezogen mir eine zu kaufen.

B2T:

Bei Intel wird es eine ganze Weile gedauert haben bis man einmal sich dazu durchgerungen hat Larrabee zu canceln.Ich geh mal davon aus dass die letzten 4 Monate größtenteils Ernüchternd auf Intel gewirkt haben.Dass Intel es aus dem Stand auf das, oder in die Nähe, des Niveaus von ATi HD5er serie schafft war nicht zu erwarten.
Und anscheinend Steckt auch kein Potential in Larrabee sonst hätte man es weiter geführt.
oder zumindest nicht genug.
Schade
 
Zuletzt bearbeitet:
Intel wird spätestens dann mit dem Larrabee-Konzept, was ja weiter entwickelt wird, gut dastehen, wenn NVidia und AMD mit ihrem Rendering-Ansatz gegen die Wand fahren und der Umstieg auf Raytracing notwendig ist.
Denn natürlich hat AMD die theoretische Rechenleistung in den letzten Generationen verdoppelt, aber die praktische Rechenleistung steigt wesentlich langsamer an. 1600 Shader auszulasten ist halt auch nicht so einfach, die meisten werden sich relativ häufig langweilen. Doppelte Shaderzahl bedeutet aber grundsätzlich doppelter Verbrauch. Das wird zwar durch kleinere Strukturen wieder kompensiert, aber würde man die Chips alle mit gleicher Strukturbreite herstellen, würde man sehen, dass die Performance/Watt immer mieser wird.
Da die Strukturbreite nicht unendlich verkleinert werden kann, Privatleute auch in 50 Jahren keine Lust haben werden sich ein 1000W-Netzteil zu kaufen, um eine 700W-Grafikkarte mit 120dB zu betreiben, wird man irgendwann völlig andere Wege gehen müssen.
Raytracing ist dann ein notwendiger Schritt und in dem Bereich haben NVidia und AMD auch keine Erfahrung.
 
War abzusehen, Larrabee hätte gegen die jetzigen Generationen kein Land gesehen und gegen die nächsten von AMD und Nvidia so oder so nicht, also mottet man das ein und nutzt die Forschung für Larrabee 2.
Im übrigen kann dies Intel auch egal sein, Intel ist schon der grösste GPU Hersteller der Welt.
Vielleicht wartet man ja die neuen Nvidias ab und zerlegt sie dann im Labor:D

@FredKune
Ich glaube nicht das wir Raytracing jemals bei uns im Rechner sehen werden, in 10 bis 15 Jahren wird alles in der cloud laufen inkl. Spiele, man wird höchsten ein Client haben an dem man nichts ändern darf/kann.
 
Zuletzt bearbeitet:
FredKune
Intel wird spätestens dann mit dem Larrabee-Konzept, was ja weiter entwickelt wird, gut dastehen, wenn NVidia und AMD mit ihrem Rendering-Ansatz gegen die Wand fahren und der Umstieg auf Raytracing notwendig ist.

Dieses hätte, wenn, wird vielleicht usw hat einen Nachteil. Der Nachteil liegt darin, dass es nur unhaltbare Spekulationen sind und gleichzeitig voraussetzen, dass AMD und Nvidia NICHTS machen.
 
Zurück
Oben