Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Nvidia und ATi sind bekannte Namen im Markt der Desktop-Grafikkarten. Überdies mischt auch S3 Graphics mit, obgleich diese Firma bereits einer geringeren Käuferschicht bekannt sein dürfte, wie einige andere Hersteller auch. Es kann also nur gut tun, wenn bald auch Intel mit dem „Larrabee“-Projekt für etwas Unruhe sorgen wird.
lassen wir uns ueberaschen.. bis diese grafikkarte in serie geht dauert eh noch ne weile. also denk ich bis dahin wird nvidia und ati sich sicher etwas neues einfallen lassen.. intel wird anfangs warscheinlich nicht marktfaehig sain, da so eine karte auch sicher v zu teuer wird. jetzt kann man aber denk ich mal nicht viel sagen. man weis ja noch nicht viel ueber den chip selbst. 1 kern oder vl mehrere ??
Ich finde Intel sollte sich beim Grafikkarten Markt nicht zu Stark einmischen.
Die haben die Nase ja schon überall Drinnen das were für AMD/ATI,Nvidia und S3 Graphics ganz schlecht
da Intel immerhin Geld Hat wie Drek am Steken
und jetzt noch im Highend bereich einmischen das findet jeder Grafikkartenhersteller nicht gut obwohl das die Preise im Highend bereich weiter runter drücken würden aber die Grafikkartenhersteller wie z.b AMD/ATI oder Nvidia nicht mehr mitzihen könnten...
Ich verstehe die ganzen Diskussionen über Larrabee nicht. Solange Larrabee nicht auf dem Markt ist, sondern nur Spekulationen bekannt sind, kann doch keiner sagen, was Intel da wirklich macht.
Einfach abwarten, was als Ergebnis rauskommt.
Eigentlich bin ich ja dafür, das noch weitere Hersteller im HighEnd-GPU-Markt mitmischen. Aber Intel ...? Ich sehe es schon kommen, daß MediaSaturn, Dell, usw bald nur noch Intel-GPUs anbieten (dürfen)...
Ich bin der gleichen Meinung wie Twister1st, wartet doch erst mal das Produkt ab bevor jeder hier schon weiß welche marktwirtschaftlichen Folgen das haben könnte. Ist doch alles nur spekulativ.
Außerdem: wen interessiert welche Systeme Media Saturn Dell oder weiß der Kuckuck anbietet, man kann momentan ATI und Nvidia in jedem gängigen Shop bekommen und das wird auch so bleiben.
Der Massenmarkt bestimmt nach wie vor nicht den Preis der High-End Chips sondern die Extrem Zocker.
Ich bin der gleichen Meinung wie Twister1st, wartet doch erst mal das Produkt ab bevor jeder hier schon weiß welche marktwirtschaftlichen Folgen das haben könnte. Ist doch alles nur spekulativ.
Außerdem: wen interessiert welche Systeme Media Saturn Dell oder weiß der Kuckuck anbietet, man kann momentan ATI und Nvidia in jedem gängigen Shop bekommen und das wird auch so bleiben.
Der Massenmarkt bestimmt nach wie vor nicht den Preis der High-End Chips sondern die Extrem Zocker.
nur das der massenmarkt eher midrange chips hat, also saturn, mediamarkt, dell usw.dort findest du eher karten wie nvidia 9600 oder ati 3850 und son zeug. Und bin mir ziemlich sicher das auch vom larabee irgendwann noch ne midrange kommt. ich denke prozentual gesehen ist highend ein kleiner teil.
nur weil die meisten CB User online bestellen weil sie wissen das es dort die perfekte ware zum besten preis gibt heisst das noch lange nicht dass das der massenmarkt ist. der massenmarkt ist genau das was du als "wenn interessierts" beschreibst.
und was einige wahrscheinlich häufig vergessen, intel ist bereits jetzt schon einer der grössten gpu hersteller.
Ich verstehe die ganzen Diskussionen über Larrabee nicht. Solange Larrabee nicht auf dem Markt ist, sondern nur Spekulationen bekannt sind, kann doch keiner sagen, was Intel da wirklich macht.
Einfach abwarten, was als Ergebnis rauskommt.
hmm abwarten bis es zu spät ist?
Meine Befürchtung ist ja, dass Intel die Grafikkarte, sollte sie denn kommen durchboxed...
Andere Architektur, hoffen wir mal das die nicht zu weit von den aktuellen abweicht.
Ansonsten kann es passieren das Millionen fließen und Spiele für Intelgrafik optimiert werden und das wäre fatal.
Sieht so aus, als hätte sich Intel ganz schön Mühe gegeben einen endlich brauchbaren Grafickchip zu entwickeln.
Nun wir sehen ja dann was Nvidia und AMD (hoffentlich auch noch S3) auf dem Markt haben.
Denn ein weitere guter Konkurrent tut den Preisen gut.
Und wenn Intel abkackt, hören sie vielleicht endlich auf Grafikchips zu entwickeln?
Ich möchte ja nur ungern an die älteren GMA's zurück denken.
Schon der GMA 900 (im 915er Chipsatz) ist schon zu lahm um etwa das Mediacenter von Windows MCE und Mediportal ruckelfrei darzustellen
Nun, aber der Larrabee ist ne edizierte Grafikkarte, daher sollte/müsste und hast sich Intel vorgenommen auf Performance zu setzen.
Und Geld haben die genug um sich entwickler die Ahnung haben einzukaufen.
Ein weiterer Konkurrent schröpft die Marge der anderen Unternehmen weiter ab. Das bedeutet, dass alle ein bisschen weniger vom Kuchen abbekommen.
Da die Unternehmen aber hohe Gewinne als Anreiz haben müssen, um zu forschen, kann durch mehr Konkurrenz dieser Anreiz verloren gehen. Firmen wie S3 können sich dadurch vielleicht nicht mehr im Markt halten, oder den Markt wegen zu viel Risiko, dem zu geringe Gewinne entgegenstehen verlassen.
Vor allem wenn so ein Riese mit so viel Kapital sich anfängt einzumischen.
Mal schauen. Sieht jedenfalls nach einer teuren High End Lösung aus, wenn man sämtlich Gerüchte zusammenträgt.
Trotzdem hoffe ich, dass Intel sich bei ausgewachsenen Grafikkarten auf die Nase legt. Noch mehr Intel Dominanz können wir wirklich nicht gebrauchen.
Ich les ja immer wieder gerne CB.
Aber ist es wirklich nötig, bei den News schon fast jeden Tag Fudzilla zu zitieren? Das ist ja fast so, als würde die FAZ jeden Tag die "Bildzeitung zitieren....
Also schraubt das bitte ein wenig zurück!
also wenn der larabee einen ähnlichen kühler wie die GTX 280 haben soll, dann ist er eher unwahrscheinlich, dass die GPU 300Watt unter Last verbrät...die GTX 280 verbraucht ja (nur) 180Watt und bekommt schon so manche probleme
Eigentlich bin ich ja dafür, das noch weitere Hersteller im HighEnd-GPU-Markt mitmischen. Aber Intel ...? Ich sehe es schon kommen, daß MediaSaturn, Dell, usw bald nur noch Intel-GPUs anbieten (dürfen)...
Ich glaube kaum, dass Intel nach ihrer gerechten Strafe noch einmal so etwas versuchen wird. Aber möglich ist alles
Ich weiß nicht, was der große Vorteil an dem Raytracingverfahren sein soll... die Beleuchtung sieht schon heute nahezu realistisch aus - zumindest unter DX 10.1!
Wie die Kollegen von Gerüchteküche xy von äußerst prägnanten Quellen herausgefunden haben wollen, soll Intels Larrabee auch im Leerlauf min 3000 Watt verbrauchen, nur mit GDDR50 Speicher erhältlich sein und ein PCB mit 120 Schichten besitzen. [oligatorisches FRAGEZEICHEN]
Und wenn sich das bewahrheitet ist der Larrabee als Gamer Grafikkarte voll und ganz gestorben, denn es wird keinen Spielehersteller geben, der seine Spiele umschreibt bzw. für Larrabee Grafikkarten extra programmiert. Entweder Intel hält sich an den Standard oder aber die Grafikkarten kommen in speziellen Firmenlösungen zum Einsatz und waren bzw. sind nie für den Spiele/Consumermarkt gedacht gewesen.
intel braucht kein dx sondern baut was eigenes? hmm, wäre zu schön, weil dann hätte ati und nvidia noch n eiteren verbündeten, nämlich M$.
denke kaum, dass die dx so "unnütz" werden lassen wollen, denn mit larrabee wäre dann doch auch die spiele unter linux lauffähig und windows für zocker nicht mehr notwendig.
hmm, paßt vielleicht auch, dass dx11 ja nicht raytraycing unterstützt in die theorien.
vielleicht gibts da im geheimen schon ne konfrontation zwischen M$ und intel.....
Ich glaube kaum das ATI und Nvidia sich paroli bieten lassen. Wenn die Larrabee erscheint, werden Nvidia & Ati eine passende Antwort parat haben, da bin ich mir sicher. Nvidia wird mal wieder der Preishammer werden, Ati das Preisleistungswunder und die Larrabee wird sich irgendwo dazwischen einordnen. Zu unseren Glück, denn somit wird nochmals alles günstiger. Mir nur recht wenn sich die Graka´Hersteller die Köpfe einschlagen. Ich warte wie immer den CB-Test ab, werde vergleichen und dementsprechend handeln. Bis dato wird meine 88GTX ihren Dienst noch gut verrichten.
Eigentlich ist diese News ja nur für eines Gut: Man wird mal wieder daran erinnert, dass Intel in Zukunft auch im dediziertem Grafikkartenmarkt mitmischen möchte bzw. wer es noch nicht wusste, erhält jetzt Gelegenheit sich darüber zu informieren.
Intel wird sicherlich eine andere Architektur verwenden wie nVidia oder ATI, aber die beiden letztgenannten benutzen ja auch unterschiedliche Ansätze. Von daher sehe ich keinen Grund zur Beunruhigung. Intel muss sich mit seiner Architektur nach dem aktuellen Spielemarkt ausrichten, denn nicht mal sie haben genügend Geld um eine völlig neue Art der Spieleprogrammierung durchzusetzen.
Was den Verbrauch und sonstige Details angeht: Intel hat noch ein Jahr Zeit und bis dahin kann sich noch sehr, sehr viel ändern. Gerade Intel hat die Ressourcen UND die Erfahrung um z.B. die GPU-Chips noch deutlich zu optimieren. Von daher sind alle bis jetzt bekannten Daten sehr mit Vorsicht zu genießen.