Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Die einschlägig bekannte und allseits beliebte Gerüchteküche Fudzilla hat mal wieder – im wahrsten Sinne des Wortes – ein heißes Gerücht gestreut. So soll die lang ersehnte Intel-Grafikkarte mit dem Codenamen „Larrabee“ eine TDP von 300 Watt besitzen.
Naja ich glaube kaum, das intel mit Nvidia oder ATi mithalten kann, dafür sind die zwei einfach schon zulange im destop GPU geschäft und haben eher das nötige know-how um solche high end grakas zu produzieren, aber we will see.
mfg
*naja da würd ich ma sagen die nächste wird wieder ne ati. Ich möcht ja nicht das halbe gahalt an einen abend versuchteln dank der stromfressenden teile die es gibt
Nvidia und ATI haben vielleicht das Know How, aber Intel hat dafür nahezu unerschöpfliche Geldressourcen. Und das mit Geld ja nahezu alles möglich ist, ist ja weitläufig bekannt...
Finde aber trotzdem dass diese Entwicklung bzgl. Abwärme, sofern sie denn stimmen sollte, einen Rückschritt darstellt. Leistung ist ja schön und gut, aber ich sehe diesbezüglich zur Zeit ATI ganz gerne. Die wollen nicht die Performance Krone, stellen aber ausgewogene Produkte vor die meist sparsam sind, leise und für 99 % der Anwender voll und ganz ausreichend sind.
Aber die 1000W Netzteile wollen doch auch ihre Berechtigung haben. Spass bei Seite. Das hört sich heftig an. Ich denke allerdings nicht, dass dies das letzte Wort von den Entwicklern war.
Naja, wenn ich auf Fudzilla vertraue kann ich auch genausogut von ner Zigeunerin meine Zukunft aus Tierinnereien lesen lassen, da hab ich den gleichen Informationsgehalt.
Naja, wenn ich auf Fudzilla vertraue kann ich auch genausogut von ner Zigeunerin meine Zukunft aus Tierinnereien lesen lassen, da hab ich den gleichen Informationsgehalt.
Das war der absolute genialste beitrag den ich seit langem gelesen habe
Aber hast schon recht gerüchte sind immer so ne sache, sind sie wahr oder sind sies nicht man weiß es leider nie, aber wie schon gesagt glaube kaum das es ein knüller wird..
mfg
Wie mittlerweile hinreichend berichtet wurde, ist der larabee nicht für desktops gedacht.
der Larrabee wird wohl zum professionellen Rendering, im speziellen raytracing, eingesetzt und für wissenschaftliche Berechnungen in servern / workstations verbaut.
der Larabee soll ja wohl erst einige Zeit nach Markteinführung in den consumer Markt kommen und dann wahrscheinlich auch stark abgespeckt/geshrinkt sein.
Villeicht mal ein bisschen nachdenken bevor man die schon fast routinierten Statements von sich abgibt ?
Ich frag mich ernsthaft ob Leute wie du ein riesiges repertoir fürs meckern haben
Villeicht mal ein bisschen nachdenken bevor man die schon fast routinierten Statements von sich abgibt ?
Ich frag mich ernsthaft ob Leute wie du ein riesiges repertoir fürs meckern haben
mir fällt auf, dass du versuchst mit jemanden zu argumentieren, der scheinbar eine info aus der fudzilla-schmiede für ernst nimmt. und das auch noch, obwohl cb, dankenswerterweise!, nochmal ausdrücklich darauf hingewesen hat, dass die quelle davon fudzilla ist, und das fudzilla zum grossteil nur (unhaltbare) gerüchte verbreitet.
will sagen, bemüh dich nicht
an die lieben cb jungs: danke für den ersten absatz, so muss das ausschauen, wenn man quellen wie fudzilla oder bild zitiert
Blutschlumpf schrieb:
Naja, wenn ich auf Fudzilla vertraue kann ich auch genausogut von ner Zigeunerin meine Zukunft aus Tierinnereien lesen lassen, da hab ich den gleichen Informationsgehalt.
Ich hoffe mal, Intel hat aus der Pentium 4 Ära gelernt, was Stromverbrauch/Wärmeentwicklung angeht... Sie zeigen ja ziemlich klar mit den Core2Quads, wohin es geht, nämlich in Richtung Stromverbrauch und Hitzeentwicklung minimieren, und es ist ihnen ja auch super gelungen. Hoffentlich übernimmt die Grafik-Sparte von Intel auch dieses Vorbild.