News Kann Intels Larrabee keinen Strom sparen?

Ich kann mir nicht vorstellen, dass dort wirklich keine Stromspartechniken eingebaut sein werden. Damit würden sie doch Kritikern nur so in die Hände spielen. Das kann sich Intel nicht zulassen, insbesondere wenn sie in einen neuen Markt vordringen.
Das KnowHow dafür ist ja sowieso vorhanden.
 
also ich mache mir in larabee große hoffnungen, er wird ja schließlich auf x86 basieren und damit höchstwahrscheinlich (fast) frei programmierbar sein. von dieser rechenleistung könnten viele programme und anwendungen profitieren, nicht nur spiele und andere 3D anwendungen...

ich kann mir schon gut vorstellen, wie z.B. linux larbee als co CPU nutzt:D
 
Der Stromverbrauch ist mir nach wie vor egal, solange die Leistung stimmt, aber das sieht man ja erst bei Benchmarks.
 
Was mich u.a. bei meinem C2D stört ist der immer noch zu hohe Takt im Idle-Betrieb, der bei immer noch guten 2GHz liegt. Der Multiplikator sollte da viel weiter runter gesetzt werden, denn 6*333 ist immer noch zu hoch. Hofftlich bessern die das in der neuen CPU Generation.
Nur soviel zum Thema CPU aus Stromsparenden CPUs im Desktopbereich :D
 
also mir ist der stromverbrauch nicht egal, 100W im idle ist ja mehr als ein Quad in 45nm unter last:freak:
hoffe, das das verbessert wird solange das geücht wahr ist. bei 300W unter last braucht man einen tripple slot kühler auf massivem kupfer mit 5 heatpipes, das wiegt schon 3KG :lol:
 
Mir ist der Stromverbrauch egal, solange die Leistung stimmt.
Achja ich zahle den Strom selbst;)
 
NoD.sunrise schrieb:
Diese ellenlangen gezwungen wirkenden Einleitungen bei jeder News nerven irgendwie langsam - erinnert mich irgendwie an die meisten Radiosender bei denen die moderatoren sicht stets irgendwelche überleitungen von einem Thema zum nächsten aus den fingern saugen egal wie schlecht diese sind...
vor allem, nur um dann fudzilla als quelle zu lesen. um bei der radioanalogie zu bleiben: schon wieder tokio hotel
und wieder einmal finden ein paar vertrauensseelige menschen eine "news" (man könnte auch sagen "ein lügengespinnst, dass zu 0,05% evtl doch mal der wahrheit entsprechend wird"), die sie direkt für bare münze nehmen
weiter so cb
 
Über "bla bla bla" von Fud... lohnt es sich nicht zu diskutieren. Wollte es mal nur erwähnt haben.

Und wer wirklich glaubt, dass Intel eine GraKa mit 300W@Last auf den Markt bring, der kann getrost als Verrückt bezeichnet werden :lol:
 
Ob das Gerücht der Tatsachen entspricht sei zwar dahingestellt, aber wenn es so sein sollte dann würde es nicht für Intel sprechen.
Sollte Intel trotzdem damit durchkommen, wäre es ein Grund mehr Intel auf ganzer Basis abzulehnen.
Im Jahre 2009, in Zeiten wo Energie immer teurer wird, Green IT im Trend ist, Energieeffizienz wichtiger denn je ist - gehört sowas nicht hin.
 
Also ich meine, wenn der Chip wirklich 100W idle verbraucht, dann sollten sie ihn besser gar nicht erst herausbringen. Denn ich glaube nicht, dass alle, die hier sagen, ihnen wäre die Stromrechnung egal der Durchschnitts-User sind.

Also für mich ist der Stromverbrauch durchaus ein Kriterium! Habe deswegen sogar seit 3 Wochen nur noch die Onboard-Grafik laufen, weil ich sowieso keine Zeit zum gamen hab...
Ach ja, ich hab ne "Strom-Flatrate" im Wohnheim... ;-)
 
Hm, vlt. hat ja hier jemand soviel Ahnung von der Materie, und könnte mal erläutern, warum nicht einfach ein separater 2D Chip auf Grafikkarten verwendet wird. Der sollte doch mit heutiger Fertigungstechnologie für ein paar Dollar und mit winziger Verlustleistung machbar sein? Und noch 16MB zusätzlicher Framebuffer dürfte auch nicht ins Geld fallen. Die eigentliche GPU müsste dann nur für 3D/GPU-Processing/Videobeschleunigung dazu geschaltet werden. Das wäre dann auch unabhängig von Mainboard und co.

Warum macht man sowas nicht?
 
Mike Lowrey schrieb:
Da - falls es den Tatsachen entspricht - modifizierte CPU Kerne verwendet werden würde es mich wundern wenn in diese keine Stromspartechniken integriert werden würde alleine damit wäre ein erheblicher Stromspareffekt vorhanden.

Ich möchte mich dem ebenso anschließen wie der Kritik an der recht langen Einleitung der Nachricht. Aber der Unterschied zwischen 100 und 300 Watt ist auch schon ordentlich (ohne Intel verteidigen zu wollen).
 
Crux schrieb:
Ich vertrau eher dem inquirer als fudzilla.
Ich keinem :)

Außerdem, ich weiß nicht wie ihr das nennt: 300W unter Last, 100W im Idle ist doch eine Stromsparfunktion. Ähnlich wie eine 90W Karte unter Last, die mit 30W im Idle läuft. :p

Nur eben auf höherem Niveau, aber da die Karte mit dieser Leistungsaufnahme so nicht erscheinen wird, ist das auch egal.
 
Intel und kein Strom sparen. Ich glaube das nicht. Gerücht = Gerücht.

Sollte die Intel-GPU jedoch eine andere Zielgruppe als Endverbraucher haben, Programmierer, Entwickler, Animationsfilm-Hersteller usw. dann vielleicht. Heute zu Zeiten von Green-IT kann man so ein Gerücht eher als Anti-Intel-Propaganda werten.
 
Ist doch völlig egal, aber sowas von total egal, ob die Karte selbst Strom sparen kann.
Die neuen Mainboards werden (fast) alle über eine Integrierte Grafik verfügen, die die "Spielekarte" sowieso komplett weg schaltet!

Außerdem hat der Nehalem SELBST einen von seinen 2-8 Cores als GPU ausgeführt, bei den "Mainstreamrechnern".
 
Schon lustig wie die ganzen intelfanboys es wieder schönreden wollen:D
Würde AMD oder NVIDIA karten so verschwenderisch sein, wäre wieder die hölle los und jeder würde sich darüber aufregen:o
mfg
 
Naja, eine Grafikkarte von einem CPU Hersteller...das wird amüsant.

Bis Larrabee auf den Markt kommt, haben NV und ATI bereits Karten auf dem Markt, die ebenfalls Raytracing berechnen können und das effektiver und schneller.

Naja, ich hoffe, dass Larrabee floppt, denn Intel hat ohnehin zuviele Marktanteile...
 
Was ist da schöngeredet, wenn untem Vistadesktop in Zukunft die Performancekarte ganz einfach ausgeschaltet wird?
Ganz egal ob da jetzt eine Ati, Nvidia oder Intelkarte werkt im 3D-Leistungsbetrieb.
Für Aero reicht die Onboard oder OnCPU GPU aus.

HALLO!
2008/09 = totaler Plattformwechsel
 
Zurück
Oben