Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntel stellt Tera Scale Forschungsprogramm vor
Intel stellte heute sein Tera-Scale-Forschungsprogramm vor. Durch die breite Unterstützung innerhalb der eigenen Forschergemeinde sollen zukünftige Mehrkern-Plattformen entwickelt werden, deren Fähigkeiten weit über die der heutigen Computer hinausgehen.
Hunderte Prozessoren? Wird en großes Die - oder viel warme Luft die dann alles bringen muss. Aber ich glaub Intel überschätzt den Drang der Programmierer multihreaded zu werden ein wenig
Mit gewaltigen Dies haben sie seit den Itaniums ja Erfahrung und die Programmierer unterschätzen die Möglichkeiten, single-threaded noch mehr Leistung zu kriegen ein wenig
Da ist von "innerhalb des kommenden Jahrzehnts" die Rede - Ich glaube mal nicht, dass Intel 2018 oder so noch in 65 nm fertigen wird. Auf einem IDF (Spring 2005 glaube ich) war mal die Rede von ca. 20 Mrd. Transistoren bei 8nm- Fertigung um 2015. Die Die- Fläche eines solchen Chips wäre etwa so groß wie die eines Precott 2 mit 160 Mio. Transistoren in 90 nm, wenn man ein etwa gleiches Verhältnis aus Cache und Logik- Einheiten annimmt.
Aber Intel hat ja mit Montecito schon, ähm, meine "immer noch nicht", bewiesen, dass sie nicht nur Backöfen, sondern auch Kuhfladen bauen können
Programmierer habens nich mehr drauf...
Da bleibt einem ja nich mehr übrig, als so Leistungsstarke CPUs rauszubringen, dass die Verschwendung relativiert wird.
Jaja, früher war noch alles besser =)
sehr interessant. das wird sicherlich einen guten teil zur entwicklung der cpu der zukunft beisteuern und die leistung wohl auch enorm steigern wenn es denn wirklich so klappt mit den mehreren zehm bis 100 dies auf einer cpu. aber das werden wir ja dann in 10 jahren wissen und und dann nochmal drüber unterhalten aber die initiative find ich schon lobenswert wenn denn wie schon gesagt wurde auch an der leistungsaufnahme gearbeitet wird.
Core ist nicht gleich Core. Wer sagt denn, dass das alles x86-Cores sein werden, wie wir sie heute kennen? Bei AMD sind bereits erste Ansätze zu erkennen, spezialisierte Cores in das CPU-Design einfließen zu lassen und die benötigen oft weniger Transistoren.
Oh man, ihr habt echt einen an der Schüssel. Immer nur haten, haten, haten...
Freut euch doch, dass überhaupt geforscht und weiterentwickelt wird.
Wie kann man nur so naiv sein und so einen Müll texten.
"Windmühle als Kühlung" oder "Nuklearnetzteil", jup echt super Jungs.
Denkt doch mal ein bisschen nach, bevor ihr euren Senf dazu gebt.
Als ob in 10 oder 15 Jahren ein PC nicht anders betrieben wird, oder zumindest auf eine andere Art und Weise Strom bezieht.
Und in Sachen Kühlung wird sich wohl mit Sicherheit auch noch einiges ändern.
mein post sollte eigentlich weder gegen intel noch für amd sondern einfach nur lustich sein. schade, dass es nicht geklappt hat, nächstes mal vielleicht...
hunderte cores... wenn ich das schon höre muss ich den kopf schütteln. das hört sich an wie schlechter militär-propaganda. hatten die auch nicht mal gesagt, dass die den p4 so bis 10 ghz treiben und dann weitersehen werden?
also nicht immer alles glauben was man erzählt bekommt.
solln die mal brav forschen, gegen leistung hab ich nüchts ^^
und in naher zukunft wird es meiner meinung nach eh keine herkömmlichen akkus mehr geben sondern kleine atomkraftwerkchen (terminator lässt grüßen ^^) oder wie vor einiger zeit schon vorgestellt brennstoffzellen (das warn mp3 play der mit alk betankt wurde)
Ist nicht die Hinzufügung von spziellen Kernen genau das, was nach Intel "Manycore"- von "Multicore"- Chips unterscheidet? Dass damit nicht hunderte General- Purpose- Kerne gemeint sind, habe ich vorausgesetzt.
Bei AMD sind bereits erste Ansätze zu erkennen, spezialisierte Cores in das CPU-Design einfließen zu lassen[...]
Die meiste Stromverschwendung bei Prozessoren kommt immer noch durch die Abwärme zu Stande. Diese wiederum durch die völlig überzichteten Prozessoren, da das Material einfach nicht mehr her gibt. Die last hingegen auf mehrere leistungsschwächere Prozessoren zu verteilen hingegen weniger Abwärme und damit einen besseren Wirkungsgrad.
Bei Servern wird schon seit Ewigkeiten auf viele Prozessoren gesetzt, da sie stabiler und preiswerter sind und dazu weniger Wärme produzieren. Bladeserver laufen schon heute erfolgreich mit dieser Anzahl von Prozessoren. Zwar im Clusterbetrieb, aber mit Erfolg.
In der Xbox 360 werkelt auch ein 3Kern Prozessor und den haben irgendwelche 0815 user schon im Wohnzimmer stehen.
Also ich versteh diese ganze Kritik an den Mehrprozessorsystemen überhaupt nicht... und ich bin mir ziemlich sicher, dass es die Zukunft ist. Aber kauft nur weiter euro Single Cores auf den ihr euch Eier braten könnt.^^
Ich spekulier ja gleich lieber auf den Quantenprozessor Aber mal im ernst, nach dem ganzen gigahz-wahn ist eine vervielfachung der Kerne die einfachste methode "mehr" Leistung zu erhalten, ohne groß irgendwelche Architekturwunder zu vollbringen. Ich hab schon, seit der ersten ankündigung für DualCore-CPU's gedacht, das das nicht das ende sein wird. war werden wir in Zukunft etwas ähnliches wie bei GiGa erleben, wer die meisten Cores hat. Wer wird wohl zuerst die 100er Schallmauer durchbrechen? AMD oder Intel?
Wir werden sehen. Die organische Logikschaltung wird sicher auch eine Rolle spielen. Silizium gehört nicht unbedingt die Zukunft im CPU denke ich. Obwohl 10 Jahre sind ja nicht sooo lange.
Da ist von "innerhalb des kommenden Jahrzehnts" die Rede - Ich glaube mal nicht, dass Intel 2018 oder so noch in 65 nm fertigen wird. Auf einem IDF (Spring 2005 glaube ich) war mal die Rede von ca. 20 Mrd. Transistoren bei 8nm- Fertigung um 2015. Die Die- Fläche eines solchen Chips wäre etwa so groß wie die eines Precott 2 mit 160 Mio. Transistoren in 90 nm, wenn man ein etwa gleiches Verhältnis aus Cache und Logik- Einheiten annimmt.