News Montecito mit 24 MB Cache erst 2006

Tommy

Chef-Optimist
Teammitglied
Registriert
März 2001
Beiträge
8.193
Intel hat die diesjährige International Solid-State Circuits Conference (ISSCC) dazu genutzt, um der Öffentlichkeit einen aktualisierten Fahrplan für die kommenden Dual-Core-Prozessoren der verschiedenen Produktbereiche zu präsentieren.

Zur News: Montecito mit 24 MB Cache erst 2006
 
Zitat: "....Features wie Foxton oder Pellston...."

Was sind/können diese Features??

GRüße,

Giniemaster
 
[...] Was sind/können diese Features?? [...]
Ein Klick auf "damalige Meldung" und du findest auch dies genauesten erklärt. :D
Bei Pellston handelt es sich afaik um ein Feature um Datenfehler im Cache zu umgehen und zu korrigieren.

MfG mh1001
 
Zuletzt bearbeitet:
Die Computerentwicklung ist so rasant. 24MB Cache, ich erinnere mich noch an meine erste 20MB Festplatte. Das die Kernspannung in 32 Stufen reguliert werden kann ist hoffentlich ein Indiz dafür, dass zukünftige Computer wieder sparsamer werden/ sparsamer sein können. Die momentane Entwicklung scheint einem das Geld aus den Taschen zu ziehen.
 
mich wuerde jetzt nur noch interessieren ob die 1,7 millarden transistoren ausschließlich der eigentlichen recheneinheit zugeschrieben werden können, oder ob da auch wieder die transistoren das caches mit reingerechnet werden.
 
nur schade dass die IA-64 architektur des itanium ne speziell angepasste 64 bit software braucht,um schnell zu sein. sonst wär des DIE desktopmachine bis 2015 oder so
 
derbe ... einfach derbe :)
 
Silverhawk schrieb:
nur schade dass die IA-64 architektur des itanium ne speziell angepasste 64 bit software braucht,um schnell zu sein. sonst wär des DIE desktopmachine bis 2015 oder so
Auf nem Desktop wird dir bei den angepegelten Frequenzen diese Menge Cache kaum etwas bringen und schon gar nicht auf einem Spiele-Rechner. Wer sich noch an erste Vergleichsbenchmarks von Athlon Thunderbird mit Duron Spifire erinnern kann dürfte wisse, dass gerade Spiele-Anwendungen bis 1 GHz so gut wuie überhaupt nicht von mehr als 64 kB L2-Cache profitiert haben. Die Menge an Cache ist genausowenig ein Punktwert für CPU-Leistung wie die CPU-Frequenz oder die FSB-Frequenz oder die RAM-Frequenz. ;)

IA-64 ist übrigens ausschließlich 64 b, kein 32 b und auch kein 16 b, keine Abwärtskompatibilität, weil man die auf Servern auch nicht braucht. ;)
 
Wie hoch wird die Verlustleistung sein? :rolleyes:

Schön und gut, das Intel den Prozessor so aufbohrt, aber mal ehrlich gesagt (ohne viel Fachwissen) gefällt mir die Opteron-Arichtektur besser.
 
ich sag ja, dass die software angepasst sein muss. dann hat des ding allerdings ordentlich dampf. soll ja immerhin bis so 2Ghz takten. und in der preisklasse 10000+ für den prozessor allein denk ich schon dass des was leistet. klar fürn desktop nicht vernünftig, aber wer redet denn von vernunft :freak:
 
Mir "gefaellt die Opteron Architektur besser"? Opteron ist x86 und damit veraltet. Alleine schon die nicht einhietliche Laenge von Instruktion Words beim Opteron ist ein Krampf. Opteron ist in der Liga in der Itanium, Sparc und Power spielen nur eine Witzfigur!

1,7 Millionen Transistoren OHNE L2 Cache? Das waehre cool. Aber was sollte man mit soviel Transistoren beim Itanium? Reorganisation der Instruktionen uebernimmt der Compiler. Gerade das, was einen Opteron so komplex macht.

Und uebrigens: Gerade Cache bringt dem Itanium geschwindigkeit. Hier handelt es sich nicht um einen x86er! Der Itanium fuehrt immer 3 Befehle in Buendeln aus, wodurch er mehr Cache braucht. Dafuer ist er dann auch richtig schnell.
 
PhOeN!X schrieb:
mich wuerde jetzt nur noch interessieren ob die 1,7 millarden transistoren ausschließlich der eigentlichen recheneinheit zugeschrieben werden können, oder ob da auch wieder die transistoren das caches mit reingerechnet werden.

Ganze 64 Millionen Transistoren gehören zur Recheneinheit, der Rest gehört zum Cache ... (Quelle: c´t)

Aber du gehörst wenigstens zu denjenigen, die nach fragen. Viele werden wieder sagen: "Boahhhhhhhhhhhhh, soviele Transistoren, muss ja gut sein" :D
 
Mmmh wenn ich das so lese, dann scheinen einige zwar die Theorie, aber nicht die Praxis zu kennen. Der Itanium ist nch wie vor ein Flopp im Mainfraimebereich und auch bei Servern kann er nicht wirklich Fuß fassen. Immer Firmen gehen von den "dicken" Server weg, zu sinnvolleren und vor allem billigeren Lösung. IBM hat seine ganze Itanium Entwicklungsmanschaft an Intel abgegeben. Verständlich, will man doch auch Opteronserver anbieten, aber warum zieht IBM Opterons den Itaniums vor? Die Frage ist einfach geklärt, die Itaniums benötigen einen enormen Cach, erst dann bekommen sie ihre Leistung. Ich erninnere mich noch an die ersten Modele, die nicht wirklich brauchbar waren. Aber wenn man 400 Mio. jährlich in die Entwicklung pumpt, dann kann auch ein Krüppel irgendwann laufen. IBM hat noch den Cell Prozessor in der Hinterhand und mit den Power CPUs ebenfalls ordentlich was zu bieten. Ich denke der Itanium ist und bleibt ein krankes Kind mit Staralyren.
 
@phoenix

Etwas überflüssig die Frage... Natürlich ist da der Cache miteingerechnet... Diese dumme Frage verdient eigentlich keine Antwort.
 
Der große Cache macht für einige Anwendungen schon Sinn. Allerdings sind das wohl weniger die Programme, die du und ich daheim auf den Rechnern laufen haben. ;)

Insgesamt scheint der Trend bei den großen Servern aber wohl in Richtung großer Caches zu gehen. IBM tendiert ja offenbar auch in diese Richtung.

Bin total gespannt wie das dann praktisch realisiert wird. Ich kann mir fast nicht vorstellen, dass man den gesamten Cache für einzelne Prozesse freigibt. Da müssten die Zeitscheiben der CPU schon seeehr groß sein, damit sich das Auffüllen von 24 MB lohnt. Schließlich muss man beim Taskwechsel ja praktisch alles ins RAM zurückschreiben und den Cache für die nächste Task praktisch neu laden. Das dauert bei so einem großen Cache viel zu lange und unter dem Strich verliert man wegen der häufigen Taskwechsel mehr als man gewinnen würde.

Ich nehme also an, dass man einen ordentlichen Teil vom Cache benutzen wird um beispielsweise die Prozessorregister usw für einen schnellen Taskwechsel im Cache halten zu können. Unter dem Strich wird man dann durch den großen Cache die Möglichkeit haben, mit weniger Reibungsverlusten von einer Task zur nächsten zu wechseln. Also eher eine Technologie um möglichst viele verschiedene Tasks gleichzeitig durch den Server zu pushen. Wirklich nix für den Desktop.
 
crux2003 schrieb:
[...], aber mal ehrlich gesagt (ohne viel Fachwissen) gefällt mir die Opteron-Arichtektur besser.
Die Opterons haben jede Menge Charme durch ihr gutes Preis/Leistungsverhältnis. Ich mag unsere Opteron Systeme auch und bin im Moment mit den Dual Prozessor Systemen sehr zufrieden. Allerdings kann ich mir mühelos vorstellen, dass es für andere Aufgaben sehr viel bessere Systeme gibt. Da fängt dann irgendwie wieder die alte Fragerei an, ob man lieber in parallele Systeme mit jeweils geringerer Leistung oder teure Spezialhardware investiert. Beides hat seine Vorteile.

Was aber in der breiten Masse der Programmierer bislang ganz sicher unterschätzt wird, ist die Anfälligkeit paralleler Programme gegen Sysnchronisations-Bugs. Leute, ich kann Euch sagen: das ist in der Regel ein echter "pain in the ass." Aus eigener Erfahrung kann ich viele Geschichten über Programme erzählen, die in der nicht-parallelen Version ganz prima laufen und in der parallelen Version in der Regel auch. Aber irgendwie geht bei jedem 1000sten Lauf oder so die ganze Sache ganz unerwartet in die Hosen. Meine Güte, da kann man echt lange nach Fehlern suchen und dabei Nerven verlieren. Und das schlimmste daran, die Fehler treten zeitabhängig auf und hängen von der Auslastung der Maschine usw. ab. Scheisse so etwas, da hilft einem kein klassisches Analysetool mehr weiter.

Nun, und wenn ich mir dann überlege, dass einige Firmen wie Microsoft (und andere) schon in der nicht-parallelen Welt offenbar nicht in der Lage sind Programme zu entwickeln, die korrekt funktionieren, ...
... na alles Gute für die parallele Zukunft (wenn Ihr wisst was ich meine)

Anyway. dual core CPUs are close to hit the market. Let's wait and see what happens in the Software world then...
 
Zurück
Oben