News Intel: Details zur 3,1-Mrd.-Transistor-CPU „Poulson“

solange die Rechenleistung stärker steigt als der Energiebedarf erhöht sich die Effizient doch.
 
Interessantes Schaltbild, und dieses QPI verbindet die einzelnen Cores?

Allerdings sehe ich da keine Diagonalverbindungen zwischen den Cores, also verkehrstechnisch doch sehr fragwürdig, das hemmt doch wieder die internen Signallaufzeiten und damit den gemeinsamen Systemtakt? Schein mir mehr nur auf Bandbreite optimiert zu sein.

Die Caches hingegen liegen natürlich optimal, bieten wohl den kürzesten Weg, zu jedem jedwedem Core! :)
 
Zuletzt bearbeitet:
Es gibt einfach Bereiche, da spielt brachiale Rechenleistung die erste Geige. Stromverbrauch interessiert da genausowenig wie die Strahlenbelastung durch einen Atombombeneinsatz. Ich denke auch, dass jeder einzelne selbst wesentlich mehr für die Ökobilanz beitragen kann und ich setze das bei mir auch um. Ein Strommessgerät ist günstig gekauft und ruckzuck sind ein paar Stromfresser entlarvt. Bei mir zB hat eine 15W Neonröhre (vermutlich wegen eines billigen Vorschaltgeräts) sage und schreibe 61W gezogen und das 12h pro Tag. Ich habe meine 9800GX2 verschrottet und bin auf ATI 5870er umgestiegen, ein weniger an Stromverbrauch im idle von ebenfalls ca 50-60W. Mein nächster Monitor wird auch daraufhin begutachtet, wieviel Strom er verbraucht. Schon meinen jetzigen 24" habe ich danach ausgesucht und auch ca 40-50W im Verhältnis zum billigeren Modell eingespart. Alleine wieviel ich da täglich einspare, da kann so eine CPU ruhig laufen, das hole ich wieder raus. Und von meiner Sorte gibts mehr als von solchen CPUs.
 
Man kann auch allein schon durch sein Surfverhalten Strom sparen, indem man z.B. nicht für jede Kleinigkeit eine Suchmaschine in Anspruch nimmt.
Ergänzung ()

@AshS

QPI verbindet den Prozessor mit dem Chipsatz und anderen Prozessoren.
Ergänzung ()

@ewndb

Ja, aber die Frage ist doch eher ob 50MB stromfressender Cache das "mehr" an Leistung bringen oder ob es nicht sinnvoller ist jeden Kern 1mb zu spendieren und dafür gleich 20 Kerne zuverbauen.

Der große Cache ist notwendig, um die Nachteile, die durch die Sockelkompatibilität entstehen, auszugleichen.
Es sind 1248 Pins... und das bei 4 Speicherkanälen und 5 QPI-Interfaces. Mehr Kerne würde hier nicht mehr Leistung bringen.
 
Zuletzt bearbeitet:
noskill schrieb:
Du willst also jetzt ernsthaft IA64 als schlecht abstempeln? Hast du mit IA64 mal gearbeitet und für die Plattform mal entwickelt oder behauptest du das nur?

PowerPC ist sicher eine interessante und gute Architektur, aber diese hat auch schon 20 Jahre auf den Buckel und hat auch einige andere "Paradigmen" als IA64.

IA64 ist eine verdammt guter Befehlssatz und auch effektiver als IA32 und PowerPC bei der Arbeit nur wird diese Effizienz damit erkauft, dass der Compilerbau die Hölle sein muss und damit die Effektivität und die Leistungsfähigkeit von IA64 mit dem Compiler steht und fällt und genau hier war vor allem in den Anfangszeiten das Problem, die Compiler fehlten.

Zudem ist ein Core eines IA64 in sich gesehen schon ein "Multicore", da er (wenn ich das jetzt richtig in Erinnerung habe) bis zu 4 Befehle auf einmal verarbeitet. 8 Kerne würden hier also bereits 16 Befehle zur selben Zeit machen und wenn die Compiler es ordentlich bauen, muss man sich im Regelfall nicht mal Gedanken machen um Multithreaded da der Compiler es schon macht.

Ach ja RIPchen, nur weil die Teile ca. 180Watt verbraten, heißt es nicht, dass sie nicht effizient sind. Da müsste man dann aber nen normalen Core i7 mit 8 Kernen und bei gleichem Takt heran ziehen um die Rechenleistung und Effektivität zu vergleichen und nur weil 180Watt dran steht, heißt es noch lange nicht, dass sie auch 180Watt im Regelbetrieb verbraten. ;)
 
Zuletzt bearbeitet von einem Moderator:
GameRsT schrieb:
Zudem ist ein Core eines IA64 in sich gesehen schon ein "Multicore", da er (wenn ich das jetzt richtig in Erinnerung habe) bis zu 4 Befehle auf einmal verarbeitet. 8 Kerne würden hier also bereits 16 Befehle zur selben Zeit machen und wenn die Compiler es ordentlich bauen, muss man sich im Regelfall nicht mal Gedanken machen um Multithreaded da der Compiler es schon macht.

Ist das Waldorfmathematik ? 4 x 8 = 16
 
GameRsT schrieb:
IA64 ist eine verdammt guter Befehlssatz

Mag sein, nur interessiert daß niemanden außer HP und Intel.
Die Mehrzahl der nicht x86 Systeme läuft mit POWER oder SPARC, denn dafür wird es auch morgen noch Software geben.

Und wenn "Poulson" genauso "schnell" auf den Markt geworfen wird, ist IBM schon da und räumt wieder mit einem doppelt so schnellen Prozessor ab. ;)
 
Ach ja RIPchen, nur weil die Teile ca. 180Watt verbraten, heißt es nicht, dass sie nicht effizient sind. Da müsste man dann aber nen normalen Core i7 mit 8 Kernen und bei gleichem Takt heran ziehen um die Rechenleistung und Effektivität zu vergleichen und nur weil 180Watt dran steht, heißt es noch lange nicht, dass sie auch 180Watt im Regelbetrieb verbraten.

Ich hab ja nie gesagt, dass sie nicht effizient sind ! Sie verbraten mehr, leisten aber auch mehr. So einfach ist es daher nicht. Ich meine nur, dass es auf den hohen Verbrauch bei solch einer Leistung nicht unbedingt ankommt.
 
GameRsT schrieb:
Zudem ist ein Core eines IA64 in sich gesehen schon ein "Multicore", da er (wenn ich das jetzt richtig in Erinnerung habe) bis zu 4 Befehle auf einmal verarbeitet. 8 Kerne würden hier also bereits 16 Befehle zur selben Zeit machen und wenn die Compiler es ordentlich bauen, muss man sich im Regelfall nicht mal Gedanken machen um Multithreaded da der Compiler es schon macht.

Das hat nix mit "multicore" zu tun, was du meinst ist die "issue width" und itanium kann hier theoretisch 6 gleichzeitig verarbeiten, desktop prozessoren wie der Core2 hingegen nur 4 (oder 5 mit macro-op fusion)

Und poulson ist jetzt sogar 12 issue wide.

Persöhnlich halt ich das für overkill, da viele anwendungen nich über 1 IPC rauskommen... selbst anwendungen die super auf itanium zugeschnitten sind haben probleme mehr als 3 zu erreichen...
 
Zuletzt bearbeitet:
Ich hab in Erinnerung mal gelesen zu haben das Intel bzw HP noch sehr lange Verträge mit dem Militär haben wegen VMS (ein Erbe von DEC).
Scheinbar muss man das Zeug noch entwickeln und Intel wird sich den Aufwand auch passend bezahlen lassen.
EPIC setzt sehr auf große Cache und das mit dem problematischen Compiler hab ich auch in Erinnerung.
X86-64 verdankt man MS aber das ist doch verständlich wann haben die mal nicht Kompatibilität über alles andere gestellt? und warum auf eine Plattform umstellen wo Linux und CO schon einen Vorsprung haben könnten.
 
Zurück
Oben