News Intel stellt ersten nativen Acht-Kern-Prozessor vor

florian. schrieb:
wie war das noch gleich, ein Wafer kostet 10.000€ (grob überschlagen sollte schon stimmen)

Materialkosten des Wafers vielleicht, wobei das dann ein wenig viel ist. Prozessierfertig wird son Ding n bisschen unter 1000€ liegen. Das hochreine Zeug, was nach und nach aufgebracht wird, ist zwar schweineteuer, aber bei den verbrauchten Mengen...

Aber es ist ja nicht so, dass eine Fab für umsonst gebaut wird, den Strom geschenkt kriegt und die Mitarbeiter aus Spaß an der Freude dort arbeiten.
Naja, man kann ja Rechenspiele wagen. Bei der Die-Größe werden nicht mehr als 75 Stück auf einen 300mm-Wafer passen, dann kommt ein wenig Verlust durch Fehler dazu (Grüße an Fermi), und dann wie gesagt Materialkosten, Betriebskosten, Entwicklung. Nicht, dass es unrentabel wäre, aber ich glaub, bei den kleinsten Modellen wird nicht so arg viel verdient. Die gut gelungenen, die höher takten können, die bringen natürlich richtig Schotter ein - aber da haperts dann an der abgesetzten Stückzahl.
 
Immer wieder interessant wie über die Kosten der Wafer spekuliert wird, ebenso über die Ausbeute. Dabei sind das Informationen die kein Hersteller preis gibt und generell sehr gut gehütet werden. Oder macht es einfach nur Spaß völlig planlos zu vermuten und zu spekulieren?
 
Also ich find solche News auch ohne direktes Interesse an Servertechnik interessant, da es einerseits immer einen Ausblick auf´s Desktopsegment der nächsten Jahre und andererseits einen Fingerzeig auf High Performance Computing und die nächsten Supercomputer gibt, die dann bald mit den neuen Opterons und Nehalems entwickelt werden.

Allerdings glaube ich, dass es noch ein Weilchen dauern wird, bis 12-Kerner oder eben Achtkerner mit Hyperthreading im Desktopsegemt sinnvoll sind.
 
Muss auch zugeben, dass ich im Server CPU Bereich keinen Plan habe und deswegen die News bzw. Beiträge zu den Server CPUs gerne lese... ab und zu gibt es Beiträge zu den News, wo man merkt das sich jemand auskennt... und schon weiß man halbwegs Bescheid was gerade bei Intel/Amd los ist.
 
der Tubro Modus signalisiert doch schon, dass man selbst in der Server Welt die Einzelthread Performance nicht unterschätzen darf. Auch hier fallen Aufgaben an deinen eine Beschleunigung weniger Threads zugute kommt.

Magny-Cours macht aber den grüneren und Preis-leistungstechnisch besseren Eindruck. Die Westmere Xeons überzeugen mich da mehr, auch wenn der Einsatzort ein anderer ist. Mit Nehalem-EX ziehlt man auf extrem große Cluster ab, was die hohe Skalierbarkeit und die 4 QPI deutlich machen.

ies sei nur möglich, weil Intel den Firmen bereits seit einem Jahr Zugang zu den neuen Technologien gewährt.

bedeutet dass, das Intel schon knapp ein Jahr die "neuen" Nehalem-EX an Kunden ausliefert? Zeitlich hinkommen könnte es, ca 6 Monate nach dem Nehalem Launch mit 4 Kernen für Desktop in 45nm.
 
Zuletzt bearbeitet:
Marius schrieb:
Wieso bringens das nicht in diesen Taktraten bei GPUs zusammen?!
Und mit der relativ geringen Leistungsaufnahme.
Der Unterschied zu einer GPU ist da doch NIRGENDS mehr.
Die GTX 480 hat ja sogar eine kleinere Die Fläche.

Sehr schöne CPU!

Das liegt zum Beispiel daran, das CPUs zu einem großen Teil nur aus Cache bestehen. Diese SRam Zellen sind deutlich genügsamer als das eigentliche "Rechenwerk". Von den 2300Millionen Transistoren dieser CPU hier sind vlt. rund 800 Millionen fürs Rechnen zuständig, der Rest ist Cache. Bei NVidias "Thermi" sind dagegen fast 4 mal soviele Transistoren mit Rechnen beschäftigt.
 
OU man, krasses Teil, wie lang hätten sie wohl mit so einem System die 100mio Gigabyte von 2012 gerendert? xD

greez
 
OMG was für ein Riesenkäfer :rolleyes:
Na wenigstens ist genug Chipoberfläche für die Kühlung da.
Die achtfache Speicherbandbreite für 16 Kerne macht gegenüber den Vorgängern mit vier Kernen aber lediglich eine Verdoppelung aus. :freaky:
 
Schon peinlich, was manch einer hier so von sich gibt.
Erstens sind das Server-prozessoren, bei denen es auch um Effektivität und Stabilität geht.
Zweitens kaufen sich solche Teile wohl eher Firmen, die so viel Rechenleistung auch brauchen und nutzen können; und wohl weniger der Privatanwender.
Mal ganz von dem Betriebssystem abgesehen... die bisher getesteten 6/12 Kerner von AMD (6-core von Intel) laufen auf Win Server 2008 Enterprise.
 
der_neue schrieb:
... die bisher getesteten 6/12 Kerner von AMD (6-core von Intel) laufen auf Win Server 2008 Enterprise.

Anandtech hat sich auch die Mühe gemacht und für diese Prozessoren einen Suse Linux 64bit Bench veröffentlicht.
 
Zweitens kaufen sich solche Teile wohl eher Firmen, die so viel Rechenleistung auch brauchen und nutzen können; und wohl weniger der Privatanwender.

Was im Serverbereich und bei Supercomputern Sinn macht, immer mehr Kerne, wird im Desktopbereich irgendwann fragwürdig. Klar, auch hier gibt es ein paar gut skalierbare Anwendungen, aber nicht jede Desktopanwendung profitiert automatisch von mehr Kernen. Es gibt sogar ein paar Berechnungen die auf einem Singelcore schneller laufen als auf einem Multicore, da sich nicht parallelisieren lassen, und ein Singelcore unter Umständen mehr Leistung bietet, als ein einzelner Kern eines Multicores.

Ich denke so ab spätestens 8 Kernen wird der normale Desktopanwender kaum von mehr Kernen profitieren, und die meisten Kerne, die meiste Zeit auf idle Laufen.
 
Hi

mal eine Frage an die Serveradmins hier:
Gibt es bei Mehr-Sockel-Boards eine Signalisierung wenn eine CPU defekt ist - also auch welche defekt ist? Bei 2 Sockeln kann man ja mal mittels Trial&Error testen ;) - aber bei 256 CPUs ne defekte finden wäre ja schon fast nen Abschlußprojekt fürn Azubi ;). Können so boards dann eine defekte CPU einfach ignorieren oder steht dann das ganze System?

Gruß
 
@ThinkIT- der TLB-Bug war also keine Bauchlandung? Auf jeden Fall für das Image von AMD,was dadurch schwer beschädigt wurde.So was bei Server/Workstation-CPUs ist einfach tödlich...Hat mich natürlich nicht davon abgehalten einen 9950 zu kaufen,weil der Fehler ja für Normalanwender kaum eine Rolle spielte....:evillol:
 
Anandtech hat sich auch die Mühe gemacht und für diese Prozessoren einen Suse Linux 64bit Bench veröffentlicht.
Die Prozessoren laufen garantiert auch auf anderen Betriebssystemen.
Aber was nützt einem -Privatanwender- ein preiswertes Linux, wenn man sich das System nicht leisten kann.

----
edit: Wie ich gesehen habe, haben die ein speziell angepaßtes und neu kompiliertes "Betriebssystem" für ihre Tests verwendet, um möglichst viel rauszuholen.
Das sagt gar nichts über die Kompatiblität aus. Linux lief vor mind. 5 Jahren auf meinem Xeon-system auch.
Daß es bei den Tests schneller ist, sieht man. Nur fehlen Linux sicherlich bestimmte Tools für den Einsatz, die eben nur ein Server-OS bietet.
----

Wie oben schon geschrieben wurde: Man sieht an den Server-CPU´s (deren Techniken) sehr deutlich, wohin das im Desktop-markt führen kann.
Bisher wurde vieles übernommen und weiterentwickelt.
 
Zuletzt bearbeitet:
Wulfman_SG schrieb:
Gibt es bei Mehr-Sockel-Boards eine Signalisierung wenn eine CPU defekt ist - also auch welche defekt ist?
Beim Booten ging das ja schon mit Pentium/PPro/PII/PIII Boards. Im laufenden Betrieb: kA, denke aber die hätten sich dann aufgehängt.
Schließlich wird in dem Artikel erwähnt, daß Intel die für die x86 Welt neuen RAS Fähigkeiten hervorhebt, die es bisher nur bei großen RISC Servern oder Mainframes gegeben hat.
Dort ist es selbstverständlich, daß CPU-, Speicher- oder sonstige Fehler im laufenden Betrieb angezeigt und behoben werden.

Wulfman_SG schrieb:
Können so boards dann eine defekte CPU einfach ignorieren oder steht dann das ganze System?
Kommt auf die Konfiguration an. In einem Mainframe können z.B. Hotspare CPUs/Speichermodule bei einen Defekt einspringen.
Beim Nehalem-EX müsste man den Cluster dann redundant auslegen.
 
Wahnsinn,bei sowas bekomm ich immer ein irrwitziges grinsen auf dem gesicht,einfach nur geil.
 
Wulfman_SG schrieb:
Hi

mal eine Frage an die Serveradmins hier:
Gibt es bei Mehr-Sockel-Boards eine Signalisierung wenn eine CPU defekt ist - also auch welche defekt ist? Bei 2 Sockeln kann man ja mal mittels Trial&Error testen ;) - aber bei 256 CPUs ne defekte finden wäre ja schon fast nen Abschlußprojekt fürn Azubi ;). Können so boards dann eine defekte CPU einfach ignorieren oder steht dann das ganze System?

Gruß
Jo da gibts schon Überwachungsmechanismen für. Bei Speicher/CPU-Defekten bekommt man dann eine entsprechende Meldung und das defekte Teil wird automatisch abgeschaltet, bei Speicher gibts auch schon Frühausfallwarnungen, wenn sich die ECC-Fehler häufen. Der Server läuft "normal" weiter (ok eine CPU muß schon noch laufen ;)), bis der Techniker mit der neuen Hardware eintrifft. Je nach Bauart sind CPU und Speicher auch hotplugfähig, meistens muß man aber zum Tauschen die Kiste runterfahren. Auf vielen Serverboards leuchtet auch neben dem defekten Teil eine LED, dann ist dann auch für den Techniker so ziemlich idiotensicher ;)
 
Ich würde die Tests ganz einfach zusammenfassen:

AMD's System ist zirca 3x günstiger als Intel's Systeme und hat einen ungefähr doppelt so geringen Strombedarf bei ungefähr gleicher Leistung im Serverbereich.

AMD => Well Done :D
Intel => Epic Fail :evillol:
 
ich würde mal sagen, deine formulierung ist epic fail :P
wie kann denn ein stromverbrauch doppelt so gering sein, wie ein anderer?? :D
 
Wie gesagt, AMD spielt mit dem Magny Cours noch in der Kreisliga, während Intel mit den Nehalem-EX in die Oberliga vorstoßen will, die bisher von RISCs oder Mainframes dominiert wird.
Ein Schelm, wer dabei denkt, Intel plane bereits den Ausstieg aus dem Itanium Projekt (der war ja schließlich für solche Szenarien gedacht). ;)

Aber davon muss das Gamerkiddie nichts verstehen und darum plappert es ständig über die günstigen AMD Preise. In solchen Anwendungsgebieten zählen aber Zuverlässigkeit + Skalierbarkeit. :rolleyes:
 
Zurück
Oben