News „Ivy Bridge-EX“ mit 15 Kernen als Intel Xeon E7 v2 nun offiziell

@Blue Cube

Sorry aber warum sollte man ein S2011 Prozessor in Mini ITX packen? Das ergibt 0 Sinn. Da du nur 1x PCIe16 hast verschwendest du so viele PCIe Lanes das es kracht. Dazu kommt Kühlung. EIn S2011 Prozessor kühlt man nicht mal eben einfach so. Da muss ein guter Küheler drauf oder Wasser kommt zum Einsatz beides nicht wirklich praktikabel als ITX außer man hat ein großes Gehäuse was aber wieder bedeutet man könnte gleich auf die normale Board größe setzen.
 
Arcturus schrieb:
Mal im Ernst, sicher sind die Preise extrem hoch, aber die Entwicklung solcher Prozessoren kostet hohe 9- bis 10-stellige Summen.
Wie sollen die wieder reinkommen, wenn man nicht entsprechende Preise nimmt?
Da nur die Produktionskosten zu berechnen, ist Quatsch.

Da ist natürlich was drann. Aber auch die Entwicklungskosten haben ja was mit der Komplexität des Chips zu tun. Also grob gesagt je größer bzw. je mehr Transistoren um so teurer. (Wobei man dabei sowas wie die für Cache drauf gehenden Transistoren sicher weitgehend vernachlässigen kann.)

Einen Grafikchip kann man ebenfalls nicht vergleichen, der ist ganz anders aufgebaut.

Aber was an diesem anderen Aufbau macht sie billiger/einfacher in der Entwicklung und/oder Fertigung?

Ich habe kein Problem mit den Xeon-Preisen. Erstens weil mich das als Privatperson nicht betrifft, weil ich niemals mein eigenes Geld für sowas ausgeben werde und auch weil mir klar ist, dass bei solchen Server- und HPC-Systemen die Hardwarekosten noch einer der kleinsten Kostenpunkte sind. Auch mit 6000€-CPUs werden vernachlässigbar, bei den Lizenzkosten der darauf laufenden Software oder auch den Personalkosten für die Experten, die daran arbeiten usw.
Aber aus reinem "Computer-Hobbyisten"-Interesse würde ich schon gerne wissen, ob es einen konkreten technischen Grund gibt, warum ähnlich große und mindestens ebenso komplexe GPUs für so viel weniger Geld über den Ladentisch gehen, als solche CPUs. :)

Oder ist es doch ein wirtschaftlicher Gund? Ich könnte mir vorstellen, dass eine GK110-GPU um Größenordnungen öfter verkauft wird, als so ein E7-Xeon. Die Kosten für die Entwicklung verteilen sich also auf eine sehr viel größere Stückzahl. Selbst wenn die Entwicklungs- und Herstellungskosten ähnlich hoch sind, müssten die Xeons dann viel teurer verkauft werden, um damit Gewinn zu machen.
 
Zuletzt bearbeitet:
Intel hau was raus schon wird hier rum geheult bis zu geht nicht mehr ....Leute warte doch erst mal ab was AMD so bring.
Danach kann man sich entscheiden ob ein überteuern INTEL kaufen oder doch zu vielleicht neue AMD CPU holen wird.
Abwarten und Tee trinken :schluck:
 
Zuletzt bearbeitet:
Würde gerne mal wissen wie mit dem Flaggschiff E7-8890 v2 meine 15 VMs parallel laufen würden. Natürlich liegen diese auf jeweils 512GB fassende Samsung 840PROs :D

Wer sagt eigentlich, dass mehr als 4(8) Kerne nicht sinnvoll wären?

Ich glaube, dass VMware mehr als 8 Threads unterstützt, oder?
 
Für 15 VMs reicht sowas hier: http://geizhals.de/amd-opteron-6272-os6272wktggguwof-a699576.html
Das ist auch finanziell erschwinglicher.

@ herdwere: Grafikchips sind extrem parallelisiert, daher wahrscheinlich leichter zu entwerfen als CPUs.
Und du hast weniger Modelle.
Bei Nvidia zB beruhen die 660Ti, 670, 680, 760 und 770 alle auf demselben Grafikchip.
Die Titan, 780, 780Ti auch auf einem Chip.
Daher sind sicherlich die Stückzahlen größer und auch die Nutz-Zeiträume länger.
Der 2 Jahre alte GK 104 der 770 etc wird immer noch in großen Stückzahlen verkauft.
 
@JuggernautX

Das beschriebene System erinnert mich etwas an das NAS-Testsystem von Anandtech (der Artikel ist schon etwas älter, heutzutage wäre da sicher mehr drin und vielleicht haben die schon wieder aufgerüstet), mit dem sie per VMs bis zu 25 gleichzeitige Benutzer simulieren. Jede VM mit ihrer eigenen SSD und eigenem Netzwerkanschluss.
Wenn man also ein komplettes "Small Office" in einem einzelnen Rechner unterbringen will, dann sind entsprechend viele Cores/Threads schnell ausgelastet. :D

Aber der gewöhnliche Heimanwender tut sowas ja doch eher selten. ;)

@Arcturus
Ok. Das klingt logisch. Wobei über 2 Jahre Vermarktungszeitraum für einen Xeon-Prozessor auch nicht ungewöhnlich sind. Der jetzt durch diese Ivy-Bridge-EX ersetzte Westmere-EX ist schon fast 3 Jahre alt.
 
Zuletzt bearbeitet:
Das stimmt, aber Grafikkarten werden mit Sicherheit deutlich häufiger ersetzt als Xeons. Daher noch mehr Stückzahl ;)
Intel verkauft die ja auch nicht unter anderem Namen als "neu", so wie das Nvidia und AMD so gerne machen.
 
@ Cool Master und andere, die etwas zu meiner Idee zu sagen haben/hatten

Es ging mir in erster Linie um das Zeigen einer Machbarkeitsstudie, wo die Hersteller sich gegenseitig gerne mal auch wegen sinnlosen Sachen überbieten. Weiterhin um den Fortschritt und die Idee "mal etwas neues auszuprobieren". Mir ging es nicht einmal darum, dass es jemals auf den Markt kommt. Aber schaut mal selber, wieviel Platz heutzutage auf den Motherboards frei ist. In der Theorie könnte man somit viel Platz und Ressourcen sparen. Die meisten Hersteller schaffen es nicht einmal das Layout bei ATX richtig auszunutzen bzw zu planen.
Ich sehe das scheinbar leider komplett anders als einige, was auch OK ist. Ich habe z.B. Hier eine 130W-CPU auf einem µATX-Board, ist das etwa auch Schwachsinn? - Meiner Meinung nicht und es gibt auch keine Probleme. Genauso habe ich hier ein i7 in einem Gehäuse für ITX-Boards, dass so groß ist, dass 3 davon in einen Schuhkarton passen würden. Und - die CPU wird komplett vom Gehäuse passiv gekühlt. Auch keine Problem. Und der Hersteller Impactics sagte auch, da müssen Sie basteln, wenn Sie was besonderes wollen, danach könnten wir die Heatpipes/Befestigung auch mit in unseren Angebot aufnehmen, sofern sich genug Interressenten finden.

Für einige sind gewagte/verrückte Idee sinnlos, aber es gibt auch die andere Seite.
Wenn es "Nur um die PCIe-Ports geht", nimm einen weg, für eine einfachen Grafikchip auf den Board, da Server nicht viel Grafikleistung brauchen. Auf den einen Slot kann von mir aus etwas andere als eine Grafikkarte gesteckt werden, an die fast jeder zuerst denkt. Und wer mehr Slot braucht, nimmt Expander-Karten, oder man vergrößert das Board zu einem DTX Format. Eine Ansteckleiste für Karten mit passender Buchsen gab es auch schon mal bei Motherboards, somit könnte man ein gestecktes ITX/DTX draus machen. µATX, wäre auch noch denkbar, aber kein Hersteller getraut sich z.B. dort mehr als 6 DIMM-Slot zu verbauen, obwohl ein High-End-/Server-CPU-Sockel verbaut ist. Im unteren Segment, wäre z.B. Sockel 1150 auf ITX mit 4 DIMM-Slots denkbar, aber keiner versucht es.

Gute Server werden ja auch heute mit warmen Wasser gekühlt, vor ein paar Jahren hätte man über diese Personen, die die Ideen hatten, gelacht. Klein bedeutet nicht immer wenig Platz. Wenn man z.B. ein stehendes ITX-Board nimmt, drüber oder drunter ein Netzteil verbaut, könnte man in der Höhe 6+4 3,5" HDDs verbauen. Die Breite läge dann zwischen 15 bis 20cm. da passen große Kühler und Lüfter rein. Eine Tiefe von 30 bis 35cm böte auch genug Platz.

Ihr seht, es geht mir um Ideen, ... . Ob sich dann später was Sinnvolles draus entwickelt, bestimmen immernoch die Käufer/Kunden.

Man glaubt es kaum, dass Interresse der Hersteller war da, bloß man kam an keine einflussreiche Leute ran.

Ich wollte nur in gewisser weise meine Idee verbreiten. Mich weder rechtfertigen, noch prahlen. Sondern einfach nur mal mein Seite der Dinge schildern, in der Hoffnung, das auch andere es wie ich sehen. Aber wo ein Pro ist, darf auch gerne ein Kontra sein. :)
 
Herdware schrieb:
... Aber was an diesem anderen Aufbau macht sie billiger/einfacher in der Entwicklung und/oder Fertigung?...
Wurde doch schon gesagt: Die Features, die du nur in solchen Produkten (wie in der news übrigens angeschnitten mit 99,99% Zuverlässigkeit) bekommen kannst. Beispielsweise 2b-ECC aber auch ein Prozessorlink, der (je nach Modell) bis zu 8 Prozessoren auf einem Mainboard erlaubt und ein Speichercontroller, der ein bisschen mehr RAM unterstützt, als in ein Gaming-RACK passt. Schau dir mal die RAS-Features des Itanium 9500 an, der Xeon IB-EX wird vermutlich (keine Ahnung) ähnlich weit sein - solche Features müssen extra getestet werden und das schlägt sich im Produktpreis nieder, auch wenn die Die-Fläche und die Transistorzahl dadurch nicht übertrieben ansteigt. Eigentlich hatte dgschrei vor zwei Seiten einen super Vergleich gezeigt, der deutlich macht, dass GPUs genauso teuer verkauft werden, ich zitiers nochmal:
dgschrei schrieb:
...
Und wo kommen wir da raus wenn wir mal bei Geizhals nachschauen? (Was eh schon Krampf is, weil wer größere Stückzahlen im Profisegment ordert, hat seine Preise mit Sicherheit nicht von Geizhals)

http://geizhals.at/de/pny-quadro-k6000-vcqk6000-pb-a988359.html

Ach ja.... 4350€ oder nach aktuellem Wechselkurs: 5970$.
...
 
Zuletzt bearbeitet:
Tesla oder Quadro Karten mit den GK104 oder GK110 Chips kosten übrigens auch mehrere Tausend Euro.
Da bezahlt man Treiber und Zusatzfunktionen der Karten wie ECC-Speicher.
Profihardware kostet halt dementsprechend.
Für den Heim-PC braucht man nunmal keine 15 CPU-Kerne.
 
tgp001 schrieb:
Du musst dir mal die Architektur anschauen. Und das Thema Yield. Die Chipgröße oder Transistorzahl mit dem Preis zu skalieren ist Schwachsinn. Im übrigen ist Intel was die Fertigungsgröße angeht durchgehend voraus.

danke, endlich sagt das mal jemand. Mir bluten immer die Augen, wenn ich lese, wie die Leute hier öffentlich die Hose runterlassen, weil sie (freundlich gesagt) ihr Halbwissen kundtun.

Das erinnert mich an früher: CPU -mit 2 Kerne je 2 Ghz = CPU mit 4Ghz :-D
 
Stark vereinfacht können GPU und CPU nicht miteinander verglichen werden, weil

die GPU ein Spezialist ("Fachidiot") ist, der wenig kann (kleiner Befehlssatz; Grundrechenarten),
darin aber extrem schnell ist.
Baulich gesehen ergeben viele Kopien einfacher Bauteile ein Ganzes.

Die CPU ist das Gegenteil, also ein vielseitiger, aber langsamer Allrounder,
der aus wesentlich mehr unterschiedlicher Teilen besteht.


Ja, die Preise sind echt übel!
Aber verglichen mit Personalkosten, ist auch diese Hardware günstig.
 
Bei den Personalkosten sind aber die Fachidioten oft am teuersten;)
 
Der Nachbar schrieb:
AMD Opteron 63xx. 16 Kerne, 16 Stränge.
Nur bekomme man mal die Menge an Mainboards für.
"Stränge", hast du das mit google übersetzt?
dein "fachwissen" scheint ja sehr, sagen wir es mal beschränkgt zu sein...

und welche probleme hast du mit G34 brettern?
die bekommt man sehr leicht, ahben viele händler lagernd, ein MM natürlich nicht, aber der verkauft auch keinen für xeons.


und was soll das überhaupt jetzt genau mit AMD zutun haben?
nur weil gewisse kinder hier nichts anderes kennen wird wieder blöd getrollt:(

1. AMD war in diesem markt NIE vertreten, also wurden sie da auch NIE von intel abgehängt.
2. intel hat konkurrenz, einen POWER7+ oder Sparc64 X bekommt man halt bei eurem händler nicht.
3. intel ist dieser konkurrenz nicht überlegen.
4. man kann eine 500mm² GPU nicht mit einer 500mm² CPU vergleichen, der ausschuss ist bei einer GPU viel geringer.
5. ...
 
Zuletzt bearbeitet:
Arcturus schrieb:
Tesla oder Quadro Karten mit den GK104 oder GK110 Chips kosten übrigens auch mehrere Tausend Euro.
Da bezahlt man Treiber und Zusatzfunktionen der Karten wie ECC-Speicher.
Profihardware kostet halt dementsprechend.
Für den Heim-PC braucht man nunmal keine 15 CPU-Kerne.

So wie ich das verstanden habe, bezahlt man bei Quadros, FirePro und Co. wirklich in erster Linie die Treiber. (Die Hardware ist weitgehend identisch mit der der Consumer-Karten und zusätzliche Features sind einfach nur per BIOS freigeschaltet, aber in den Consumer-Modellen genauso vorhanden.)
Die Quadro-Treiber sind speziell optimiert für bestimmte Profi-Anwendungen, z.B. CAD-Systeme, und auch offiziell dafür zertifiziert. Das kostet natürlich Geld, das dann auf relativ wenig verkaufte Expemplare verteilt werden muss.
So ähnlich ist das ja bei den CAD-Softwarepaketen selbst auch. Der Entwicklungsaufwand für ein Profi-CAD-System mag ungefähr gleich sein, wie bei einem Office-Paket. Aber von dem Office-Paket verkaufen sich Millionen Lizenzen, von dem CAD-System vielleicht nur Zehntausend weltweit. Also kostet die CAD-Software schon mal 100x so viel.

Letztlich ist es also wohl auch bei den Xeons hauptsächlich eine Frage der Stückzahl und nicht, weil sie irgendwie viel komplexer oder teurer herzustellen wären als z.B. eine GPU.

Nehmen wir mal an, 15 Cores/30 Threads wären für Privatanwender wirklich interessant und Intel könnte sowas als normalen i7 verkaufen, dann würden diese CPUs wahrscheinlich auch für unter 1000€ verkauft werden können, einfach weil sich die Entwicklungskosten auf eine viel größere Stückzahl verteilen.

Wobei ich denke, dass die Profi-Produkte teilweise auch einfach nur deshalb so viel kosten, weil sie es können. ;)
Wie oben erwähnt sind ein paar tausend Euro mehr oder weniger für hardware in einen Server oder HPC nicht unbedingt allzu relevant, angesichts der Lizenzkosten für die Software oder Peronalkosten usw.
Wenn z.B. ein hochbezahlter Spezialist mit einem teuren Softwarepaket seine Produktivität dank einer schnellen CPU z.B. um 10% erhöht, dann sind die Ausgaben für die Hardware ruckzuck wieder drin.
 
im grunde ist eig alles ganz gut sowie es derzeit läuft,
viele geilen sich an nem quad um 150-400euro im jahr 2014 auf,

und ich kann den q8200@2,8ghz vom jahr 2008 weiter nutzen. *sarkasm*

@ die die meinen man braucht keine 8 cores usw.,

wiso habt ihr n quad?, früher hiess es das braucht man nicht, genauso bei dualcores,
also zurück z.b. zum 486 und spielt dann euer BF4 oder was auch immer
 
Zuletzt bearbeitet:
Herdware schrieb:
...
Nehmen wir mal an, 15 Cores/30 Threads wären für Privatanwender wirklich interessant und Intel könnte sowas als normalen i7 verkaufen, dann würden diese CPUs wahrscheinlich auch für unter 1000€ verkauft werden können, ...
Nicht "diese" CPUs, sondern andere ohne Fähigkeiten, die man nur im "Serverfarm-/Großrechnermarkt" braucht. Die RAS-Features des Itanium sind keine Treiberlösung, kein Softwaregefrickel - das ist in Silizium gegossen. Und für den Prozessorlink gilt das gleiche. Das, was du von der CPU hier bewertest, ist das, was bis vor einigen Jahren im x86-Bereich immer zwischen High-End und fünfmal billigerem Massenmarkt geteilt wurde. Die ersten Opterons gabs in verschiedenen Ausführungen - die Ausführung für Ein-Sockel-Systeme unterschied vom Athlon 64 nur das Fehlen von Standby-Features (kein S3-Modus), für Zwei-Sockel-Systeme kostete der quasi "gleiche" bzw. "gleich leistungsfähige" Prozessor mit Speichercontroller für Registered RAM und anderem Prozessorlink (beides "on die") mal locker die Hälfte mehr. Der "gleiche" Prozessor für 8-Sockel-Systeme kostete dann gleich mal das vierfache vom gleich schnellen Athlon 64. Und die ersten opterons damals waren im RAS-feature-Set noch extrem hinter Power, SPARC und Itanium zurück.
 
die opterons sind da auch heute noch weit hinten nach, AMD war in diesem markt ja auch nie vertreten.
und AMD kann dieser E7 auch egal sein, der ist keine konkurrenz für die opterons, der spielt in einer ganz anderen liga.

wie leute bei diesem E7 überhaupt auf einen opteron kommen würde ich echt gerne verstehen, die kennen wohl nichts anderes ausser intel und AMD...
 
Zurück
Oben