News Benchmark zu Intels Nehalem-Xeon

RIP1981 schrieb:
Hallo allerseits.

Kann mir jemand von euch mal erklären für wen und unter welchen Umständen sich Workstationprozessoren wie die Xeons lohnen?

Ich habe das Gefühl, daß sich viele auch z.B. einen Mac Pro mit nur einem einzelnen Xeon Quadcore für wahnsinnig viel Geld kaufen. Was bringt das da? Wo liegen generell die Vorteile? Für den Preis eines passenden Mainboards, passender RAM Riegel und dem Prozessor selbst kriegt man doch einen deutlich höher getakteten normalen Quadcore mit wahlweise mehr RAM und einer besseren Grafikkarte etc.

(Gerade die Mac Pros, die gar nicht als überteuert für Workstations gelten, sind ja wahnsinnig teuer. Was kriegt man da für Hammer Desktop Systeme für?)

Der dürfte für Multimediaanwendungen schneller sein, für Spiele flotter und auch schneller rendern. Ich habe jetzt nicht genau die Preisdifferenz nachgesehen, aber ich kann mir nicht vorstellen, daß ein ~2,2 GHz Xeon einen z.B. 2,8 GHz Desktop Nehalem Quadcore (i7?) auch nur in irgendeinem Segment schlägt.

Welche ganz speziellen Features bietet der Nehalem Xeon gegenüber dem Nehalem Desktop und wieviel bringen die für allgemeine Aufgaben?

Es wird auch immer von höherer Zuverlässigkeit gesprochen. Wie äußert sich das? Es gibt doch genügend völlig stabile reguläre Desktop Quadcoresysteme die stundenlang/tagelang durchrendern können ohne einen Absturz, oder?

Ich kann mir vorstellen, daß es was bringt wenn man mehrere Prozessoren auf einem Mainboard einsetzt. 2 oder noch mehr ... das dann die Desktopvariante nicht mehr so gut skaliert, wenn man überhaupt Mainboards dafür findet. Insofern vielleicht 4 Quadcore Xeon Prozessoren z.B. zusammen.
Für High End Server mit sehr hoher Auslastung sicher sinnvoll. Wobei ich mich z.B. auch beim Rendern frage ob man nicht auch da besser wegkommt, wenn man für den Preis möglichst viele günstige Desktopsysteme vernetzt und z.B. die Animationsbilder auf die Systeme aufteilt.

Wo liegt noch der Vorteil, wenn sich jemand so eine Workstation für alle Alltagsaufgaben und ein wenig Rendern hinstellt? Gibt es da einen?

Gruß
RIP

Es ist ein alter Hut, daß Dienstleistungen in Form von längerer Verfügbarkeitsgarantie, besserer Unterstützung in Sachen Zuverlässigkeiten etc. von Herstellern höher taxiert werden. Bei AMDs Opteron ebenso wie bei Intels XEON. Bei Intel darf man im Moment zusehen, wie alle 6 Monate neue CPUs den Markt betreten und kleinere, vielleicht nichteinmal 2 Jahre alte Siliziumkalkulationskörperchen vom Markt genommen werden. Wie lange weiß ich nun konkret nicht, aber bei XEON- und Opteron-Prozessoren garantiert der Hersteller jeweils eine deutlich längere Verfügbarkeit. Das wird dann wichtig, wenn Du einmal Deine Gedanken aus der Kinder- und Wohnzimmerwelt herausführst. Der Fiskus sagt, daß erst nach drei Jahren ein Investitionsgut 'abgeschrieben' ist. Mindestens so lange, statistisch ermittelt aber noch ein bis zwei weitere Jahre mehr stehen also größere Server und Workstations an ihren Plätzen und arbeiten. Wenn nun in dieser Zeit eine CPU defekt gehen würde und kein Ersatz vorhanden wäre, hätte man eventuell zig 10 - 100 Tausend Euro in den Sand gesetzt.

Weiter können CPU Hersteller bei höheren Preismargen auch 'bessere' Controllereinheiten in die CPUs pflanzen, wobei dies in meinen Augen ein reiner Marketing-Gag ist, wie AMD lange Zeit bewies und wie Intels neue Core-i7-XEONs auch zeigen. Die Speichercontroller dieser Bausteine für den Servermarkt 'können' in der Regel mehr, sie steuern buffered/registered ECC Speicher an, während ihre billigen Desktop-Kollegen darauf verzichten. ECC Speicher ist überall dort wichtig und notwendig (sine conditio qua non), wo es auch die Elemination von Spontanfehlern, wie sie nun mal bei Transistoren von der Größe weniger Atom- oder Molekülradien aufgrund quantenmechanischer oder einfacher radiogener Effekte auftreten können. Einfaches Beispiel: naturwissenschaftlich-mathematische Berechnung einer Kernfusion, der Flugbahn eines Himmelskörpers, eines Satelliten oder, ganz populär, Faltungsprozesse von Peptidketten oder thermodynamische Prozesse in der Atmosphäre unseres oder eines fremden Planeten (Wettervorhersage, für Saturn und Jupiter oder des Saturnmondes Titan weniger für unsere Wettervorhersage interessant, aber von wissenschaftlichem Wert). Modelle zur Berechnung solcher Prozesse laufen, je nach Komplexität, Tage, wenn nicht sogar Wochen, ich habe mit einem Modell gearbeitet, was mir erst nach 6 Wochen Ergebnisse liefern konnte. Wenn sich in solch komplexen Systemen ein unerkannter Bitfehler einschleicht und aus der Zahl Pi mit rund 3,1415926 plötzlich 4,8824 wird 9nur als Beispiel), hast Du Probleme! Du kannst Deine Ergebnisse wegwerfen.
Oh, vielleicht ein anderes Beispiel, aus dem Bereich der Wirtschaft. Stell Dir vor, Dein Anlagenberater berät Dich falsch, weil sein Rechner Prognosen aufgrund eines Bitfehers falsch berechnet. Oder Deine Bank 'verliert' plötzlich 500 Euro von Deinem Girokonto, weil sich bei der Berechnung des Jahressaldos ein Bitfehler eingeschlichen hat. Die Wahrscheinlichkeit, daß es gerade Dir passiert, ist sehr gering, aber wenn ein solcher Computer 24/7 läuft, das RAM unter Dauerlast steht und Du das auf 1000 Banken umlegst, kommt eine doch signifikante Wahrscheinlichkeit eines Fehlers zustande. Ich möchte nicht, daß es mir passiert!

Dein Argment, viele kleine Rechner zum Rendern zu verwenden ist zweischneidig. Googles Modell, viele kleine billige Systeme zur Lösung einer Aufgabe heranzuziehen, läßt sich nicht auf alle Probleme anwenden. ZUm einen muß die Software darauf augelegt sein, auf Knoten parallel rechnen zu können (und das ist die wenigste!), andererseits mußt Du auch bedenken, daß viele kleine Systeme auch viele Energieversorgungen benötigen und die Verbindung zwischen den Knoten ebenfalls mit logischem und energetischem Aufwand verbunden ist. Zudem kommen Latenzen hinzu, die unter Umständen, je nach Modellierung der Aufgabe und Anforderung, bei zu vielen Knoten den Vorteil des 'Clusters' wieder zunichte machen. Rechner mit vielen Prozessoren oder Kernen in einem logischen UND elektrischen Verbund (NUMA Systeme wie Opteron und Core-i7 mit mehr als einem Sockel) haben nun einen Energie-Vorteil gegenüber Einzelrechnern mit je einer CPU, Speicher, Netzteil blablabla. Bedenke, daß die entstehende Wärme abgeführt werden muß und gemäß den Gesetzen der Physik ist dazu ebenfalls ein gewisser Energieaufwand nötig!
 
Der Phenom II wurde da mit Ganged gebencht also single Core optimiert queen bencht aber multicore.
Mit unganged hat er etwas bessere ergebnisse.
 
Bezüglich der neuen MacPros: Ein Freund von mr hat seinen 8-core 2.26 GHz gestern bestellt... Ist nächste Woche Mittwoch da!

Ich finde die Geschwindigkeit absolut in Ordnung. Man muss bedenken, dass Everest nicht unbedingt sehr gut auf Multicore skalieren muss und es lässt sich schlecht nachvollziehen, wie diese Werte zustandegekommen sind (wenn bspw. nur 8 Threads verwendet wurden?).

Und wieso sollte eine CPU mit 2,26 GHz so viel schneller sein als eine mit 2,8 GHz? Mal ganz unabhängig von den Kernen... In den einen Real-World-Anwendungen skalieren CPUs immer jeweils anders als in irgendwelchen anderen. Da würde ich meine Meinung weder auf einen einsamen Screenshot aus SiSoft SANDRA, geschweige denn aus Everest stützen... SMT war ja auch ein paar Jahre "im Koma", ich denke wenn die Entwickler sich wieder längerfristig darauf einstellen kommen auch besser optimierte, besser skalierende Anwendungen auf den Markt (hauptsächlich durch kleine Patches/Updates).

Und für Leute die sich einen Core i7 holen wollen ist eine Nehalem-EP-Plattform ja auch eigentlich nicht gedacht. Wie ich bereits anmerkte: In anderen Anwendungen wird ein Gespann aus 2 Xeon E5520 einen Core i7 deutlich hinter sich lassen.
 
Vielen Dank für die ausführliche Antwort Eisenfaust. Klingt alles plausibel.

Damit fällt so ein Rechner aber wirklich für die allermeisten normalen Kunden/Anwender, wie sie auch hier im Forum meist sind, eigentlich raus.
Wobei ich nur selten von Workstationkäufen höre. Ausnahme ist hierbei lediglich der Mac Pro. Vermutlich auch hauptsächlich aus Gründen von:

- Design
- Verwendung von Mac OS
- mangels ordentlich performanter Desktoplösung ohne Monitor

Dabei zumindest hat der iMac schon wegen seiner exorbitanten Bildschirmauflösung und der Laptoptechnik zum Teil Probleme, eine passable Leistung zu bringen bei sehr anspruchsvollen Anwendungen. Ein gut zusammengestelltes Spielersystem mit externem Monitor und unter Umständen geringeren Auflösungen als Full HD bringt da zum Teil deutlich mehr.

Bei den meisten sind klitzekleine Rechenfehler tollerierbar und die Mehrleistung in keinem Verhältnis zum Preis. Auch Stromverbrauch gegenüber vielen Rechnern und Großinvestitionen bzw. Austausch/Reparatur sind bei Normalanwendern kein Thema, da man sich einfach einen neuen Rechner holt oder das Teil andersweitig austauscht.

Interessant, das hier aber dennoch einige Bekannte, Freunde oder Forenuser sich einen Mac Pro anschaffen. Wohl wirklich oft auch wegen Benutzung eines bestimmten Programms, was nur unter Mac OS läuft usw usw.

Gruß
RIP
 
Zuletzt bearbeitet:
RIP1981 schrieb:
Bei den meisten sind klitzekleine Rechenfehler tollerierbar ...
Falsch, denn Xeons oder Opterons sind nicht für unterbelichtete Gamerkiddies gedacht, die ihre mangelnde Potenz durch übertaktetes und wassergekühltes Silizium kompensieren müssen.
Die Kunden von Xeons und Opterons wollen Zuverlässigkeit, die ihnen normale Desktophardware nicht bieten kann.
Angeblich gibt es sogar Leute, die die "Zuverlässigkeit" von Xeon & Co. nur belächeln können und die deshalb auf Mainframes setzen (aber davon haben Gamerkiddies eh noch nichts gehört).
 
Ich denke nicht, daß alle Kunden die aus dem Kundenkreis für Workstations ala Mac Pro rausfallen unterbelichtete Gamer, geschweige denn Gamer sind.

Und ich habe seit nunmehr über 20 Jahren stets normale Desktopsysteme gehabt, die schnell und zuverlässig waren.
Seit Windows2000/XP sogar quasi gar kein Absturz mehr. Vielleicht 1x im Jahr. Mein letztes System hatte bislang gar keinen Systemabsturz, obwohl ich den auch schon über 1 Jahr betreibe. (regulärer Q6600 ...)
Höchstens mal ein CTD, wenn auch relativ selten.

Ich bin sicher, daß kleinste Rechenfehler die bei Banken zu Katastrophen führen, im Alltag kaum bemerkt werden, wenn sie nicht zu einem Bluescreen oder ähnliches führen.

Ich habe hier nur festgestellt, daß die Zielgruppe wohl eine sehr kleine ist. Es gibt aber offensichtlich auch einige Leute, die sich fälschlicherweise dafür halten ;)
Ich glaube sogar, daß sich so mancher Mac Pro Kunde in gewisser Weise weniger von dem "Gamer" unterscheidet, der sich über die Performance seines Systems definiert, als das wünschenswert wäre ;) Damit meine ich die Zielgruppe, die eigentlich keine ist, aber sich an der Zuverlässigkeit ihres überteuerten Systems aufgeilt, die praktisch nicht vorhanden ist für ihre Anwendungen.

Gruß
RIP
 
Zuletzt bearbeitet:
die opterons oder xeons sind nicht zuverlässiger als ihre Desktop Pendants, sie decken nur einen anderen Markt mit anderen Ansprüchen ab. Technisch sind sie identisch, der Support ist natürlich besser (Verfügbarkeit etc.)

gegen einzelne Hardwaredefekte ist man aber dennoch nicht gewappnet und auch der ECC Speicher kann keine "Rechenfehler" beheben.
Hier ist immer bei der Algorithmenentwicklung anzusetzen, Redundanz zu schaffen, Absicherungen einzubauen. All dass ist bei Workstations und Mainframes auf Grund des 100%igen Verfügbarkeitsanspruchs noch viel wichtiger als bei Heimanwendersystemen, eben weil die Hardware immer gleich fehleranfällig bleibt, egal ob es nun eine 3000 Euro Servercpu ist, oder ein 30 Euro Desktopprozessor!

@CHAOSMAYHEMSOAP

die "Zuverlässigkeit" eines Mainframes ist aber nicht deshalb so groß, weil er viel zuverlässigere Hardware hätte, sondern weil große Redundanzen geschaffen werden. Und warum sollten Betreiber von Mainframes über Opterons und Xeons lächeln, wenn ebendiese oft auf solche Prozessoren setzen (gerade Opterons)
 
Zuletzt bearbeitet:
Wiesi21 schrieb:
die "Zuverlässigkeit" eines Mainframes ist aber nicht deshalb so groß, weil er viel zuverlässigere Hardware hätte, sondern weil große Redundanzen
geschaffen werden.
Die Zuverlässigkeit eines Mainframe ergibt sich aber aus der eingesetzten Hardware. ;)
Wiesi21 schrieb:
Und warum sollten Betreiber von Mainframes über Opterons und Xeons lächeln, wenn ebendiese oft auf solche Prozessoren setzen (gerade Opterons)
Weil den x86 Systemen einfach gewisse RAS Features fehlen. Können Xeons oder Opterons ihre Aufgaben einfach an eine andere CPU übergeben, falls sie einen Fehler bemerken? Unterstützen Opterons Hotspare Speicher, wenn mal ein Modul ausfallen sollte? (die aktuellen Xeon Chipsätze 5xxx und 73xx beherrschen das; Mainframes und Highend UNIX Server sowieso).

Schon seit Jahren sagt man den Tod der Mainframedinos voraus, aber sie haben bis jetzt überlebt und IBM scheint damit Erfolg zu haben, denn BigBlue fährt trotz Wirtschaftskrise noch immer gute Gewinne ein. ;)
 
du vergleichst Hard- und Software wie es dir passt.
UNIX Server sagt nichts über die verwendete Hardware aus, ebensowenig Mainframe.
IBM verwendet z.B. oft Opteron Cluster in seinen Systemen. Die von dir genannten Features haben nichts mit den Prozessoren selbst zu tun sondern werden über Hardware (Chipsatz) oder Software geliefert.
Ich sprach nur davon, dass einzelne Hardwareelemente hier nicht zuverlässiger sein müssen als im Desktopsegment, aber durch den gesamtheitlichen Aufbau des jeweiligen Systems wird eine weit bessere Zuverlässigkeit erreicht.
 
Hallo,
habe gerade diesen Thread durchgelesen, weil ich mich gewundert hatte, warum ein Mac Pro mit 2 x 2,26 i7 Xeon - Prozessoren beim Cinebech folgende Werte hat:
Rendering (Single CPU): 2312 CB-CPU
Rendering (Multiple CPU): 18999 CB-CPU

während ein PC mit einem i7-920 2,66 GHz diese Werte aufweist.
Rendering (Single CPU): 3975 CB-CPU
Rendering (Multiple CPU): 16186 CB-CPU


Bei knapp 15 % mehr Takt rendert der i7-920 ca. 80 % schneller, und mit 4 Kernen immerhin noch fast so schnell wie der Mac Pro mit 8 Kernen.

Wie ist das zu erklären?


Dass ein solches Workstation-System in existenziell wichtigen Bereichen durchaus seine Berechtigung hat, soviel konnte ich aus den vergangen Beiträgen herauslesen.

Kann man denn aber andersherum sagen, dass wenn man eine schnelle Maschine für Multimedia-Anwendungen braucht und eben nicht gerade "lebenswichtige" Berechnungen anstellen muss, ein "einfacher PC" mit einem i7 eher die sinnvollere Alternative wäre?

Speziell bei Sachen wie Photoshop, C4D, 3DSMax, Maya, AfterEffects etc.:
welchen Zusatznutzen bringt hier eine Workstation wie der Mac Pro, der mit 2 CPUs nicht schneller ist, als ein halb so teurer PC mit einer CPU?
 
Zuletzt bearbeitet:
meine meinung:

von den stolzen mac-besitzern wird man niemals ein wort hören, dass das system im vergleich zu einem pc nicht unbedingt vorteilhafter sein muss.

vor allem bei workstations kann ich aus erfahrung nur sagen: mac - nein danke.
die gpu ist eben für C4D, 3-DSMax, Maya, Rhino, Adobe usw. nicht gut geeignet. also wenn mann wirklich im bereich CAD und 3D-modeling arbeitet, dann tuts ein gut zusammengestellter pc oder workstation.
zudem ist die software sowieso meist nicht auf 8 cpu's ausgelegt... also wozu? zum rendern? dann kauf ich mir doch gleich 3 gute pc's zum selben preis.

so langsam kommt mir vor, dass die einzigen Zusatznutzungen von einem Mac Pro nur ein schickes aussehen und ein stolzer preis sind.

g
 
sneepo schrieb:
vor allem bei workstations kann ich aus erfahrung nur sagen: mac - nein danke.
die gpu ist eben für C4D, 3-DSMax, Maya, Rhino, Adobe usw. nicht gut geeignet. also wenn

ja, aber was hat denn die gpu mit der reinen Renderleistung zu tun?
Dass die Mac Pros nicht unbedingt die besten Grakas für 3D haben, ist klar.
Hat doch aber nichts mit der Renderleistung zu tun.

Deshalb verstehe ich immer noch nicht, warum ein Mac Pro mit zwei i7-Xeon Prozessoren in etwa die gleiche Renderleistung hat, wie ein PC mit einem einzigen "normalen" i7.
Liegt es am OS?

Und auch das Argument, dass die meisten Programme nicht auf 8 CPUs (oder Kerne) ausgelegt sind, kann man speziell in dem Fall doch auch nicht so einfach sagen, da gerade Cinebench (meines Wissens) u.A. dafür bekannt ist, sämtliche Kerne nutzen zu können.
 
geb ich dir recht.
hab was gefuden was viell. deine frage beantworten kann, ist allerdings schon 1 jahr her:

Der Mac Pro ist eher etwas für anspruchsvolle Anwendungen aus dem CAD/CAM-, Forschungs- und Bildbearbeitungs-Bereich. In diesen Segmenten finden sich parallelisierte Applikationen, die die acht Kerne zum großen Teil ausnutzen. Doch trotz aller Parallelisierung bietet eine Acht-Kerne-Workstation nicht die achtfache Leistung im Vergleich zu einem Single-Core-System. Das liegt zum einen am Betriebssystem, das einige Rechenzeit für die Verwaltung der einzelnen Threads benötigt, und zum anderen daran, dass die Systemarchitektur mit einem Speicherzugriff auf Frontsidebus-Basis die Leistungsfähigkeit der acht Kerne nicht voll ausschöpfen kann. Erst mit dem für Ende des Jahres erwarteten Nehalem-Prozessor, der ähnlich wie AMD-Prozessoren über einen integrierten Speichercontroller verfügt, lassen sich besser skalierende Systeme entwickeln.

Trotz dieses systembedingten Nachteils zeigt der Mac Pro auch mit acht Kernen noch eine zufriedenstellende Skalierung. Mit der Rendering-Software Cinema 4D, die mit dem Cinebench simuliert wird, erreichen die acht Kerne im Vergleich zu einem Single-Core-System eine sechsfache Leistungssteigerung. In der Standardkonfiguration mit 2 mal 1 GByte verschenkt der Mac Pro allerdings Leistung, da dem Speicher nur zwei der vier potentiellen Kanäle zur Verfügung stehen. Erst mit dem Einbau von zwei weiteren Dual-Ranked-Modulen steht die volle Leistung parat.

http://www.zdnet.de/einsatz_von_app...e_im_test_reviewstory-39002311-39189305-3.htm

g
 
Zurück
Oben