Eisenfaust
Banned
- Registriert
- Feb. 2007
- Beiträge
- 1.212
RIP1981 schrieb:Hallo allerseits.
Kann mir jemand von euch mal erklären für wen und unter welchen Umständen sich Workstationprozessoren wie die Xeons lohnen?
Ich habe das Gefühl, daß sich viele auch z.B. einen Mac Pro mit nur einem einzelnen Xeon Quadcore für wahnsinnig viel Geld kaufen. Was bringt das da? Wo liegen generell die Vorteile? Für den Preis eines passenden Mainboards, passender RAM Riegel und dem Prozessor selbst kriegt man doch einen deutlich höher getakteten normalen Quadcore mit wahlweise mehr RAM und einer besseren Grafikkarte etc.
(Gerade die Mac Pros, die gar nicht als überteuert für Workstations gelten, sind ja wahnsinnig teuer. Was kriegt man da für Hammer Desktop Systeme für?)
Der dürfte für Multimediaanwendungen schneller sein, für Spiele flotter und auch schneller rendern. Ich habe jetzt nicht genau die Preisdifferenz nachgesehen, aber ich kann mir nicht vorstellen, daß ein ~2,2 GHz Xeon einen z.B. 2,8 GHz Desktop Nehalem Quadcore (i7?) auch nur in irgendeinem Segment schlägt.
Welche ganz speziellen Features bietet der Nehalem Xeon gegenüber dem Nehalem Desktop und wieviel bringen die für allgemeine Aufgaben?
Es wird auch immer von höherer Zuverlässigkeit gesprochen. Wie äußert sich das? Es gibt doch genügend völlig stabile reguläre Desktop Quadcoresysteme die stundenlang/tagelang durchrendern können ohne einen Absturz, oder?
Ich kann mir vorstellen, daß es was bringt wenn man mehrere Prozessoren auf einem Mainboard einsetzt. 2 oder noch mehr ... das dann die Desktopvariante nicht mehr so gut skaliert, wenn man überhaupt Mainboards dafür findet. Insofern vielleicht 4 Quadcore Xeon Prozessoren z.B. zusammen.
Für High End Server mit sehr hoher Auslastung sicher sinnvoll. Wobei ich mich z.B. auch beim Rendern frage ob man nicht auch da besser wegkommt, wenn man für den Preis möglichst viele günstige Desktopsysteme vernetzt und z.B. die Animationsbilder auf die Systeme aufteilt.
Wo liegt noch der Vorteil, wenn sich jemand so eine Workstation für alle Alltagsaufgaben und ein wenig Rendern hinstellt? Gibt es da einen?
Gruß
RIP
Es ist ein alter Hut, daß Dienstleistungen in Form von längerer Verfügbarkeitsgarantie, besserer Unterstützung in Sachen Zuverlässigkeiten etc. von Herstellern höher taxiert werden. Bei AMDs Opteron ebenso wie bei Intels XEON. Bei Intel darf man im Moment zusehen, wie alle 6 Monate neue CPUs den Markt betreten und kleinere, vielleicht nichteinmal 2 Jahre alte Siliziumkalkulationskörperchen vom Markt genommen werden. Wie lange weiß ich nun konkret nicht, aber bei XEON- und Opteron-Prozessoren garantiert der Hersteller jeweils eine deutlich längere Verfügbarkeit. Das wird dann wichtig, wenn Du einmal Deine Gedanken aus der Kinder- und Wohnzimmerwelt herausführst. Der Fiskus sagt, daß erst nach drei Jahren ein Investitionsgut 'abgeschrieben' ist. Mindestens so lange, statistisch ermittelt aber noch ein bis zwei weitere Jahre mehr stehen also größere Server und Workstations an ihren Plätzen und arbeiten. Wenn nun in dieser Zeit eine CPU defekt gehen würde und kein Ersatz vorhanden wäre, hätte man eventuell zig 10 - 100 Tausend Euro in den Sand gesetzt.
Weiter können CPU Hersteller bei höheren Preismargen auch 'bessere' Controllereinheiten in die CPUs pflanzen, wobei dies in meinen Augen ein reiner Marketing-Gag ist, wie AMD lange Zeit bewies und wie Intels neue Core-i7-XEONs auch zeigen. Die Speichercontroller dieser Bausteine für den Servermarkt 'können' in der Regel mehr, sie steuern buffered/registered ECC Speicher an, während ihre billigen Desktop-Kollegen darauf verzichten. ECC Speicher ist überall dort wichtig und notwendig (sine conditio qua non), wo es auch die Elemination von Spontanfehlern, wie sie nun mal bei Transistoren von der Größe weniger Atom- oder Molekülradien aufgrund quantenmechanischer oder einfacher radiogener Effekte auftreten können. Einfaches Beispiel: naturwissenschaftlich-mathematische Berechnung einer Kernfusion, der Flugbahn eines Himmelskörpers, eines Satelliten oder, ganz populär, Faltungsprozesse von Peptidketten oder thermodynamische Prozesse in der Atmosphäre unseres oder eines fremden Planeten (Wettervorhersage, für Saturn und Jupiter oder des Saturnmondes Titan weniger für unsere Wettervorhersage interessant, aber von wissenschaftlichem Wert). Modelle zur Berechnung solcher Prozesse laufen, je nach Komplexität, Tage, wenn nicht sogar Wochen, ich habe mit einem Modell gearbeitet, was mir erst nach 6 Wochen Ergebnisse liefern konnte. Wenn sich in solch komplexen Systemen ein unerkannter Bitfehler einschleicht und aus der Zahl Pi mit rund 3,1415926 plötzlich 4,8824 wird 9nur als Beispiel), hast Du Probleme! Du kannst Deine Ergebnisse wegwerfen.
Oh, vielleicht ein anderes Beispiel, aus dem Bereich der Wirtschaft. Stell Dir vor, Dein Anlagenberater berät Dich falsch, weil sein Rechner Prognosen aufgrund eines Bitfehers falsch berechnet. Oder Deine Bank 'verliert' plötzlich 500 Euro von Deinem Girokonto, weil sich bei der Berechnung des Jahressaldos ein Bitfehler eingeschlichen hat. Die Wahrscheinlichkeit, daß es gerade Dir passiert, ist sehr gering, aber wenn ein solcher Computer 24/7 läuft, das RAM unter Dauerlast steht und Du das auf 1000 Banken umlegst, kommt eine doch signifikante Wahrscheinlichkeit eines Fehlers zustande. Ich möchte nicht, daß es mir passiert!
Dein Argment, viele kleine Rechner zum Rendern zu verwenden ist zweischneidig. Googles Modell, viele kleine billige Systeme zur Lösung einer Aufgabe heranzuziehen, läßt sich nicht auf alle Probleme anwenden. ZUm einen muß die Software darauf augelegt sein, auf Knoten parallel rechnen zu können (und das ist die wenigste!), andererseits mußt Du auch bedenken, daß viele kleine Systeme auch viele Energieversorgungen benötigen und die Verbindung zwischen den Knoten ebenfalls mit logischem und energetischem Aufwand verbunden ist. Zudem kommen Latenzen hinzu, die unter Umständen, je nach Modellierung der Aufgabe und Anforderung, bei zu vielen Knoten den Vorteil des 'Clusters' wieder zunichte machen. Rechner mit vielen Prozessoren oder Kernen in einem logischen UND elektrischen Verbund (NUMA Systeme wie Opteron und Core-i7 mit mehr als einem Sockel) haben nun einen Energie-Vorteil gegenüber Einzelrechnern mit je einer CPU, Speicher, Netzteil blablabla. Bedenke, daß die entstehende Wärme abgeführt werden muß und gemäß den Gesetzen der Physik ist dazu ebenfalls ein gewisser Energieaufwand nötig!