@Krik: Viel wurde auch hier dazu schon geschrieben. Ich versuche trotzdem mal, es (nochmal) zusammenzufassen/zu ergänzen.
Mainframes sind spezielle Computer-Systeme. Sie bieten reproduzierbare Leistung mit definiertem Umfang zusammen mit unvergleichbarer Zuverlässigkeit bei vergleichsweise niedrigem Preis.
Mit Standard-Hardware kriegt man immer nur 2, höchstens 3 Punkte zusammen.
Definierter Umfang:
Für Mainframes gilt ein wenig das Apple-Motto: "Alles aus einer Hand". Da sämtliche Hardware bekannt ist, kann die Software ziemlich genau auf die Hardware zugeschnitten werden. Hardware-Zertifizierungen sind einfacher, Funktionalität (und deren Laufzeit) besser planbar.
Auf x86 kann jeder machen, was er will. AMD? Intel? Und wenn ja, welchen Funktionsumfang bieten die CPUs? OS... Linux? BSD? Windows? Beschleuniger von nVidia oder AMD? Oder ganz was obskures? Welche Interconnects? Dazu noch ständig wechselnde Software machen daraus eine Hölle der ständigen Veränderungen.
Reproduzierbare Leistung:
Es gibt aktuell keine Technik im "Casual"-Hardware-Bereich, der klar definierte Performace-Profile aufs Megahertz genau anbieten kann. Die einzelnen VMs schwanken selbst mit dem besten Scheduler immer ein wenig. Aber schon ein paar Megahertz können reichen, damit Messungenauigkeiten auftreten können. (Ich beziehe mich hier bewusst nur auf die CPU. Aber für RAM und IO gilt das natürlich auch.)
Wenn man das reproduzieren wöllte, bräuchte man ziemlich viele VMs über viele Hardware-Systeme hinweg, um deren Ergebnisse zu vergleichen und quasi den "besten Schnitt" zu nehmen.
Zuverlässigkeit:
Im Artikel steht schon, dass die Systeme geplant weniger als 1h in mehr als 10.000 Jahren ausfallen sollen. Im Vergleich: Normale Rechenzeiten haben eine Zuverlässigkeit von 99,9 oder 99,99% (das sind schon die deutlich teureren). Das bedeutet, dass das ganze RZ mal eben fast 9 Stunden bzw. immernoch 1 Stunde pro Jahr KOMPLETT offline sein kann. Jede "weitere 9" kostet Unsummen, verteilt auf mehrere Rechenzentren auf dem Planeten.
Denn bei den Kunden der "Hosts", wie sie auch gern genannt werden, geht es nicht darum, ein paar Schuhe zu verkaufen. Hier laufen im Sekundentakt Milliarden durch. Die Auswirkungen können daher überlebenswichtig für Banken oder andere Institute sein.
Und der Preis... Nun, das wurde schon auf Seite 1 von
@=dantE= hervorragend dargestellt. Bei den Mainframes ist die Ausfallsicherheit inhärent. Du kannst im laufenden Betrieb ein Blade oder CPU aus dem Sockel ziehen und als User merkst du das nur, weil im Log irgendwo sinngemäß vermerkt ist: "Komponente XY faulted". Deine Ergebnisse sind aber zu keiner Zeit in Gefahr. Das kriegt man alles auch mit Standard-Hardware hin. Dort aber nur, indem man MASSIV skaliert. Mehrere Systeme müssten verteilt die gleiche Arbeit (in ähnlicher Zeit) berechnen und die Ergebnisse abgleichen. Das hat aber schon wieder Latenz-Mali (Malusse? hmmm...) , weswegen die Systeme sogar deutlich schneller rechnen müssten, nur um das wieder auszugleichen.
Leider alles nicht so trivial wie es anfangs erscheint.
Regards, Bigfoot29
PS: Es gibt aber auch Fälle, in denen sich die Betreiber schlicht weigern, die Infrastruktur zu wechseln. Zitat "es läuft ja (noch)". Hab ich auch schon erlebt. Da werden auch heute noch Entwickler für Cobol geschult, weil da ein Mainframe für die Berechnung der Gehälter der Stadtverwaltung genutzt wird. Bzgl. Aktualisierung spielt man Beamtenmikado. Wer sich zuerst bewegt, verliert. Denn das Risiko, dass es initial nicht besser als früher läuft, ist groß. Also lässt man es laufen und hofft, das 50 Jahre alte Technik auch in 20 Jahren noch läuft. :/