News IBM Telum II: 8 Kerne, DPU und 360 MB L2-Cache erschaffen Monster-Chip

Schon beeindruckende Daten, 600mm² bei 8 Kernen in moderner Fertigung. Ich habe keine Ahnung in dem Bereich, aber der Cache pro Kern ist nicht von schlechten Eltern.

Da fragt man sich, ob 3D Stacking da in einer der nächsten Generationen auch ein Thema wird. Keine Ahnung, wie weit Samsung in dem Bereich ist, aber als Laie sieht das nach dem perfekten Anwendungsgebiet für gestapelten Cache aus.
 
  • Gefällt mir
Reaktionen: aid0nex, peru3232 und stefan92x
Z-Systeme der IBM sind einfach kostengünstiger im Verhältnis zur erbrachten Leistung und Ausfallsicherheit in ihrem Segment. Außerdem ist eine x86-Serverfarm auch einfach viel zu langsam. 100 GBit Infiniband Netzwerke sind einfach nicht performant genug.

Was man an der Stelle immer vergisst zu erwähnen, ist die Möglichkeit der Telum CPUs in Echtzeit auf die virtuellen L4-Cache-Bereiche fremder Systeme zuzugreifen, dafür hat IBM eine eigene, proprietäre, serielle Schnittstelle. In kleinerem Maße funktioniert das sogar bei IBM POWER, allerdings nicht über Systemgrenzen hinweg.

Das heißt auch, dass ein über mehrere Systeme geteilter L4-Cache entsprechend niedrige Zugriffszeiten hat und außerdem der Verlust eines kompletten Systems nicht zum Datenverlust bei Transaktionen ohne Logging führt.

Das ist etwas, das kann man nach aktuellem Stand der Technik auf x86, oder ARM gar nicht abbilden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Yesman9277, Novasun, Dgini und 9 andere
Hallo zusammen,

was für ein Monster! Danke an die Ingenieure für dieses interessante Stück Technik, welche sicher einmal in unserer Geschichte Erwähnung finden wird.


Viele Grüße
 
textract schrieb:
Was man an der Stelle immer vergisst zu erwähnen, ist die Möglichkeit der Telum CPUs in Echtzeit auf die virtuellen L4-Cache-Bereiche fremder Systeme zuzugreifen
Genau das ist ja auch so hilfreich, wenn wir über CPU Hot Swap sprechen: Eine laufende CPU kann ausfallen, und die auf dieser CPU laufenden Transaktionen gehen trotzdem nicht verloren. Lässt sich auf x86 nur in Software mit xfach größerem Aufwand realisieren als diese Hardwarelösung.
 
  • Gefällt mir
Reaktionen: Dgini, aid0nex, nyster und eine weitere Person
Um Telum II in Richtung AI zu ergänzen, präsentiert IBM auch eine Beschleunigerkarte, Spyre getauft.

Das (Beschleunigerkarten, nicht nur bzgl. K.I.) könnte auch immer noch eine Option für Mainstream PC Systeme sein, auch wenn man von Voodoo und Co. Beschleunigerzusatz(grafik)karten i.d.R. nur noch nostalgisch redet, wobei vor einigen Jahren auch das Co-Prozessorgerücht/-wunschdenken (bspw. bei Coreteks) umher ging vor der Vorstellung von neuen Grafikkartengenerationen.

Irgendwann lohnt sich Auslagerung/funktionelle Spezialisierung auf eine Zusatzkarte evt. wieder, insbesondere, wenn die Fertigung irgendwann (den Leistungszuwachs-Ansprüchen an eine dGPU-Generation in allen Bereichen) nicht mehr (kosten- und/oder leistungstechnisch) hinterher kommen sollte.

Auch schön zu sehen, dass IBM da immer noch mitmischt/hervorsticht in bestimmten Bereichen und das "nur" mit (5nm) Samsung-Fertigung der Produkte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Shoryuken94
stefan92x schrieb:
Services noch und nöcher werden entwickelt und auf x86-Servern betrieben (bzw gleich "in der Cloud"), man digitalisiert ja schließlich den Konzern und erschließt sich neue Märkte etc
In solchen Umfeldern bin ich (ewig) unterwegs. Wobei ich die Entscheidungen dort historisch nachvollziehen kann.

Das sind zumeist alles individualisierte, aber vor allem über Jahre (oder Jahrzehnte) gewachsene Systeme. Und viele davon sind von den Anforderungen zumeist an der Grenze, die den Host noch nicht rechtfertigt.
Und solange die Online-Akitivitäten und der Rest in der Nachtverarbeitung mit den bestehenden Architekturen möglich sind, wird niemand wechseln. Aber selbst wenn halte ich die Scheu für hoch, da das Thema "uncool" erscheint und es daher schon auf Personalseite (intern und extern) schwierig werden würde/könnte.
 
  • Gefällt mir
Reaktionen: stefan92x
Cr4y schrieb:
Wie viel Performance bringt es denn, die Caches der CPUs für andere CPUs zur Verfügung zu stellen? Ist das relevant schneller als der Zugriff auf den selben RAM?
Neben den Reaktionszeiten kommt vor allem noch etwas dazu: Enorme Bandbreite.

Krik schrieb:
So mal in den Raum gefragt:
Oder anders: Warum sollte eine Bank auf einen Mainframe statt einer Serverfarm setzen?
Letzteres erscheint mir sinnvoller, da hier sicher mehr Transaktionen gleichzeitig abgearbeitet werden können.
Erstens: Ausfallsicherheit - die Dinger laufen quasi immer, egal was passiert. Sie können auch den Ausfall von Komponenten im laufenden Betrieb kompensieren - das ist in der X86-Welt nur sehr eingeschränkt vorgesehen.
Bei so einem System kannst du aber im laufenden Betrieb auch einfach eine (defekte) CPU auskonfigurieren, ersetzen und wieder einkonfigurieren.
weitens: Was da so nicht steht und eher dünner gesähtes Wissen ist: Die Architektur is speziell auf Transaktionen ausgelegt, d.h. sie erzielt dort enormen Durchsatz, der deutlich oberhalb regulärer Xeon/Epyc/Irgendwas Büchsen liegt.
Letztendlich sind auch viele Programme für diese Architektur steinalt und niemand will sie anfassen oder gar neu bauen - womit eine Migration einfach keine Option ist.

Was scheinbar niemandem aufgefallen ist:
Die 8 CPU-Kerne markieren tatsächlich 9. Der Grund ist einfach:
1. Kann IBM so 8kerner verkaufen, bei denen ein Kern defekt ist (was bei so großen CPUs durchaus vorkommt)
2. Kann der Kern als Reservekern vorgehalten werden - die CPU ist nicht defekt, wenn ein Kern ausfallen sollte

Ob das wirklich so ein "Black Rock"-Produkt ist, weiß ich nicht. Aber Banken und Zahlungsanbieter wie Mastercard etc. haben sowas idR. im Einsatz.
 
  • Gefällt mir
Reaktionen: nyster, Piktogramm und ComputerJunge
textract schrieb:
Das heißt auch, dass ein über mehrere Systeme geteilter L4-Cache entsprechend niedrige Zugriffszeiten hat und außerdem der Verlust eines kompletten Systems nicht zum Datenverlust bei Transaktionen ohne Logging führt.
Eine Transaktion verliert per Definition keine Daten, sonst ist es keine Transaktion.
 
  • Gefällt mir
Reaktionen: Nagilum99 und Piktogramm
Und wo zu brauchen Systeme für Zahlungsdienstleister AI Beschleuniger? Sollen die etwa das Geld der Kunden automatisiert und in Echtzeit verzocken können? :P
 
foofoobar schrieb:
Eine Transaktion verliert per Definition keine Daten, sonst ist es keine Transaktion.
Richtig. Aber auf x86 müsste eine solche Transaktion dann abgebrochen und in der Software neu gestartet werden. z kann das in Hardware auf eine andere CPU schieben, ohne dass die Software das abfangen muss.
Ergänzung ()

kiffmet schrieb:
Und wo zu brauchen Systeme für Zahlungsdienstleister AI Beschleuniger? Sollen die etwa das Geld der Kunden automatisiert und in Echtzeit verzocken können? :P
Im Gegenteil geht es hauptsächlich darum, dass Geld der Kunden vor Betrügern zu schützen. Man versucht da vor allem potentielle Betrugsfälle zu erkennen und gegenbenfalls zu stoppen, bzw einer manuellen Prüfung zuzuführen.
 
  • Gefällt mir
Reaktionen: Yesman9277 und Nagilum99
stefan92x schrieb:
Richtig. Aber auf x86 müsste eine solche Transaktion dann abgebrochen und in der Software neu gestartet werden. z kann das in Hardware auf eine andere CPU schieben, ohne dass die Software das abfangen muss.
Und was ist mit den Daten in den Registern bzw. den anderen Caches?
 
  • Gefällt mir
Reaktionen: Piktogramm
@Krik: Viel wurde auch hier dazu schon geschrieben. Ich versuche trotzdem mal, es (nochmal) zusammenzufassen/zu ergänzen.
Mainframes sind spezielle Computer-Systeme. Sie bieten reproduzierbare Leistung mit definiertem Umfang zusammen mit unvergleichbarer Zuverlässigkeit bei vergleichsweise niedrigem Preis.

Mit Standard-Hardware kriegt man immer nur 2, höchstens 3 Punkte zusammen.

Definierter Umfang:
Für Mainframes gilt ein wenig das Apple-Motto: "Alles aus einer Hand". Da sämtliche Hardware bekannt ist, kann die Software ziemlich genau auf die Hardware zugeschnitten werden. Hardware-Zertifizierungen sind einfacher, Funktionalität (und deren Laufzeit) besser planbar.
Auf x86 kann jeder machen, was er will. AMD? Intel? Und wenn ja, welchen Funktionsumfang bieten die CPUs? OS... Linux? BSD? Windows? Beschleuniger von nVidia oder AMD? Oder ganz was obskures? Welche Interconnects? Dazu noch ständig wechselnde Software machen daraus eine Hölle der ständigen Veränderungen.

Reproduzierbare Leistung:
Es gibt aktuell keine Technik im "Casual"-Hardware-Bereich, der klar definierte Performace-Profile aufs Megahertz genau anbieten kann. Die einzelnen VMs schwanken selbst mit dem besten Scheduler immer ein wenig. Aber schon ein paar Megahertz können reichen, damit Messungenauigkeiten auftreten können. (Ich beziehe mich hier bewusst nur auf die CPU. Aber für RAM und IO gilt das natürlich auch.)
Wenn man das reproduzieren wöllte, bräuchte man ziemlich viele VMs über viele Hardware-Systeme hinweg, um deren Ergebnisse zu vergleichen und quasi den "besten Schnitt" zu nehmen.

Zuverlässigkeit:
Im Artikel steht schon, dass die Systeme geplant weniger als 1h in mehr als 10.000 Jahren ausfallen sollen. Im Vergleich: Normale Rechenzeiten haben eine Zuverlässigkeit von 99,9 oder 99,99% (das sind schon die deutlich teureren). Das bedeutet, dass das ganze RZ mal eben fast 9 Stunden bzw. immernoch 1 Stunde pro Jahr KOMPLETT offline sein kann. Jede "weitere 9" kostet Unsummen, verteilt auf mehrere Rechenzentren auf dem Planeten.
Denn bei den Kunden der "Hosts", wie sie auch gern genannt werden, geht es nicht darum, ein paar Schuhe zu verkaufen. Hier laufen im Sekundentakt Milliarden durch. Die Auswirkungen können daher überlebenswichtig für Banken oder andere Institute sein.

Und der Preis... Nun, das wurde schon auf Seite 1 von @=dantE= hervorragend dargestellt. Bei den Mainframes ist die Ausfallsicherheit inhärent. Du kannst im laufenden Betrieb ein Blade oder CPU aus dem Sockel ziehen und als User merkst du das nur, weil im Log irgendwo sinngemäß vermerkt ist: "Komponente XY faulted". Deine Ergebnisse sind aber zu keiner Zeit in Gefahr. Das kriegt man alles auch mit Standard-Hardware hin. Dort aber nur, indem man MASSIV skaliert. Mehrere Systeme müssten verteilt die gleiche Arbeit (in ähnlicher Zeit) berechnen und die Ergebnisse abgleichen. Das hat aber schon wieder Latenz-Mali (Malusse? hmmm...) , weswegen die Systeme sogar deutlich schneller rechnen müssten, nur um das wieder auszugleichen.

Leider alles nicht so trivial wie es anfangs erscheint. :)

Regards, Bigfoot29

PS: Es gibt aber auch Fälle, in denen sich die Betreiber schlicht weigern, die Infrastruktur zu wechseln. Zitat "es läuft ja (noch)". Hab ich auch schon erlebt. Da werden auch heute noch Entwickler für Cobol geschult, weil da ein Mainframe für die Berechnung der Gehälter der Stadtverwaltung genutzt wird. Bzgl. Aktualisierung spielt man Beamtenmikado. Wer sich zuerst bewegt, verliert. Denn das Risiko, dass es initial nicht besser als früher läuft, ist groß. Also lässt man es laufen und hofft, das 50 Jahre alte Technik auch in 20 Jahren noch läuft. :/
 
  • Gefällt mir
Reaktionen: =dantE=, Yesman9277, knoxxi und 8 andere
kiffmet schrieb:
Und wo zu brauchen Systeme für Zahlungsdienstleister AI Beschleuniger? Sollen die etwa das Geld der Kunden automatisiert und in Echtzeit verzocken können? :P
Immer wenn du irgendwo "AI" liest ersetze es mit "Signalverarbeitung", "Statistik", "Mustererkennung" und/oder "Musterreplikation"

Auf großen Datenbanksystemen u.a. im Finanzwesen quasi parallel und in Echtzeit angenäherte Statistik laufen zu haben, Muster bzw. Abweichungen davon erkennen zu können und dafür praktisch keine CPU-Zeit aufwenden zu müssen? Träumchen!
 
  • Gefällt mir
Reaktionen: Yesman9277, knoxxi, Nagilum99 und 4 andere
Piktogramm schrieb:
Für die Fraud Protection bei Echtzeitüberweisung durchaus eines mit Realisierungsbedarf. Die "Frametime" hat schon nur maximal 10 Sekunden. Da schwitzen gerade immer noch einige, glaube ich. ^^
 
  • Gefällt mir
Reaktionen: Yesman9277 und nyster
Schön langsam ist das auch für den interessierten Normalbürger nur noch Zauberei... die Bevölkerung kann mit dem Fortschritt nicht mehr mithalten.

Das führt zu Wissenschaftsunglauben und Esoterik in allem Möglichem.
Verpflichtendes monatliches lesen von Geo, PM, CB, Industrie-Magazine usw. sollte eingeführt werden.
Die breite Masse hat ja keine Ahnung was abgeht!

Da bekommt der Zeilinger den Nobelpreis für "Beamen" bzw. Quantenverschränkung, Quantenrechner stehen vor der kommerziellen Nutzung, KI macht schon viele arbeitslos und währenddessen schimpft die Bevölkerung noch fast wegen dem Umstieg von Kerzen auf Petroleum...
:evillol: :evillol: :evillol:

Chat CPT illustriert meinen obigen Text so:
 

Anhänge

  • DALL·E 2024-08-27 17.17.49 - A scene depicting a modern society where technological progress ...webp
    DALL·E 2024-08-27 17.17.49 - A scene depicting a modern society where technological progress ...webp
    280,1 KB · Aufrufe: 84
  • Gefällt mir
Reaktionen: LamaMitHut
Danke für die Ausführungen @Bigfoot29

Nahezu absolute Ausfallsicherheit ist aber auch langweilig .
Wo bleibt den da der Thrill .....nach einem Windowsupdate was den Druckertreiber zerschießt :)
Oder man mühsam herausfinden danach was wieder nicht funktioniert .
 
Ich bin so ein IT Nerd und trotzdem entstanden beim Lesen des Artikels so viele Fragen in meinem Kopf... Angefangen bei "Es gibt heutzutage noch Mainframe Computer?! Wofür?" - abgesehen vom auf den IBM Folien genannten Beispiel Finanzdienstleister/Kreditkartenanbieter (was mir durchaus einleuchtend erscheint) fällt mir aber auch kein weiterer use case ein. Dann fragte ich mich, welche Architektur bzw. welches Instruction Set diese Chips überhaupt haben - laut Wikipedia "z/Architecture" (mir vorher auch komplett unbekannt). Wie das mit dem "virtuellen" L3/4 Cache funktionieren kann, will mir auch nicht in meine Birne rein gehen. :D Aber sehr spannend, vielleicht sollte ich mich in dieses Thema mal stärker einlesen!

Ergänzung: Natürlich musste IBM mit Telum II noch "AI" mit in's Produktportfolio bzw. Marketing bringen. ;)
 
Zuletzt bearbeitet:
"How Much Is the Fish?" .... ich meine "... the Monster-Chip"
 
  • Gefällt mir
Reaktionen: konkretor
aid0nex schrieb:
Finanzdienstleister/Kreditkartenanbieter
Wobei das für sich eher wie eine Nische wirkt, aber die Anzahl der Finanztransaktionen ja weltweit "explodiert". Wenn ich beispielsweise früher 100€ Bargeld über x Tage beim gleichen Bäcker (ok, Backwarenladen) gelassen hatte, habe ich in der Summe viel weniger Transaktionen erzeugt als heutzutage, wenn ich jeden Kauf dort bargeldlos mache.

Genereller UseCase: Hoher Durchsatz (mit I/O) und (transaktionaler) Sicherheitsbedarf -> Auf https://amc-ev.org/was-sind-mainframes/ stehen ein paar weitere Beispiele für Nutzergruppen.
 
  • Gefällt mir
Reaktionen: Bigfoot29 und aid0nex
Zurück
Oben