News Hot Chips 33: IBMs Telum-Architektur setzt auf 32 MB L2-Cache – pro Kern

Ach was würden wir nur machen wenn es diese Pionier Arbeit nicht geben würde🥰
 
milliardo schrieb:
Patent technisch ja.
Das die CPUs nicht im Windows Rechner ihren Platz finden, ist leider so.
 
milliardo schrieb:
Jährlich grüßt die IBM-Wunder-CPU, die dann wieder nur die IBM-üblichen Nischen bedient.
Von welchen Wunder-CPUs und von welchen Nischen sprichst du?
Warst du mal in High-End-Rechenzentren?
Für den wichtigen Workload nutzen die meisten Großkonzerne Hardware von IBM.

Wenn du viel Performance brauchst, kommst du da gar nicht dran vorbei.

Selbst bei SAP empfiehlt man meistens HANA auf Power zu betreiben

Falls du dich noch daran erinnerst: Lidl hat 500 Millionen € in den Sand gesetzt und musste dann das Projekt abblasen, weil sie ihr ERP nicht von Power / AIX auf HANA unter x86 migrieren konnten.
 
textract schrieb:
Von welchen Wunder-CPUs und von welchen Nischen sprichst du?
Warst du mal in High-End-Rechenzentren?
Für den wichtigen Workload nutzen die meisten Großkonzerne Hardware von IBM.
Nur als Beispiel: https://t3n.de/news/weltpremiere-ibm-2nm-nanometer-prozessor-1377546/

Oder eben die News von heute. IBM landet regelmäßig mit irgendwelchen fantastischen Schlagzeilen in den News, die einen ob der technisch interessanten Ansätze subjektiv erwarten lassen würden, dass da IT-Revolutionen losgetreten würden. Revolutionen, die sich seit Jahrzehnten nicht wirklich in den Geschäftszahlen oder der Marktdurchdringung niederschlagen. Aber das sollte kein Diss sein. Dort wo IBM-CPUs hauptsächlich eingesetzt werden (bspw. Mainframes - keine "Nische"?) sind die vermutlich nicht leicht ersetzbar.
 
Zuletzt bearbeitet:
milliardo schrieb:
Jährlich grüßt die IBM-Wunder-CPU, die dann wieder nur die IBM-üblichen Nischen bedient.
Die Z-Serie ist eine Serie mit Nischenfokus, entsprechend dürfte es eigentlich nicht überraschen, dass sie auch Nischen bedienen wird.
Die gleiche Nische gibt es eigentlich auch im x86-Gaming-Bereich und zwar im Legacygaming: Für alte Spiele, die nur einen, maximal zwei Threads nutzen, wäre es durchaus praktisch zwei derart aufgeplusterte Kerne zu haben. Ebenso ist die Z-Serie eben dafür gedacht, Programme mit geringem parallelen Anteil zu beschleunigen...

Würden CPUs für Gaming entwickelt werden, dann würde man in Zukunft sicherlich wenige fette Kerne, viele normale Kerne und einige Effizienzkerne mit einander kombinieren. Eine CPU, die mit Gaming als Fokus und nicht als Nebenanwendung entwickelt wurde, gab es aber noch nie.
 
milliardo schrieb:
Nur als Beispiel: https://t3n.de/news/weltpremiere-ibm-2nm-nanometer-prozessor-1377546/

Oder eben die News von heute. IBM landet regelmäßig mit irgendwelchen fantastischen Schlagzeilen in den News, die einen ob der technisch Interessanten Ansätze subjektiv erwarten lassen würden, dass da IT-Revolutionen losgetreten würden.
Dir ist aber schon klar, dass der verlinkte Artikel ein PoC ist, oder? Das ist weit davon entfernt marktreif zu sein.

Der heutige Artikel beschreibt eine CPU, die in Kürze in den Markt entlassen wird. Klar, Mainframe ist natprlich Nische, aber es geht bei News um IBM nicht immer nur um Mainframe, sondern auch um Power und Power ist eben keine wirkliche Nische, zumindest nicht in großen Rechenzentren.

IBM stellt die Speerspitze der CPU-Leistung auf dem globalen Markt. Dass man sowas in seinem Spielzeug-Rechner unter dem Schreibtisch nicht findet, dürfte wohl klar sein.

IBM betreibt vor allem Forschung und außerdem benutzen IBMs Prozessoren keine x86_amd64 ISA, wir Endanwender werden davon nie etwas sehen.

Die aktuell einzigen "Consumer"-CPUs von IBM sind / waren in den Bordcomputern von BMW-PKW, ich weiß aber nicht, ob BMW noch Power verbaut.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Terrordrome
milliardo schrieb:
Dort steht auch direkt nahezu alles wichtige in der News mit drinne: Es stammt aus einem Forschungslabor, es ist ein reines Proof-Of-Concept-Ding, IBM fertigt in der Praxis wo anders, 2nm orientiert sich an den Marketingbezeichnungen der "echten" Fabs, IBM hat es in der Vergangenheit bei 5nm-ProofOfConcept genauso gemacht...

Anders gesagt: Wenn man versteht, was da steht, ergibt sich nicht die Erwartung, dass IBM die Resultate überhaupt selber anwenden möchte.
textract schrieb:
Die einzigen "Consumer"-CPUs von IBM sind / waren in den Bordcomputern von BMW-PKW, ich weiß aber nicht, ob BMW noch Power verbaut.
Ich dachte erst, du meintest, dass IBM noch nie CPUs für Consumergeräte gebaut hätte. Aber nein, das sind / waren bezieht sich nur auf den BMW-Einzelfall.
 
Ich finde es super, dass sie auch IMS und VSAM unterstützen. Das ist mal wahre Investitionssicherheit :P

textract schrieb:
Dir ist aber schon klar, dass der verlinkte Artikel ein PoC ist, oder? Das ist weit davon entfernt marktreif zu sein.
Marketingreif meinst du, oder? Mit 2nm wird daran auch final nicht viel was zu tun haben. 10 Atome reichen halt einfach nicht fuer einen Transistor :P
 
textract schrieb:
Dir ist aber schon klar, dass der verlinkte Artikel ein PoC ist, oder? Das ist weit davon entfernt marktreif zu sein.

Der heutige Artikel beschreibt eine CPU, die in Kürze in den Markt entlassen wird. Klar, Mainframe ist natprlich Nische, aber es geht bei News um IBM nicht immer nur um Mainframe, sondern auch um Power und Power ist eben keine wirkliche Nische, zumindest nicht in großen Rechenzentren.
Ja, wie so oft in den letzten Jahren. Es geht mir auch weniger um "die eine" Meldung - es war einfach das erste, das ich gefunden habe. IBM ist nicht nur tüchtig im patentieren, sondern auch sehr tüchtig, wenn es um die Kommunikation ihrer fantastischen Erfindungen/Produkte/PoC geht. Gleichzeitig hat es der alte "IT-Dinosaurier" IBM schwer, in beinahe all ihren Geschäftsfeldern nennenswert organisch zu wachsen, oder gar neue zu erschließen.

So nehme ich das jedenfalls wahr - bzw. entnehme ich es den Geschäftszahlen.
 
textract schrieb:
Selbst bei SAP empfiehlt man meistens HANA auf Power zu betreiben
Naja, die Alternative ist bei SAP halt ein Xeon, Epyc hat sich bis zu SAP wohl noch nicht durchgeschlagen.Daher würde ich SAP nicht als Massstab nehmen.
Aber prinzipiell hast du vollkommen Recht. Die Mainframes sollen den Gerüchten nach seit 20 Jahren sterben und sind aber immer noch unersetzbar. Jede größere Firma hat seine Fertigung darauf laufen, weil die einfach in ihren Anwendungsszenarien überlegen sind.
 
Also meiner Meinung nach, war IBM sehr wohl schon einmal im Mainstream-Bereich vertreten. Ich erinnere nur an die Cell-CPU der Playstation 3. Auch wenn es eine Kooperation mit Toshiba und Sony war.
 
  • Gefällt mir
Reaktionen: Skysnake und GT200b
textract schrieb:
Von welchen Wunder-CPUs und von welchen Nischen sprichst du?
Warst du mal in High-End-Rechenzentren?
Für den wichtigen Workload nutzen die meisten Großkonzerne Hardware von IBM.

Wenn du viel Performance brauchst, kommst du da gar nicht dran vorbei.

Selbst bei SAP empfiehlt man meistens HANA auf Power zu betreiben

Falls du dich noch daran erinnerst: Lidl hat 500 Millionen € in den Sand gesetzt und musste dann das Projekt abblasen, weil sie ihr ERP nicht von Power / AIX auf HANA unter x86 migrieren konnten.

Wenn du mit Großkonzerne die meinst, die seit Dekaden IT Infrastruktur betreiben und es nicht geschafft haben auf neuere Technologien zu migrieren dann ja.

Ansonsten bestehen High End Rechenzentren fast ausschließlich aus x86 Rechner, je nach Anwendungsgebiet auch mit 1-8 Nvidia GPUs. Fast niemand nutzt mehr freiwillig riesige NUMA Systeme, einzige Ausnahme sind der Bereich an (älteren) Datenbanken die zu groß für klassische Dual Socket Systeme sind aber nicht groß genug dass diese über viele Computer skalieren müssen.
IBM bedient hier allein einen Markt für den es halt einfacher ist immer mal wieder etwas schnellere Hardware von IBM zu kaufen als große chaotische Legacy Codebases auf moderne Shared Nothing Cluster zu migrieren.
 
  • Gefällt mir
Reaktionen: QDOS
GeForce256 schrieb:
Also meiner Meinung nach, war IBM sehr wohl schon einmal im Mainstream-Bereich vertreten. Ich erinnere nur an die Cell-CPU der Playstation 3. Auch wenn es eine Kooperation mit Toshiba und Sony war.

Auch in der Nintendo Wii saß eine IBM CPU. - Ein PowerPC 750 CL "Broadway". Und die Wii hat sich verkauft wie doof. - Da kann man schon sagen, dass die Dinger im "Mainstream" waren. - Zumindest wenn man mit "Mainstream" wirklich den ganzen Markt betrachtet und alles was ne CPU drin hat.

Ich meine in der Wii U saß auch eine IBM-CPU. Die war aber soweit ich weiß nicht näher spezifiziert. Oder ich erinnere mich gerade nicht mehr dran.

Im reinen "Heim-Computer" ist IBM dann zwar nicht im Mainstream aber da hatten die auch bis jetzt vom Gefühl her wenig Iinteresse dran.
 
GeForce256 schrieb:
Also meiner Meinung nach, war IBM sehr wohl schon einmal im Mainstream-Bereich vertreten. Ich erinnere nur an die Cell-CPU der Playstation 3. Auch wenn es eine Kooperation mit Toshiba und Sony war.
Schon die Apple Power Macs vergessen? :-) Apple ist erst 2006 ca komplett umgestiegen auf x86.

Und auch in der Xbox360 lief eine Dreikern CPU von IBM :)
 
  • Gefällt mir
Reaktionen: anm256
.

Kann man alles machen - wenn man einen Markt dafür hat.
Und den hat IBM ja tatsächlich - nämlich den internen IBM Markt.

Ansonsten dürften diese Chips vor allem eines sein: *sauteuer

Aber wenn diese Kosten in einem Mainframe stecken, dann fällt es halt nicht ganz so auf,
vor allem wenn sich das Gesamtkunstwerk auf Dauer rechnet.
Die Kosten eine solche Architektur über lange Zeit aufrecht zu erhalten (und zu pflegen!) sind immens.

Ansonsten schlafen Intel und AMD da ja auch nicht,
da kommt auch noch einiges:

Intel (Altera) und AMD (Xilinx) haben beide sehr leistungsfähige FPGAs.

Und diese FPGA-Funktionen werden zunehmend bzw. noch mehr Eingang finden
in den Bereich Server bzw. AI Acceleration.

------


* HP hat anno dazumal ja auch Intel dazu bequatscht den Itanium aufzulegen.
Hat lange gedauert bis man das wieder losgekriegt hat, das war eine teure Angelegenheit.
 
textract schrieb:
Für den wichtigen Workload nutzen die meisten Großkonzerne Hardware von IBM.

Wenn du viel Performance brauchst, kommst du da gar nicht dran vorbei.

Puh, hm, ne. Schwierig. Würde da widersprechen. Sieht man ja auch daran, dass in der Top500 Liste, die ja das Paradebeispiel von "viel Performance" ist, gerademal 7 der 500 Systeme auf IBM Power basieren (1,4% Anteil). Dass darunter die Nummer 2 und Nummer 3 der Liste sind, verzerrt die Wahrnehmung vll etwas :D Aber allgemein würde ich sagen, im High Performance Umfeld hat IBM eigentlich kaum noch Relevanz. Die wenigsten Unternehmen betreiben ihr Rechenzentrum mit IBM Maschinen.

IBM Power wird doch dort vorallem eingesetzt, wo entweder Legacy Systeme seit Jahrzehnten stehen und nicht migriert werden kann / will, oder wo I/O-Leistung wichtiger als Compute Leistung ist.

Anekdote dazu: ich hab einen Kunden, der noch Itanium basierte Systeme herumstehen hat und dringend auf x86 migrieren will, aber noch nicht kann, weil sein MES wohl auf OpenVMS basiert und das ist noch nicht richtig auf x86 migriert, sondern läuft noch am besten auf IA64 :D

Und SystemZ ist natürlich super speziell und abgefahren. Das ist ein super spezielles System das eigentlich nur für Mainframes in der Finanzbranche relevant ist. Totale Nische, aber deshalb auch so geil :D
textract schrieb:
Selbst bei SAP empfiehlt man meistens HANA auf Power zu betreiben

correct me if im wrong, aber gibts HANA auf Power nicht erst seit wenigen Jahren?

Ich bin selber nicht so richtig im Thema drin und streife das immer nur wieder, daher bin ich hier echt kein Experte, aber was ich so sehe, würde ich IBM da nicht als die große Marktbestimmende Macht werten.
 
  • Gefällt mir
Reaktionen: QDOS
Calaphos schrieb:
IBM bedient hier allein einen Markt für den es halt einfacher ist immer mal wieder etwas schnellere Hardware von IBM zu kaufen als große chaotische Legacy Codebases auf moderne Shared Nothing Cluster zu migrieren.

Fred_EM schrieb:
Aber wenn diese Kosten in einem Mainframe stecken, dann fällt es halt nicht ganz so auf,
vor allem wenn sich das Gesamtkunstwerk auf Dauer rechnet.
Die Kosten eine solche Architektur über lange Zeit aufrecht zu erhalten (und zu pflegen!) sind immens.

Unrecht habt ihr nicht, aber es hat seinen Grund warum man sich schwer damit tut von diesen Systemen weg zu migrieren, falls man es überhaupt angeht: Die Zuverlässigkeit.
Bei uns sind alle großen Anwendungen außer SAP echte Wartungs- und Problemmonster. Der Mainframe dagegen läuft einfach vor sich hin und macht wortwörtlich nie Probleme. Er macht etwas mehr Aufwand als ein einfaches Linux, aber in der Skalierungsstufe läuft es extrem fehlerfrei, und hat zudem die geringsten Probleme mit Sicherheitslücken und Updates.
Und das liegt nicht nur daran dass das System so exotisch ist.
 
  • Gefällt mir
Reaktionen: ComputerJunge und konkretor
CDLABSRadonP... schrieb:
Ich dachte erst, du meintest, dass IBM noch nie CPUs für Consumergeräte gebaut hätte. Aber nein, das sind / waren bezieht sich nur auf den BMW-Einzelfall.
Sorry, da hat das Wort "aktuell" gefehlt.

Calaphos schrieb:
Wenn du mit Großkonzerne die meinst, die seit Dekaden IT Infrastruktur betreiben und es nicht geschafft haben auf neuere Technologien zu migrieren dann ja.

Ansonsten bestehen High End Rechenzentren fast ausschließlich aus x86 Rechner, je nach Anwendungsgebiet auch mit 1-8 Nvidia GPUs. Fast niemand nutzt mehr freiwillig riesige NUMA Systeme, einzige Ausnahme sind der Bereich an (älteren) Datenbanken die zu groß für klassische Dual Socket Systeme sind aber nicht groß genug dass diese über viele Computer skalieren müssen.
Gerade Nvidia-GPU basierende Systeme wurden die letzten Jahre sehr häufig mit IBM-Hardware gebaut, was ganz einfach daran liegt, dass Nvidia häufig für ihre High-End Modelle die Treiber nur für Power entwickelt hatte. Das hatte auch einen bestimmten Grund: Power 8 und Power 9 haben NVLink mittels integriertem Protokoll nativ unterstützt und die Karten haben keine PCI-e Lanes verwendet. Damit konnte man viele Grafikkarten und trotzdem gleichzeitig noch Netzwerk-/FC-/Interconnect- und andere Erweiterungskarten, wie bspw. mit P4 kompatiblen Chips ausgestattete Karten betreiben.

Ich habe bereits Rechenzentren gesehen, die betreiben selbstprogrammierte Firewalls, Router und Switche, weil klassische Netzwerkhardware zu langsam. Google ist ebenfalls ein Kandidat von denen, die ihre Infrastruktur auf größtenteils Power-Basis zu einem großen Teil selbst bauen.

Selbst ScaleOut-DB-Systeme laufen häufig mit Power, alleine schon weil die Speicheranbindung bei x86_amd64 viel zu langsam ist, das Zeug verteilt zu betreiben geht schon drei mal nicht.. AMD hat da einige Schritte in die richtige Richtung gemacht, an dem Leistungspunkt einer Power-Maschine sind sie aber noch lange nicht.

JohnVescoya schrieb:
Aber allgemein würde ich sagen, im High Performance Umfeld hat IBM eigentlich kaum noch Relevanz. Die wenigsten Unternehmen betreiben ihr Rechenzentrum mit IBM Maschinen.
...
correct me if im wrong, aber gibts HANA auf Power nicht erst seit wenigen Jahren?

Ich bin selber nicht so richtig im Thema drin und streife das immer nur wieder, daher bin ich hier echt kein Experte, aber was ich so sehe, würde ich IBM da nicht als die große Marktbestimmende Macht werten.
Ich sage ja nicht, dass die Unternehmen in ihren RZs nur IBM-Maschinen betreiben, das ist natürlich nicht so. Sie tun es da, wo sie müssen, oder es einfacher ist und gerade bei großen Systemen ist das noch sehr häufig der Fall. HPC und HighEnd würde ich an der Stelle aber auch noch einmal voneinander Unterscheiden. Was bei HPC definitiv sehr gut mit IBM funktioniert, ist die wesentlich bessere Skalierbarkeit und, wie oben schon angemerkt, der Vorteil, dass man besser mit GPUs arbeiten kann.

Ja, HANA on Power gibt es erst seit 2015 / 2016. Der Grund warum HANA on Power überhaupt kam, waren die Forderungen aus der Industrie.
HANA hat die längste Zeit maximal 32 Nodes + Quorum in einem Cluster unterstützt und x86_amd64-Maschinen hatten damals nie mehr als 2 TiB RAM. Wenn du also Quorum + HA-Fähigkeiten haben willst, konntest du mit maximal 32 TiB RAM arbeiten, abzüglich, was noch OS und diverse Überwachungs-, Monitoring, Passwort-, Automatisierungstools und -clients brauchen und das ist dann einfach viel zu wenig.
Das ist zwar rein spekulativ, aber ich gehe davon aus, das ist auch der Grund, warum Intel Optane auf den Markt geworfen hat - Sie wussten, dass sie mit ihrer mickrigen Speicherausstattung im HighEnd-Umfeld nichts reißen können.

Außerdem sind Power-Maschinen wesentlich besser und unterbrechungsfreier wartbar, als Intel/AMD-Maschinen.

Im Prinzip zeigt dieser Artikel auch schon wieder IBMs weiteren Schritt Richtung besserer Wartbarkeit. Du kannst unter Power zwar bereits Prozessor-Boards im Betrieb tauschen, die Gefahr eines Datenverlustes besteht dabei trotzdem, falls Nutzdaten im Cache waren, die noch nicht auf Storage committed sind. Wenn wir hier einen stets auf allen Cores gesharten L2-Cache haben, minimiert sich hier dieses Problem.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ComputerJunge, Snowi und konkretor
Scheinbar hat der Kindergarten wieder Ausgang…Mama ruft dummen Kommentar nach Hause.

IBM CPU finden sich in ziemlich vielen managed Switches wieder.

Außerdem ist alleine in Deutschland jeder DAX Konzern von IBM und Power bzw. Mainframe abhängig. Hallo Treasury und Business-critical :) Das gibt es nur für den Mainframe und Cobol-Entwickler werden nie eine andere Sprache lernen müssen :)

Jeder der versucht hat seinen Core von Mainframe nach wo anders zu portieren versucht hat kam wieder zurück. Selbiges gilt für ePeople und deren Exas.
 
  • Gefällt mir
Reaktionen: textract und konkretor
Die Technik ist immer recht spannend, aber zum Teil lese ich da auch viel Optimierung auf nicht-technische Probleme heraus. Wie z.b. offenbar Lizenzierung auf Sockel.
Dazu fällt mir zu so brachial viel Cache vor allem Java und Datenbanken ein, oder gibts da noch etwas bedeutendes das da so anspruchsvoll ist? Da werden doch hoffentlich keine Unternehmen ihren performancekritischen Kram in Python laufen lassen XD

textract schrieb:
IBM stellt die Speerspitze der CPU-Leistung auf dem globalen Markt. Dass man sowas in seinem Spielzeug-Rechner unter dem Schreibtisch nicht findet, dürfte wohl klar sein.
Also genaues finde ich auf die Schnelle nicht, aber es scheint als sei zumindest die LINPACK Leistung bei aktuellen Power9 CPUs niedriger als bei AMD.
Fugaku (ARM) kommt auf nicht ganz 58 GFLOPS/Core, Summit auf 61, Sierra auf 60 und Perlmutter haut dann 91 raus.
Ist nicht ganz sauber da noch GPUs dabei sind, aber soweit ich das sehe hat Perlmutter weniger GPU Leistung als Summit und Sierra.
So ein 64 Core X86/AMD64 ist vielleicht doch nicht so Spielzeug. Die per Core Performance ist bei Ryzen ziemlich sicher höher, sofern ich da keine Befehlssatzerweiterung oder so übersehen habe.

Hat jemand vielleicht Vergleichswerte für einzelne CPUs parat? Ich finde keine für Power und ich bezweifle ein wenig dass die Telum Chips da Welten drüber liegen.
 
Zurück
Oben