News Power 9: PCI Express 4.0 zuerst für IBMs High-End-CPU

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.739
Neue Entwicklerplatinen für IBMs kommende Prozessorgeneration ebnen den Weg für PCI Express 4.0. Big Blue würde mit der Einführung Intel, AMD & Co zuvor kommen, denn die Power 9 sollen noch in diesem Jahr erscheinen. Partnerfirmen stellen bereits entsprechende Ausrüstung zur Verfügung.

Zur News: Power 9: PCI Express 4.0 zuerst für IBMs High-End-CPU
 
Was ist ein GT/s ?
Google schweigt sich aus... :rolleyes:
 
Schön zu sehen dass IBM noch immer voll dabei ist :)
 
Nur 48 Lanes ? Das reicht ja gerademal für drei vollwertige Slots.
Und die Systemkomponenten sind da ja noch nichteinmal mit eingerechnet.. :(
 
ich glaube du verstehst das einsatzgebiet davon nicht ^^
 
48 Lanes sind das doppelte was Intel bisher je zustande brachte pro CPU. Die Power 9 sind für Multi CPU Systeme gedacht.
Und 48 Lanes 4.0 sind 96 Lanes 3.0. Man muss aufpassen mit den Größen.

Eine aktuelle Grafikkarte läuft auf PCIe 4.0 4x noch mit nur geringen Einschränkungen da so schnell wie 3.0 8x.

Und es wird von den Heimanwendern eh kaum einer in den Genuss einer Power 9 Maschine kommen.
1. Kosten
2. Unix only
3. Spiele müssten erst optimiert werden

So bleibt es also bei Intel und AMD mit 16x 3.0 oder 24x 3,0 je Prozessor und der Rest kommt vom Switch im Chipsatz.
Reicht ja auch noch locker aus.
 
Damals brauchten Speicher Hauch nicht diese Bandbreiten. In den Letzten Jahren sind in den Consumermarkt Speicher gekommen, die annähernd PCI Express auslasten.Ohne SSDs wären solchen Bandbreiten nur in großen Raidverbünden nötig gewesen. IBM baut wieder Druck auf Intel auf. Wurde auch Zeit.
 
Auf Wikipedia fehlt ne Doku zur 128b130b - Codierung von PCIe 3(+)

Na - wer opfert sich? ^^
 
Candy_Cloud schrieb:
48 Lanes sind das doppelte was Intel bisher je zustande brachte pro CPU. Die Power 9 sind für Multi CPU Systeme gedacht.
Und 48 Lanes 4.0 sind 96 Lanes 3.0. Man muss aufpassen mit den Größen.

Eine aktuelle Grafikkarte läuft auf PCIe 4.0 4x noch mit nur geringen Einschränkungen da so schnell wie 3.0 8x.

Das ist mir bewusst, danke. Dennoch gibt es anfangs wohl eher wenige Geräte, die nativ im PCIe 4.0 Modus laufen.
Die meisten dürften im 2.x/3.x Modus laufen. Daher ist Anzahl der Lanes wichtiger.

Lieber PCIe 3.x mit echten 96 Lanes als das. Kann aber verstehen, warum da gespart wird.
Mit der Anzahl der Leitungen steigen die Kosten des Board-Designs.
Daher wird da immer geknausert, egal ob im Profi- oder Heimanwender-Bereich. :(

Mensch, ich vermisse die Zeiten von ATX-Boards mit voller Baulänge und e 6-8 Steckplätzen!
Heutzutage kann man gerade mal eine Grafikkarte (doppele breite, versperrt einen Slots)
und eine Erweiterungskarte einbauen, und das wars dann. Egal ob Desktop, Workstation oder Server.
 
Candy_Cloud schrieb:
48 Lanes sind das doppelte was Intel bisher je zustande brachte pro CPU. Die Power 9 sind für Multi CPU Systeme gedacht.

Die aktuelle Intel E(P) Plattform hat pro CPU immerhin 40 Lanes, die Skylake-SP werden 44 haben. Also zu den 48 Lanes ziemlich vergleichbar.

joshy337 schrieb:
Mensch, ich vermisse die Zeiten von ATX-Boards mit voller Baulänge und e 6-8 Steckplätzen!
Heutzutage kann man gerade mal eine Grafikkarte (doppele breite, versperrt einen Slots)
und eine Erweiterungskarte einbauen, und das wars dann. Egal ob Desktop, Workstation oder Server.
Bei Server gibt es Lösungen mit bis zu 11 x PCIe 3.0 x16 mit voller Länge und voller Höhe. Reicht das etwa nicht?

https://www.supermicro.nl/products/system/4U/4028/SYS-4028GR-TR2.cfm
 
Und ich dachte IBM wollte sich aus den Hardware bzw. CPU Bereich zurück ziehen und eher auf die Software und Service Sparte konzentrieren.
 
joshy337 schrieb:
Mensch, ich vermisse die Zeiten von ATX-Boards mit voller Baulänge und e 6-8 Steckplätzen!
Heutzutage kann man gerade mal eine Grafikkarte (doppele breite, versperrt einen Slots)
und eine Erweiterungskarte einbauen, und das wars dann. Egal ob Desktop, Workstation oder Server.
Ich glaube, einer von uns beiden vertauscht hier gerade etwas.
Die CPU hat 48 PCI 4.0 Lanes, nicht die Mobos. Was nützen mir 8 16x 3.0 Steckplätze, wenn die CPU nur 16 3.0 Lanes hat. Aktuelle Intels haben eben auch nur 44 Lanes zu den Steckplätzen(Server vs Server). Da stehen 44 PCI 3.0 gegen 48 PCI 4.0. Was die nachfolgenden Chipsätze damit machen, ist eher zweitrangig(Klar hast du recht, 99.9% der Karten können nur 1 GT/s pro Lane.)
Solche CPUs sind sowieso nur für den Multibeteieb ausgelegt und da bedeutet das einfach eine Verdopplung der möglichen Bandbreite. Für große StorageLösungen bräuchten Intelsysteme für gleiche Leistungen 2 CPUs.
 
Zuletzt bearbeitet:
Ich freu mich auf die Neuen Power 9 Maschinen.
Ich rechne damit, dass die neuen Steckplätze dann entweder mit 4*64 GBit/s FC, oder aber 4*10, 4*40 GBit/s, oder 2*100 GBit/s Netzwerkkarten ausgelastet werden.

Ich glaube nur, dass die Standardrechenzentren, die HP XP7 zum Beispiel, oder Cisco 7000 Switches als High-End verkaufen, die IBM Hardware mal wieder bei weitem nicht ausreizen können.

Wenn IBM genauso wie mit den 824 aktuell die neuen Low-End Systeme baut, dann sind das ohnehin 2*24 Core CPUs und 2 TB RAM auf 4 HEs.

High End Kisten werden von ihrer Ausstattung her sowieso den Intel Spielbüchsen einige Jahre voraus sein.
 
Mich würde mal interressieren wie Power 9 Kerne gegenüber High End ARM Kerne performen.
 
Mich würde mal interressieren wie Power 9 Kerne gegenüber High End ARM Kerne performen.
Weiß zwar nicht wie es bei Power9 aussieht, aber du brauchst etwa 3 x86 Kerne oder 12 ARM Kerne der gleichen Generation um mit einem Power8 Kern zu konkurrieren, wenn ich mich nicht falsch erinnere.
Kommt aber hauptsächlich auf die Anwendung an. Manche Sachen sind einfach schwer auf ARM umzusetzen. Gerade die Nutzung schneller Coprozessoren hat man bei ARM nicht so wie bei IBM.
 
Interessant wird das in Bezug auf M2-SSDs. Samsungs 960 Pro reizt die vier 3.0-Lanes nahezu vollständig aus. Bei doppelter Bandbreite pro Lane ist wieder etwas Luft :-)
 
Zurück
Oben