Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsPower 9: PCI Express 4.0 zuerst für IBMs High-End-CPU
Neue Entwicklerplatinen für IBMs kommende Prozessorgeneration ebnen den Weg für PCI Express 4.0. Big Blue würde mit der Einführung Intel, AMD & Co zuvor kommen, denn die Power 9 sollen noch in diesem Jahr erscheinen. Partnerfirmen stellen bereits entsprechende Ausrüstung zur Verfügung.
48 Lanes sind das doppelte was Intel bisher je zustande brachte pro CPU. Die Power 9 sind für Multi CPU Systeme gedacht.
Und 48 Lanes 4.0 sind 96 Lanes 3.0. Man muss aufpassen mit den Größen.
Eine aktuelle Grafikkarte läuft auf PCIe 4.0 4x noch mit nur geringen Einschränkungen da so schnell wie 3.0 8x.
Und es wird von den Heimanwendern eh kaum einer in den Genuss einer Power 9 Maschine kommen.
1. Kosten
2. Unix only
3. Spiele müssten erst optimiert werden
So bleibt es also bei Intel und AMD mit 16x 3.0 oder 24x 3,0 je Prozessor und der Rest kommt vom Switch im Chipsatz.
Reicht ja auch noch locker aus.
Damals brauchten Speicher Hauch nicht diese Bandbreiten. In den Letzten Jahren sind in den Consumermarkt Speicher gekommen, die annähernd PCI Express auslasten.Ohne SSDs wären solchen Bandbreiten nur in großen Raidverbünden nötig gewesen. IBM baut wieder Druck auf Intel auf. Wurde auch Zeit.
48 Lanes sind das doppelte was Intel bisher je zustande brachte pro CPU. Die Power 9 sind für Multi CPU Systeme gedacht.
Und 48 Lanes 4.0 sind 96 Lanes 3.0. Man muss aufpassen mit den Größen.
Eine aktuelle Grafikkarte läuft auf PCIe 4.0 4x noch mit nur geringen Einschränkungen da so schnell wie 3.0 8x.
Das ist mir bewusst, danke. Dennoch gibt es anfangs wohl eher wenige Geräte, die nativ im PCIe 4.0 Modus laufen.
Die meisten dürften im 2.x/3.x Modus laufen. Daher ist Anzahl der Lanes wichtiger.
Lieber PCIe 3.x mit echten 96 Lanes als das. Kann aber verstehen, warum da gespart wird.
Mit der Anzahl der Leitungen steigen die Kosten des Board-Designs.
Daher wird da immer geknausert, egal ob im Profi- oder Heimanwender-Bereich.
Mensch, ich vermisse die Zeiten von ATX-Boards mit voller Baulänge und e 6-8 Steckplätzen!
Heutzutage kann man gerade mal eine Grafikkarte (doppele breite, versperrt einen Slots)
und eine Erweiterungskarte einbauen, und das wars dann. Egal ob Desktop, Workstation oder Server.
Die aktuelle Intel E(P) Plattform hat pro CPU immerhin 40 Lanes, die Skylake-SP werden 44 haben. Also zu den 48 Lanes ziemlich vergleichbar.
joshy337 schrieb:
Mensch, ich vermisse die Zeiten von ATX-Boards mit voller Baulänge und e 6-8 Steckplätzen!
Heutzutage kann man gerade mal eine Grafikkarte (doppele breite, versperrt einen Slots)
und eine Erweiterungskarte einbauen, und das wars dann. Egal ob Desktop, Workstation oder Server.
Mensch, ich vermisse die Zeiten von ATX-Boards mit voller Baulänge und e 6-8 Steckplätzen!
Heutzutage kann man gerade mal eine Grafikkarte (doppele breite, versperrt einen Slots)
und eine Erweiterungskarte einbauen, und das wars dann. Egal ob Desktop, Workstation oder Server.
Ich glaube, einer von uns beiden vertauscht hier gerade etwas.
Die CPU hat 48 PCI 4.0 Lanes, nicht die Mobos. Was nützen mir 8 16x 3.0 Steckplätze, wenn die CPU nur 16 3.0 Lanes hat. Aktuelle Intels haben eben auch nur 44 Lanes zu den Steckplätzen(Server vs Server). Da stehen 44 PCI 3.0 gegen 48 PCI 4.0. Was die nachfolgenden Chipsätze damit machen, ist eher zweitrangig(Klar hast du recht, 99.9% der Karten können nur 1 GT/s pro Lane.)
Solche CPUs sind sowieso nur für den Multibeteieb ausgelegt und da bedeutet das einfach eine Verdopplung der möglichen Bandbreite. Für große StorageLösungen bräuchten Intelsysteme für gleiche Leistungen 2 CPUs.
Ich freu mich auf die Neuen Power 9 Maschinen.
Ich rechne damit, dass die neuen Steckplätze dann entweder mit 4*64 GBit/s FC, oder aber 4*10, 4*40 GBit/s, oder 2*100 GBit/s Netzwerkkarten ausgelastet werden.
Ich glaube nur, dass die Standardrechenzentren, die HP XP7 zum Beispiel, oder Cisco 7000 Switches als High-End verkaufen, die IBM Hardware mal wieder bei weitem nicht ausreizen können.
Wenn IBM genauso wie mit den 824 aktuell die neuen Low-End Systeme baut, dann sind das ohnehin 2*24 Core CPUs und 2 TB RAM auf 4 HEs.
High End Kisten werden von ihrer Ausstattung her sowieso den Intel Spielbüchsen einige Jahre voraus sein.
Weiß zwar nicht wie es bei Power9 aussieht, aber du brauchst etwa 3 x86 Kerne oder 12 ARM Kerne der gleichen Generation um mit einem Power8 Kern zu konkurrieren, wenn ich mich nicht falsch erinnere.
Kommt aber hauptsächlich auf die Anwendung an. Manche Sachen sind einfach schwer auf ARM umzusetzen. Gerade die Nutzung schneller Coprozessoren hat man bei ARM nicht so wie bei IBM.
Interessant wird das in Bezug auf M2-SSDs. Samsungs 960 Pro reizt die vier 3.0-Lanes nahezu vollständig aus. Bei doppelter Bandbreite pro Lane ist wieder etwas Luft :-)