Abgesehen davon, dass IBM für die CPU Vernetzung in ihren PPCs sowieso keine PCI-E Bus verwendet, gibt es abgesehen von GPU und Netzwerk natürlich Anwendungen für so schnelle PCI-E Slots.
Kein Zweifel - für schnellere Busse gibt's immer Anwendungen. Fragt sich nur wohin die Reise in der näheren Zukunft geht. Sprich ob und wo das vielleicht für PCIe4 spräche.
Zum Stickwort PPC Vernetzung - vermutlich benutzen die E880 Server ja intern noch einen Vorgänger des kolportierten "BlueLink" zur Vernetzung der 4 CPUs je Serverkiste? Und wie sind dann die bis zu 3 Serverkisten im Schrank/Rack bzw. ggf. zwischen Schränken miteinander verbunden ? Nicht per PCIe Netzwerkkarte ?
Thunderbolt würd ich nicht als Konkurrent zu FC sehen - auch wenn die Datenrate vielleicht nicht so unähnlich ist. Im Kern sind die USB-C Buchsen wohl meist paarweise mit 4 PCIe3 Channels angebunden. Würde also schätzen das die Transferleistung über einen PCIe Adapter hinaus keine Restriktion gibt. Allerdings würd's mich wundern wenn's so was wie einen remote FC Controller für ein Thunderbolt-FC Kabel tatsächlich geben würde.
An sich würd ich eher Infiniband oder Omnipath als leistungsfähigeren Konkurrent zu FC sehen. In der OpenPower Gruppe natürlich eher Infiniband/Mellanox. Z.B. sollten die Infiniband-EDR Adapter (100 GBit/s) so einige der FC Controller ersetzen können. Aber frag mich nicht nach IOPs. Da bin ich nicht wirklich zu Haus - auf jeden Fall kannst du aber mit Infiniband Adaptern viele überlappende Requests gleichzeitig laufen lassen, so daß man mit den CPU Response Zeiten in vernünftige Größenordnungen kommen kann. Tatsächlich würde ich mich wundern wenn die CPU Response Zeiten oder die INfiniband Controller die IOP Rate wirklich begrenzen würden. Zumindest wenn die IOPs nicht zwingend sequentiell abgewickelt werden müssen und die Geschichte nicht "echtzeitfähig" sein muß (unwahrscheinlich bei Datenbankanwendungen). Aber bei meinen Programmierversuchen an der Infinibandfront (parallele Übertragung mehrerer Raw Filme in Echtzeit) hab ich üblicherweise größere Blöcke als 4K bei bis zu 10 Buffers in flight genutzt - deswegen bin ich mit einer absoluten Aussage lieber vorsichtig. Die Meßergebnisse für den Transfer kleinerer Blöcke hab ich nicht mehr so vor Augen .. Ab gut 3 Buffers (Einzelbilder MB) in flight war's jedenfalls kein Problem mehr die theoretische Infiniband Datenrate für den Echtzeitbetrieb auszuschöpfen - mit einer CPU Auslastung unterhalb von %.
Zuletzt bearbeitet: