Mich würd vor allem mal interessieren auf was Intel bei der Vernetzung der eigenen Supercomputer setzt.
Geht der Trend jetzt langsam wieder zu Ethernet nachdem die Übertragungsebene wohl eh endgültig auf optische Transceiver gewechselt ist - aber mit irgendeiner oder weiter allen integrierten RDMA Lösung (convergent, over UDP1,2, over TCP) - so das der kleine Unterschied zwischen den Konkurrenten Infiniband, Omnipath, Ethernet eh "nur" noch die Protokollebene betrifft ? Dazu sei angemerkt das Mellanox seit langem zweisprachige Adapter und Switches baut - die lassen sich je Port auf Infiniband oder Ethernet umstellen.
Oder gibt's vielleicht mal was Neues - z.B. etwas wie eine Professional Variante von USB4/TB4
- als integriertes Protokollsammelsurium aber mit entsorgten ollen Kamellen wie altbackene Ethernet Controller&Co ? Her mit der reinrassigen vollintegrierten DMA/MultiProtokollRouterEngine/SerDes/PAM4+ Lösung, der Rest sei Software ?
Dem USB4 Consumer fehlt ja auch noch Netzwerk im Protokollsammelsurium .. und natürlich der dazu auch notwendige Übergang von Kupferstrippen auf Glasfaser (Leitungslänge). Schließlich hat Intel ja gerade Hardware für USB4 Router (äh Hubs) gebaut - solche in den Consumerprozessoren wie auch stand alone für USB4-Hubs und für USB4 Docks .. zwar "nur" für 40G auf 2 Leitungspaaren je Richtung .. Das klingt doch eigentlich nach einem Aufwasch, denn 40G reicht ja inzwischen für DP2.0 und HDMI2.1 schließlich auch nicht mehr, das ruft nach USB mit 80G (äh 77G) ?
Eigentlich würd ich erwarte das die Ausgliederung nur spezifisch Omnipath "Adapter" nicht aber die Intel 100G und 400G Switches und Transceiver/Si Photonics betrifft ?
Die "Fortschritte" von Nvidia/Mellanox bei Infiniband find ich übrigens auch nicht ganz so toll - die mögen inzwischen PCIe4 Adapter haben - die dann für 200G Infiniband gut sind. Aber 200G Infiniband a la Mellanox ist wohl nix anderes als 100G verdoppelt, reine Fleißarbeit. Der tiefergelegte Infiniband (d)QFSP Stecker hat dann halt 8 Leitungspaare statt 4 je Richtung. Von 400G nix zu sehen. Dafür reicht auch ein PCIe4x16 Slot nicht. Da brauchts dann schon eher ein PCIe5.0x16 oder gleich Intel CXL mit demselben. Optische Transceiver scheinen wohl gleich eher den Sprung von 100G auf 400G zu machen. Und wie lange die noch im QFSP(oder ähnlich) Gehäuse bleiben statt z.B. auf's Prozessor/Switchboard zu wandern muß man sich wohl auch fragen. Die Verlustleistung wird vielleicht nicht kleiner als bei den 100G Transceivern im QFSP Steckergehäuse (bis zu 3W?) ?