@Dr. MaRV
Da man heute eh Richtung SDDC geht, arbeitet man kaum noch mit physisch getrennter Infrastruktur. Das wird nur verwendet, wenn es gesetzlich vorgeschrieben ist oder zwingende Gründe hat etwa ein Management Network. VLANs sind mit VXLAN eh passe und wer heute eine große Infrastruktur betreibt oder aufbaut will Richtung NSX oder ACI. Mit physisch ist dort nichts mehr.
Auch Lastspitzen von 160 Gbit/s wird die Kiste nicht packen. Deshalb stellt sich schon der Sinn dabei. Denn 160G sind 160G, wenn man die hat, will man die auch nur Kurzzeitig verwenden. Die Anzahl an Packets die auch bei der Lastspitze mit Wirespeed anfallen sind nicht bearbeitbar. Dazu sind die Zeiten der Interrupts der x86 Kisten viel zu hoch. Hat doch ein großer FPGA bei 100G schon so seine Probleme nur für die Bearbeitung der Packets.
Der Kunde wird aber dumm schauen wenn er bei 16x 10G pro Server bei einem Rack mit 10 Servern (2 HE) 160x 10G Ports bezahlen muss. Gegen ein gutes Verhältnis zwischen Server und Anzahl Ports hat ja keiner etwas, da darf man sich aber nicht blenden lassen. Bei 160x 10G sprechen wir von 4x 5596UP mit einem Preis von 260.000€ @ Basic Liste. Der Core, der das aggregieren muss also Nexus 7000 zum Beispiel ist hier noch gar nicht genannt. Und dann sind wir schnell bei einer Oversubscription Rate so das ich eh nur 2x 10G pro Server habe. Useless..Cisco, Arista und Juniper werden sich freuen
Da darf man sich wundern, wenn man so die DAX Konzerne anschaut, die Infrastruktur selbst aufbauen und verwalten und dazu fähiges Personal hat. Da sind Blade Center mit 8x BL660 mit 2x 10G und max 4x 10G angebunden und das ist die Regel. Auslastung der Links mangels Leistung oft nicht der Rede wert.
Aktuell gäbe es kein Blade Center das bei einem Blade mit 16x 10G, bei 8 Slots nur annähernd die Kapazität bei Midplane hat oder Uplink Ports das überhaupt anbinden könnte. Rechnen wir dann noch 8 NVM SSDs über Fabric dazu wäre die Midplane riesig und somit extrem teuer.
Da man heute eh Richtung SDDC geht, arbeitet man kaum noch mit physisch getrennter Infrastruktur. Das wird nur verwendet, wenn es gesetzlich vorgeschrieben ist oder zwingende Gründe hat etwa ein Management Network. VLANs sind mit VXLAN eh passe und wer heute eine große Infrastruktur betreibt oder aufbaut will Richtung NSX oder ACI. Mit physisch ist dort nichts mehr.
Auch Lastspitzen von 160 Gbit/s wird die Kiste nicht packen. Deshalb stellt sich schon der Sinn dabei. Denn 160G sind 160G, wenn man die hat, will man die auch nur Kurzzeitig verwenden. Die Anzahl an Packets die auch bei der Lastspitze mit Wirespeed anfallen sind nicht bearbeitbar. Dazu sind die Zeiten der Interrupts der x86 Kisten viel zu hoch. Hat doch ein großer FPGA bei 100G schon so seine Probleme nur für die Bearbeitung der Packets.
Dr. MaRV schrieb:Außerdem ist es dem Kunden völlig egal was in seinem Server arbeitet oder eingebaut ist. Der Kunde sagt dem Dienstleister was vor hat, der Dienstleister gibt es weiter an den Consultant der dann ein Projekt daraus macht und am Ende wird dem Kunde die für ihn passende Maschine geliefert und installiert. Ob das Ding darin dann 10, 20 oder 32 Kerne hat, tauchen, fliegen oder Kaffee kochen kann, ist völlig egal. Es muß einfach das machen, was der Kunde erwartet.
Der Kunde wird aber dumm schauen wenn er bei 16x 10G pro Server bei einem Rack mit 10 Servern (2 HE) 160x 10G Ports bezahlen muss. Gegen ein gutes Verhältnis zwischen Server und Anzahl Ports hat ja keiner etwas, da darf man sich aber nicht blenden lassen. Bei 160x 10G sprechen wir von 4x 5596UP mit einem Preis von 260.000€ @ Basic Liste. Der Core, der das aggregieren muss also Nexus 7000 zum Beispiel ist hier noch gar nicht genannt. Und dann sind wir schnell bei einer Oversubscription Rate so das ich eh nur 2x 10G pro Server habe. Useless..Cisco, Arista und Juniper werden sich freuen
Da darf man sich wundern, wenn man so die DAX Konzerne anschaut, die Infrastruktur selbst aufbauen und verwalten und dazu fähiges Personal hat. Da sind Blade Center mit 8x BL660 mit 2x 10G und max 4x 10G angebunden und das ist die Regel. Auslastung der Links mangels Leistung oft nicht der Rede wert.
Aktuell gäbe es kein Blade Center das bei einem Blade mit 16x 10G, bei 8 Slots nur annähernd die Kapazität bei Midplane hat oder Uplink Ports das überhaupt anbinden könnte. Rechnen wir dann noch 8 NVM SSDs über Fabric dazu wäre die Midplane riesig und somit extrem teuer.
Zuletzt bearbeitet: