@
masterw: Ich hab vor ziemlich exakt 10 Jahren zuletzt selbst Hosting betrieben. Damals waren 100MBit schon nur noch der Fallback. Die Leitungen wurden üblicherweise per GBit an den Switch angeklemmt und gingen dann via 1(knauserig) oder 10Gbit ins Backbone zu den Routern. Dort wurden dann üblicherweise mehrere 1GBit Glasfasern gebündelt, um die Daten "in die weite Welt" zu bekommen. Je nach Peering gingen die jeweiligen Pakete über die jeweiligen Leitungen
Ich würde HEUTE eher fragen, ob die Server mit 1 oder 10 GBit am Switch hängen und ggf. noch nen 25GBit Interconnect zum Datenabgleich haben. Nach "draußen" wird sich die Welt allerdings vermutlich eher wenig verändert haben. die 1GBit-Leitungen sind vermutlich geblieben, es sind nur mehr geworden. Aber bevor ich da noch mehr Spekulatius produziere, lies Dir Doch mal die technische Anbindung des Hosting-Betreibers durch. Dann weißt Du das selber.
@
Vitali.Metzger: Immernoch sportlich. Aber gut, kommt ja auch drauf an, was die VMs machen. Wenn die eh nur idlen, kann man auch 50 auf ne entsprechend große Büchse packen. Aber falls auch nur die hälfte davon produktiv arbeiten soll, wird das mit dem IO trotzdem recht schnell eng.
(Und ja, ich hab erlebt, wie ein DNS-Server unter DDOS ne ganze Quadcore-Maschine weitestgehend zum erliegen gebracht hat, weil er die ganze Zeit Platten-IO erzeugt hat... . Blöderweise war die Firewall-Application auch auf der Maschine und hat dann für den Rest gesorgt. Hat 10 Minuten gedauert, die Verbindung zum DNS zu kappen (da wir die zwar langsamen, aber noch möglichen restlichen Verbindungen nicht vollständig kicken wollten).)
Ja, ist schon ein paar Jahre her, das... *grübel*
Regards, Bigfoot29