10Gbit Verbindung, aber nur 1Gbit Übertragungsrate

Danke @robert_s für die Vorschläge. Durch den ersten Test ist mir aufgefallen, dass die drei SSDs beim Client am SATA_3G Port und nicht am SATA_6G Port vom Mainboard (Asus P9X79 Pro) angeschlossen ist. Ich habe die Verkabelung jetzt verändert - rein theoretisch müsste es jetzt lokal auch schon mal schneller geworden sein.

Wenn ich iperf3 auf dem jeweiligen System (nativ auf dem Server) teste, erhalte ich beim Client 10 GBit/s und beim Server 60 Gbit/s. Wenn ich 10 parallele Verbindungen starte, dann sieht es besser aus: Beim Client habe ich dann 23 Gbit/s, beim Server bleibt es bei 60 Gbit/s.

Als Laie in dem Thema würde ich jetzt sagen, dass die Platten im Client den limitierenden Faktor darstellen und ich sowieso nicht die vollen 10Gbit über das Netzwerk bekomme, oder? Für 2-3 Gbit lohnt sich der Aufwand nicht.
 
Teutates schrieb:
Als Laie in dem Thema würde ich jetzt sagen, dass die Platten im Client den limitierenden Faktor darstellen und ich sowieso nicht die vollen 10Gbit über das Netzwerk bekomme, oder?
Ich würde es allgemeiner fassen: Der Client ist zu schwachbrüstig für 10Gbit/s. Ich dachte, mein Xeon E3-1275v5 ist schon etwas betagt, aber das Asus P9X79Pro ist ja noch mal 4-5 Jahre älter...

Mein Xeon schafft die 10Gbit/s beim unverschlüsselten iperf3-Test, bei der verschlüsselten Übertragung mit scp nach /dev/null muss ich den Cipher schon sorgfältig auswählen, weil der Xeon bei den meisten nicht schnell genug entschlüsseln kann, und mit Speichern reicht dann auch die Samsung 950 M.2 SSD nicht mehr.

Mit aktueller Hardware braucht man mutmaßlich nicht mal mehr zur High-End-Klasse zu greifen, um 10Gbit/s locker übertragen, ver/entschlüsseln und laden/speichern zu können, aber bei einem antiken über 10 Jahre alten Schätzchen kann sich das Upgrade in der Tat nicht lohnen.
 
Zurück
Oben