t-6
Admiral
- Registriert
- Juni 2007
- Beiträge
- 8.959
Das kann nicht stimmen. Die NICs "wissen" nicht welche Güte/Cat ein Kabel hat. Grob gesagt prüfen die NICs untereinander nur ab, ob sie sich bei Gigabit erfolgreich verständigen können. Wenn nicht, wird auf 100 Mbit runtergeschaltet.
Da wird nicht "ein bisschen" runtergedreht, wie es bspw. bei DSL der Fall ist; entweder ganz oder gar nicht.
Theoretisch könnten Bitfehler aufgrund geringer Kabelgüte zu einem Netto-Datenverlust führen, aber bei dieser Größenordnung würden die NICs früher oder später direkt auf 100 Mbit runterschalten und das solange bis zu einer Neuverbindung halten.
Eine Erklärung für die etwas geringeren Datenraten als die Leitung zulassen würde: Habt Ihr zwischen den Systemen Dateien verschoben, von einer Festplatte auf eine andere? Oder wirklich unabhängig getestet mit bspw. iperf?
Und dann als Cat6 kam - waren die Übertragungsraten dann immer noch zwischen den exakt gleichen Systemen getestet worden, oder war ein System zwischenzeitig mit einer SSD ausgerüstet worden oder hatte einen stärkeren Prozessor usw.?
2008 - das war gefühlt so die Zeit, wo NAS-Systeme zwar mit Gbit-Schnittstellen vermehrt rauskamen, aber nicht die Leistung hatten um auch wirklich Gigabit auszureizen.
Und der Protokolloverhead passiert ab Layer 2. Nicht bei Layer1, wo das "Kupfer" und die Cats zu verordnen sind. Oder auch: Den Overhead würde es unabhängig von Cat5e/Cat6 geben.
Da wird nicht "ein bisschen" runtergedreht, wie es bspw. bei DSL der Fall ist; entweder ganz oder gar nicht.
Theoretisch könnten Bitfehler aufgrund geringer Kabelgüte zu einem Netto-Datenverlust führen, aber bei dieser Größenordnung würden die NICs früher oder später direkt auf 100 Mbit runterschalten und das solange bis zu einer Neuverbindung halten.
Eine Erklärung für die etwas geringeren Datenraten als die Leitung zulassen würde: Habt Ihr zwischen den Systemen Dateien verschoben, von einer Festplatte auf eine andere? Oder wirklich unabhängig getestet mit bspw. iperf?
Und dann als Cat6 kam - waren die Übertragungsraten dann immer noch zwischen den exakt gleichen Systemen getestet worden, oder war ein System zwischenzeitig mit einer SSD ausgerüstet worden oder hatte einen stärkeren Prozessor usw.?
2008 - das war gefühlt so die Zeit, wo NAS-Systeme zwar mit Gbit-Schnittstellen vermehrt rauskamen, aber nicht die Leistung hatten um auch wirklich Gigabit auszureizen.
USB2.0 =/= Ethernet; zwar gibt es Overhead, aber nicht in dieser Größenordnung.Von den theoretischen 1Gbit musst in der Praxis ja auch eh nen gewissen Protokoll-Overhead abziehen, ich meine USB2.0 wird auch mit 480mbit spezifiziert - aber die 60MB/s erreicht man nie, das endet in der Praxis iwo bei ~40-46MB/s je nach Qualität der Geräte.
Und der Protokolloverhead passiert ab Layer 2. Nicht bei Layer1, wo das "Kupfer" und die Cats zu verordnen sind. Oder auch: Den Overhead würde es unabhängig von Cat5e/Cat6 geben.