machiavelli1986 schrieb:
@umax1980
Das ist eine gute Frage. Vorallem unter dem Umstand, dass man dann 10x länger hat für den Dateitransfer. Dann dürfte ja die Ersparnis (wenn es die überhaupt messbar gibt) erst recht futsch sein.
Ne, so funktioniert die Rechnung nicht. Eine Netzwerkschnittstelle ist gefühlt 95-99% der Zeit im Leerlauf bzw. es werden nur wenige (k)Byte/s übertragen. Mal ein paar Broadcasts, mal ein paar Verwaltungsdaten - zB die Dateiliste eines Netzlaufwerks im Explorer - und dergleichen. Nur dann, wenn man wirklich mal große Datenmengen vom Server/NAS kopiert, wird 1 Gbit/s auch nur ansatzweise ausgenutzt. Auch für Streaming reichen 100 Mbit/s vollkommen.
Ungeachtet dessen, kann ich mir aber auch nicht vorstellen, dass die Ersparnis besonders groß ist. Ich gehe stark davon aus, dass ein mittelmäßig effizientes Netzteil im PC deutlich mehr Verlustleistung hat als durch einen ungenutzten Gigabit-Port draufgehen. Green-IT ist nun mal ein Schlagwort, ein Verkaufsargument, Marketing. Der tatsächliche Nutzen ist da zweitrangig
umax1980 schrieb:
Kannst du zum Test mal ein anderes Netzwerk-Kabel nutzen ?
Genau, anderes Kabel, anderer Switchport bzw. evtl. sogar ein anderer Switch. 10 MByte/s sind verdächtig nahe am theoretischen Maximum von 100 Mbit/s (=12,5 Mbyte/s). Wenn es
nur eine langsame Festplatte oder so wäre, dann läge man trotzdem irgendwo bei 40-60 Mbyte/s..
Mit iperf/jperf bzw. netio kann man eine Netzwerkverbindung ausmessen. Die Tools messen quasi von RAM zu RAM, die HDDs sind also außen vor. In einem Gigabit-LAN sollten ca. 900-950 Mbit/s rauskommen, mehr geht nicht. Von meinem Gammel-Medion-Laptop zu meinem Ubuntu-Server habe ich beispielsweise ca. 850 Mbit/s, weil der Laptop nicht mehr schafft. Mein PC am selben Kabel kommt auf knappe 950 Mbit/s.