@Pitt_G. In deinem ersten Satz fehlen Satzzeichen oder so, ich kann dem zweiten Teil nicht ganz folgen. Ein 4x 1 Gbit Portchannel erlaubt ja auch erstmal nur 1 Gbit pro TCP-Stream. Aber ich glaube du überbewertest Outputdrops und es gab es schon immer. Es gab nur relativ lange vor rund 10 Jahren eine Phase wo alle Ports einfach 1 Gbit/s (Uplink und Access) hatten und man das deshalb keine Drops sah.
Hier ein RL- Beispiel eines C3650 mit 10 Gbit/s Uplink 100 Mbit/s Client Link.
Full-duplex, 100Mb/s, media type is 10/100/1000BaseTX
input flow-control is on, output flow-control is unsupported
ARP type: ARPA, ARP Timeout 04:00:00
Last input 00:03:00, output 00:00:00, output hang never
Last clearing of "show interface" counters never
Input queue: 0/2000/0/0 (size/max/drops/flushes); Total output drops:
566794338
Queueing strategy: fifo
Output queue: 0/40 (size/max)
5 minute input rate 33000 bits/sec, 15 packets/sec
5 minute output rate 879000 bits/sec, 72 packets/sec
61774186 packets input, 22717214107 bytes, 0 no buffer
Received 104499 broadcasts (90573 multicasts)
0 runts, 0 giants, 0 throttles
0 input errors, 0 CRC, 0 frame, 0 overrun, 0 ignored
0 watchdog, 90573 multicast, 0 pause input
0 input packets with dribble condition detected
217048002 packets output, 239570258005 bytes, 0 underruns
0 output errors, 0 collisions, 4 interface resets
1304 unknown protocol drops
0 babbles, 0 late collision, 0 deferred
0 lost carrier, 0 no carrier, 0 pause output
0 output buffer failures, 0 output buffers swapped out
Output Drops entstehen (gerne) an langsameren Ausgangsinterfaces als Eingangsinterfaces, sind beide gleich, treten Output drops selten bis gar nicht auf, außer es sitzen mehrere Quellen an gleichen Switch wie das Ziel. Ist klar ein Flaschenhals erzeugt Congestion und der Buffer muss irgendwann droppen, egal on ein 2 Mbit/s WAN Link oder ein 100 Mbit/s LAN Link. Wenn voll, dann voll. Und bei einem 2,5 Gbit/s Netzwerk ist halt der 1 Gbit/s Port der Flaschenhals. Outputdrops werden zwingend auftreten, wenn das NAS mehr als 2/5 seiner 2,5, Gbit/s Schnittstelle auslasten kann.
Der Port aus meinem Beispiel ist absolut i.O. Die Output Drops sind ja die Auswirkung des langsamen Links, nicht die Ursache, und woher soll der Sender wissen - außer durch Paketverluste, dass er eben auf den Client nicht mit 1, 2,5 ,5 oder 10 Gbit oder mehr Pusten kann, außer durch Dup-Acks, die durch Drops im Interfacebuffer eines Ports mit geringerer Bandbreite laufen. Gibt zig Artikel zur TCP-Congestion Control....