Vielleicht noch mal was zu Zuordnungseinheiten (Clustergrößen): Wenn die Dateigrößen statistisch normal verteilt sind und i.d.R. ein Vielfaches der Größe der Zuordnungseinheit betragen, dann verliert man pro Datei einen halben Cluster, weil eben Dateien immer nur ganze Cluster belegen und der Rest im letzten Cluster verloren geht. Daher sind große Cluster bei kleinen Dateien eine Verschwendung.
Zu kleine Cluster, also solche die kleiner als die physikalischen Sektoren der Platten sind, führen zu viele Zugriffen die nicht genau mit den physikalischen Sektoren übereinstimmen, also langsamer sind. Bei HDDs waren die physikalischen Sektoren früher immer 512Bytes (im Profibereich gibt es da auch Ausnahmen), inzwischen sind 4k üblich (Advanced Format) und bei SSDs entspricht die Pagesize am ehesten den Sektorgrößen, da die Page die kleinste Schreib-Leseeinheit ist. Die Pages sind heute 4k und zunehmend auch 8k groß, aber auch bei 8k Pages ist die FW der SSDs auf 4k Zugriffe optimiert. Weniger als 4k Clustersize sollten man also bei SSDs niemals verwenden.
Lohnt es sich ggf. größere Cluster zu verwenden? Wenn man sowieso nur Dateien hat, die einige MB bis GB groß sind, dann kann es einem ja egal sein, ob man nun bei jeder 2k oder 32k verschwendet, aber es bringt auch kaum Vorteile, denn der Vorteil größere Cluster liegt vor allem darin, dass die als kleinste Zuordnungseinheit auch die Größe des kleinsten Fragments einer fragmentierten Daten darstellen. Fragmentation von Dateien ist bei SSDs ein viel, viel geringeres Problem als bei HDDs, auch wenn bei ihnen natürlich die vielen kurzen Zugriffe auf eine stark fragmentierte Datei ebenso langsamer sind als ein langer Zugriff auf ein einzelnes Fragment, aber das ist im Vergleich zu dem was bei HDDs passiert zu vernachlässigen. Daher lohnt es sich nicht, bei SSDs größere Cluster zu wählen, erst recht nicht, wenn auch noch viele kleine Dateien vorhanden sind.