Madnex schrieb:
Als zur SSD-Anfangszeit, als die ersten SSD-Modelle für den Verbraucher auf den Markt kamen, haben manche Hersteller sogar empfohlen ihre SSDs gelegentlich zu defragmentieren. So z.B. Mtron.
Die wussten auch wieso, dass kann der Controller nämlich nicht ausgleichen und SSDs ziehen die Perfomance auf der Parallelität.
Hallo32 schrieb:
Hast du Zahlen, die die Auswirkung der Fragmentierungen wiedergeben?
Die Theorie ist mir bekannt. Mir geht es um die Auswirkungen im täglichen Einsatz.
Das hängt von der jeweiligen SSD ab, die haben je eine unterschiedlichen Entwicklung der Transferraten über die Zugriffslängen. ATTO bencht das ja, wenn auch mit 4 I/O, kommt also auf ungleich bessere Werte als bei QD1. Man sieht aber trotzdem gut, dass dort meist erst bei Zugriffen über 128k die vollen Transferraten erreicht werden, bei einigen SSDs früher bei anderen später. Wenn die Fragmente natürlich immer noch weit größer sind, so kommt es allenfalls am Ende des Fragmentes, also beim jeweils letzten Zugriff zu einem der wirklich kurz ist und der spielt dann keine Rolle und sollten alle Fragmente genau Vielfache der Länge der ausgeführten Zugriffe sein, so spielt der Fragmentierung wirklich mal keine Rolle.
Wobei das auch nicht ganz stimmt, in den letzten beide SSD Reviews hat ocaholic.ch einen interessanten Test eingeführt,
hier bei der OCZ ARC und wenn ich das richtig interpretiere und die keine Fehler gemacht haben, dann liest die auch bei 4k Zugriffen und QD1 seq. mit 402MB/s, was etwa Limit bei so kurzen Befehlen ist. Bei Randomzugriffen liest sie nur mit 21MB/s, es werden also offenbar intern schon die Daten der nachfolgenden LBAs bereitgestellt. Leider gibt es den Test bei älteren Reviews nicht, sondern nur bei den letzten beiden SSDs mit dem Barefoot3 Controller und so kann man nicht sagen, wie sich andere SSDs da verhalten.
Hallo32 schrieb:
Das Einlesen einer nicht fragmentierten 97,65625 MB großen Datei dauert 388,492 ms.
Das Einlesen einer fragmentierten Version der identischen Datei, bestehend aus 6 Fragmenten, dauert 389,557 ms.
Somit ergibt sich für diesen Fall ein Unterschied von 0,2 %.
6 Fragmente sind bei 97,6MB dann im Schnitt noch immer über 16MB pro Fragmente. Damit wird immer noch das allermeiste mit sehr langen Zugriffen gelesen und es kommen nur wenige kurze Zugriffe hinzu. Bei einer HDD wäre der Unterschied auch noch noch so dramatisch, da hättest Du 5 mehr oder weniger lange Kopfbewegungen zu den ersten LBAs der jeweiligen Fragmente, aber die machen dann natürlich Verhältnis schon viel mehr aus als 0,2%.
Wenn Du es ausprobieren willst, dann schreibe ein kleines Programm oder Script welches eine Partition mit 4k (Clustergröße auch 4k) großen und von 1 an durchnummerierten Dateien füllt, lösche die Dateien mit geraden Nummern und benche dann., z.B. mit dem AS-SSD. Damit müsstest Du die maximale Fragmentierung erreichen und kannst die Werte dann vergleichen.