Wenn sowieso ALLES gemapped werden muss dann wird SOWIESO jeder einzelne LBA bei jedem Zugriff auf einen Physischen gemapped... Dann gibts da kein mehr oder weniger...
Dann ist das auch ne statische Tabelle (fixe anzahl Zeilen und Spalten) und somit erfolgt der Zugriff quasi (zeit)verlustfrei weil man das in Hardware giessen kann...
https://www.elinfor.com/knowledge/overview-of-ssd-structure-and-basic-working-principle2-p-11204
"Andere Aktionen" dürfte es nur beim Schreiben geben - zB das Wear Levelling...
Der Refresh dürfte meist ein Task sein, der im Hintergrund laufen sollte wenn die Platte nichts zu tun hat... Auch wenn man also annehmen sollte, dass die Platte merkt dass was Faul ist wenn der Zugriff wie bei mir 2s (statt 0,1ms und mit 12MB statt 3GB/s erfolgt und dann was tut ("Andere Aktionen") - scheints ja in der Praxis nicht so zu sein...
EDIT: Jetzt geht der Link von dir... Danke dafür...
"Die Lesegeschwindigkeit ist nicht von so vielen Faktoren abhängig wie die Schreibgeschwindigkeit. Hier kommt es nur darauf an, mit welcher Zugriffsart geschrieben wurde und wie gelesen wird. Die Daten in Abschnitt 1 wurden zufällig geschrieben und wieder zufällig – aber in einer anderen Reihenfolge – gelesen. Hier wird die geringste Leseleistung erreicht, da der Suchaufwand in den Zuordnungstabellen sehr hoch ist und die Effizienz der Datenübertragung zwischen Speichermedium und Host wegen der Paketgröße von 4 KiB gering ist. In Abschnitt 2 werden zufällig geschriebenen Daten sequentiell gelesen. Die Lesegeschwindigkeit ist viel höher, da pro Zugriff nun 128 KiB zum Host übertragen werden, was die Effizienz erhöht. Der Suchaufwand in den Zuordnungstabellen ist aber weiterhin sehr hoch. Vor Abschnitt 3 wurde das Speichermedium nun sequentiell beschrieben. Die Lesezugriffe in diesem Abschnitt wurden zufällig ausgeführt. Entsprechend niedrig fällt die Lesegeschwindigkeit wegen der Paketgröße von 4 KiB aus. Durch das sequentielle Schreiben ist die Suche in den Zuordnungstabellen aber einfacher und die Geschwindigkeit höher als in Abschnitt 1. In Abschnitt 4 erreicht das Speichermedium die maximale Leseleistung. Die sequentiell geschriebenen Daten werden nun auch sequentiell in 128 KiB-Paketen gelesen. Die Suche in den Zuordnungstabellen ist sehr einfach, die Übertragung zum Host sehr effizient, und beim internen Zugriff auf den NAND-Flash kann „Read-Ahead“ zum Einsatz kommen. Bei einem Speichermedium mit pSLC-Cache würden in den vier Abschnitten für einen Teil der Speicheradressen eine höhere Lesegeschwindigkeit auftreten – nämlich dann, wenn diese Adressen im pSLC-Cache liegen. "
Sorry... Meiner Meinung nach ist das nur eine Detailliertere Erklärung warum 4k Random Read langsamer ist als Sequentieller Read...
Meiner Ansicht nach steht da auch ausdrücklich, dass es nur um die Reihenfolge geht in der die Daten geschrieben vs. die Reihenfolge in der sie gelesen werden und eben nicht darum wie verteilt sie auf der Platte liegen... Es ist beim Defrag davon auszugehen, dass die Daten wieder in der selben Reihenfolge geschrieben werden wie vorher - nur eben am Stück... sonst hätte der Defrag das Thema verfehlt... Mir fallen nur ganz wenig Anwendungsfälle ein bei denen EIN FILE nicht am Stück geschrieben würde...
Nach meinem Verständnis hat das also rein garnix damit zu tun, dass ein Defrag auf einer SSD einen anderen positiven Effekt haben könnte als den Refresh durch Rewrite...