Der Controller, bzw. die FW macht alles richtig. Nur deren Arbeitsweise und die Erwartungen der User hier driften auseinander.Salierfähig schrieb:Was soll daran Pro sein, wenn der Controller nicht seine Arbeit vernünftig verrichtet?
Bei den SSDs gibts einen Zielkonflikt zwischen Geschwindigkeit und Haltbarkeit. Beides möglichst gut geht nicht. Die normale Verhaltensweise ist, dass Daten gelesen werden und wenn die Bitfehlerrate zu hoch ist, dann wird refreshed durch umkopieren der Daten. Das verschleißt die SSD. Daher wird das nicht ohne Grund gemacht. Fehlerkorrektur kostet Zeit, daher wird das Lesen der gleichen Daten über Zeit langsamer ohne das die FW immer was dagegen unternimmt bis die Grenzwerte der Lesefehler überschritten ist.
Die Erwartungshaltung der User ist aber, dass die SSD immer, über alle Daten, möglichst die beworbene Datenrate beibehält. Das ist komplett illusorisch, das schafft keine SSD in allen Lebenslagen.
Neben der Alterung der Daten und die damit einhergehende Fehlerkorrektur gibts bei SSDs auch noch eine große Abhängigkeit davon wie die Daten geschrieben wurden. Und zwar nicht nur beim aktuellen Schreiben sondern auch beim vorherigen Schreiben. Hier gibts von Swissbit eine gute Erklärung dazu.
Das zumindest zu den normalen Abweichungen. Wenn es wirklich extreme Unterschiede gibt wie von OP damals festgestellt, könnte es natürlich schon an einem ungünstig gesetzten Schwellwert für die Bitfehlerrate beim Lesen liegen. Aber an sich brauch niemand Angst haben, dass die Daten nicht mehr lesbar werden durch zu faule FW.