840 evo 1 TB ist lahm auf "alten" Daten

Holt schrieb:
Moment, dass die Fragmentierung in Deinem Fall nicht schuld ist, war schon klar und lässt sich ja mit contig -a <file> auch leicht prüfen. Der Test von Hallo32 zeigt nur, dass die Fragmentierung eben durchaus die Performance beeinträchtigen kann, wenn eine Daten extrem fragmentiert ist.

Hier dürfte klar sein das der Controller die Daten mit der Zeit intern so umverteilt, dass die eben nicht mehr gut parallel gelesen werden können und dieser Test mit dd oder auch das Defragmentieren, sind nicht anderes als den Controller dazu zu zwingen die Daten komplett neu zu schreiben. Ob sie wieder auf dem gleichen LBA (wie mit dd) oder auf anderen (beim Defragmentieren) landen, ist dabei egal, sie müssen intern immer in andere Pages geschrieben werden und da das eben mit längere Zugriffen erfolgt, werden sie dabei auch gut verteilt.

Also ein "Bug" in der Firmware der EVO, deren Algorithmus bei der "Umverteilung" zu schlechten Ergebnissen führt.

Holt schrieb:
Das ist ein Zugriff wo bei einem ATA Befehl viel Daten in einen Bereich aufeinander folgender LBAs geschrieben werden. So ein ATA Befehl kann ja einen LBA und die bis zu 2^16 LBAs darauf folgenden auf einmal adressieren, also maximal 32MiB.

Somit ist jeder Zugriff der 2 aufeinander folgende LBAs liest ein sequentieller, also alle Zugriffe ab 1024Byte könnten theoretisch sequentiell sein.
 
Hallo32 schrieb:
Also ein "Bug" in der Firmware der EVO, deren Algorithmus bei der "Umverteilung" zu schlechten Ergebnissen führt.
Das ist zumindest die einzige sinvolle Erklärung die mir zu dem beschreiben Verhalten einfällt, denn die Leseraten scheinen ja im Extremfall auf ein Niveau zu fallen, was der Geschwindigkeit beim Lesen aus nur einem NAND Die entspricht, wenn die Dateien lange genug auf der SSD liegen, während neu geschriebene Daten die erwartet Geschwindigkeit liefern. Das einzige was in der Zwischenzeit passiert ist die interne Umverteilung von Daten durch die GC. Das muss eben auch dann passieren wenn ganze Blöcke ständig mit den gleichen weiterhin gültigen Daten belegt sind um das Wear Leveling zu realisieren.

Hallo32 schrieb:
Somit ist jeder Zugriff der 2 aufeinander folgende LBAs liest ein sequentieller, also alle Zugriffe ab 1024Byte könnten theoretisch sequentiell sein.
Unter dem Aspekt ja, aber da selbst die IOPS normalerweise mit 4k ermittelt werden und die SSDs intern auch auf 4k Zugriffe optimiert sind, was ja schon 8 LBAs entspricht und auch die übliche Größe bei vielen gebräuchlichen Filesystemen wie NTFS ist, würde ich von einem sequentiellen Zugriff erst bei mehr als einer Pagesize reden. Da sowieso immer mindestens eine Page gelesen bzw. geschrieben werden muss, kleiner geht es nicht, werden die SSD Controller die Daten immer erst über die NANDs Dies verteilen, wenn eben mehr als eine Pagesize geschrieben wird und bei den aktuellen NANDs sind das 8k oder 16k.
 
Holt schrieb:
Das ist zumindest die einzige sinvolle Erklärung die mir zu dem beschreiben Verhalten einfällt, denn die Leseraten scheinen ja im Extremfall auf ein Niveau zu fallen, was der Geschwindigkeit beim Lesen aus nur einem NAND Die entspricht, wenn die Dateien lange genug auf der SSD liegen, während neu geschriebene Daten die erwartet Geschwindigkeit liefern. Das einzige was in der Zwischenzeit passiert ist die interne Umverteilung von Daten durch die GC. Das muss eben auch dann passieren wenn ganze Blöcke ständig mit den gleichen weiterhin gültigen Daten belegt sind um das Wear Leveling zu realisieren.

Warum sollte die GC bei einer zig MB oder GB grossen Datei, diese umlagern? Verstehe ich ehrlich nicht so ganz, da die GC ja mehr kleine Dateifragmente bzw. auf Flash-Ebene Pages zusammenklaubt.

Persönlich denke ich bei dem Thema eher an Dataretention, und einem eher aufwendigen Wiederherstellungsprozess der ECC Recovery.
 
Hallo32 schrieb:
Das dürfte es sein.

So richtig passt das auch nicht. Bei mir waren die "alten Daten" so 2 Monate alt und wenn das Lesen so schwer fallen würde, sollte man doch erwarten, dass die SSD die Daten auch auffrischt und dann wären die bei einem späteren Lesen wieder schnell, das ist aber nicht so.
 
Ist auch nur eine Vermutung, aber um das Problem weiterzuverfolgen sollten betroffene Anwender imho die "langsamen Daten" nicht versuchen durch Rewrites zu regenerieren, sondern einfach weiter abwarten was folgt.

- Bleiben die Daten weiterhin gleich langsam (Firmware Bug)

- Regeneriert sich die Geschwindigkeit (internes Rewrite)

- Verschlechtert sich die Situation (Data Retention)

?
 
juenger schrieb:
Warum sollte die GC bei einer zig MB oder GB grossen Datei, diese umlagern?
Wie soll denn sonst Wear Leveling funktionieren? Stell Dir vor Du kaufst eine neue SSD, installierst da etliche GB an Windows und Programme, die sich praktisch nie ändern. Dann schreibst Du immer wieder auf dem Rest der SSD und nutzt damit nur die anderen Blöcke, die nicht mit den installierten Programmen belegt sind, während diese niemals gelöscht werden, also gar nicht verschleißen? Das wäre extrem ungeschickt und wird von guten Controllern auch erfolgreich vermieden, indem sie diese statischen Daten immer wieder mal intern auf Blöcke umkopieren, die schon relativ zu den anderen sehr viel P/E Zyklen runter haben, damit dann die bisher relativ wenig genutzten Blöcke auch abnutzen und das nennt man Wear-Leveling.

Die Daten werden also sehr wohl umkopiert, nur passiert dabei offenbar ein Fehler. Wenn sie geschrieben werden, landen die gut Verteile in Die1 Page1, Die2 Page1, Die3 Page1, etc. und beim Kopieren dann in Die7 Page 10, Die 7 Page 11, Die 7 Page 12 etc. und daher wird das Lesen langsam, weil nicht innerhalb eines Die parallel gelesen werden kann.
juenger schrieb:
Verstehe ich ehrlich nicht so ganz, da die GC ja mehr kleine Dateifragmente bzw. auf Flash-Ebene Pages zusammenklaubt.
Ein Contoller einer SSD kennt keine Dateien, also auch keine Dateifragmente, der weiß allenfalls welche Daten von welchen LBAs zusammenhängend geschrieben wurden, mehr nicht. Die Flash Pages klaubt auch nicht zusammen, denn da ja immer ganz Blöcke gelöscht werden und das dann vielleicht 256/512 Pages zu je 8k/16k, je nach NAND, also locker 2MiB oder mehr. Diese wird er dann auch wieder alle der Reihe nach beschreiben und zwar sollte das über die Kanäle verteilt passieren. Der lässt da keine einzelnen Pages zwischendurch frei und beginnt einen anderen Block auf dem gleichen NAND Die, das wäre ja Wahnsinn dann noch die freien Pages alle zu verwalten und es wäre dem auch kontraproduktiv für die Haltbarkeit, denn wenn die anderen Daten schon wieder ungültig sind, würde man den Block ja sinnvollerweise wieder löschen und wenn dann noch Pages davon nicht beschrieben worden sind, bekommen die nur unnötig einen weiteren Löschzyklus ohne überhaupt benutzt worden zu sein.
juenger schrieb:
Persönlich denke ich bei dem Thema eher an Dataretention, und einem eher aufwendigen Wiederherstellungsprozess der ECC Recovery.
Das hatte ich auch erst überlegt, im Hinblick auf Low Density Parity Check (LDPC) error-correction, aber einmal ist das je nach Ausführung auch verdammt performant, das 10GBit Ethernet nutzt das ja auch und dann sind die SSDs zu neu und die Zeit ist zu kurz. Die müssen nach JEDEC JESD 218 ja 12 Monate Daten Retention Time bei 30°C haben und das bis zum Erreichen der spezifizierten P/E Zyklen / TBW. Da sind die betroffenen SSDs hier wohl noch ganz weit von entfernt und außerdem fällt die DRT und steigt die Bit Fehlerraten auch mit der Anzahl der verbrauchten Zyklen, was aber nicht linear geht.

Das sieht man auch an diesem Diagramm zur Uncorrectable Bit Error Rate (UBER), die ja anders als bei HDDs bei kaum einer SSD angegeben ist:
UBER_HDD-SSD.png
Die ist am Anfang ganz gering, praktisch nicht vorhanden und steigt dann aber gegen Lebensende der NANDs massiv an, weshalb es auch schwer da einen Wert zu definieren, anders als bei HDDs wo diese praktisch linear verläuft. Intel hat folgenden Weg gewählt, vielleicht ist der auch irgendwo genormt:

UBER_HDD-SSD_Spec.png

(Quelle)

Daher glaube ich nicht an Bitfehler und eine so erhöhten Aufwand zu deren Korrektur, aber wie können ihr das jetzt testen, ich habe ja keine Evo? Am Besten indem man die alten Dateien auffrischt, das haben ja wohl sowieso schon alle gemacht, z.B. durch defragmentieren und dann auf dem freien Bereich mächtig viel schreibt und löscht um die GC auszulösen. Das kann man z.B. mit Anvil's Storage Utilities oder h2testw machen und wenn man dann ein paar TB geschrieben hat, testet man die Lesegeschwindigkeit der alten Dateien erneut. Das liegen ja dann nur Tage dazwischen und wenn diese nun wieder langsam gelesen werden, fällt wohl die Data Retention als Grund weg, was man auch noch mit einer Gegenprobe bestätigen kann, indem man sie wieder auffrischt und dann gar nichts auf die SSD schreibt und nach der gleichen Zeit erneut die Lesegeschwindigkeit prüft. Wenn es dann die Data Retention ist, müssten die Werte mindestens gleich schlecht sein, da die NANDs nun ja nicht ein verbrauchter sind. Sind die Werte aber besser, so dürfte meine Theorie des "Bugs" in der GC richtig sein.
 
Ok, zusammengefasst für mich:

- Einzelne Flash Zellen vertragen nur eine begrenzte Anzahl an Schreiboperationen (weil sie dafür gelöscht werden müssen und jedes Löschen die Lebenszeit verkürzt)

- Falls alle statischen Daten/Dateien in den Flash Zellen bleiben würden in welche sie ursprünglich geschrieben wurden, dann würde die restlichen Zellen weit überdurchschnittlich beansprucht werden und recht schnell ausfallen

- Um das zu vermeiden, und die Schreibzyklen möglichst gleichmässig auf alle Flash Zellen zu verteilen, organisieren alle SSDs alte Daten von Zeit zu Zeit um und schreiben sie in andere Flash Zellen. Das nennt sich dann 'Wear Leveling'. Dies passiert meistens während der Garbage Collection.

Falls die EVO nun einen Fehler im Wear Leveling Algorithmus hat der bewirkt, dass die alten Daten in einer fürs auslesen ungünstigen Anordnung ablegt (z.B. alle im selben Flash Block so dass kein paralleles auslesen von Blöcken stattfinden kann), dann würde das unser Phänomen hier erklären.

Hier noch ein Artikel über GC und Wear Leveling (für alle die nicht Holt heissen ;)):
http://www.thessdreview.com/daily-news/latest-buzz/garbage-collection-and-trim-in-ssds-explained-an-ssd-primer/
 
Zuletzt bearbeitet:
Holt schrieb:
Wie soll denn sonst Wear Leveling funktionieren ?

In dem im Eingangspost verlinkten OC Thread Beitrag #9 hat ein betroffener Anwender die SMART Werte gepostet und demnach steht der Wear Level Count auf 3 ("Drei"). Warum sollte das Wear-Leveling bei einen Delta von 2 (Zwei) Cycles bereits aktiv verwerden? Scheint mir eher unwahrscheinlich, es sei denn es würde durch die Betriebsstungen getriggert oder extrem aggresiv ausgelegt sein.


Holt schrieb:
Daher glaube ich nicht an Bitfehler und eine so erhöhten Aufwand zu deren Korrektur, aber wie können ihr das jetzt testen, ich habe ja keine Evo? Am Besten indem man die alten Dateien auffrischt, das haben ja wohl sowieso schon alle gemacht ...

Mag sein, allerdings sollte es nicht wie bei früheren Secure-Erase Empfehlungen enden. Da in manchen Fällen scheinbar die Verlangsamung nach bereits 2 Monaten auftritt, wäre es imho besser eine entsprechend grosse Testdatei (einige GB) auf der SSD anzulegen und diese nicht mehr anzufassen und alle paar Wochen mal zu prüfen wie sie sich verhält.

Mit immer wiederkehrenden Pflegemaßnahmen die SSD Performance zu erhalten scheint eher unpraktikabel und auch kaum zu rechtfertigen. Wichtiger wäre es das Problem weiter zu verfolgen.
 
juenger schrieb:
In dem im Eingangspost verlinkten OC Thread Beitrag #9 hat ein betroffener Anwender die SMART Werte gepostet und demnach steht der Wear Level Count auf 3 ("Drei"). Warum sollte das Wear-Leveling bei einen Delta von 2 (Zwei) Cycles bereits aktiv verwerden?
Dieser Wert gibt immer nur die "mittlere Anzahl" der P/E Zyklen an, also den Durchschnitt über alle Blöcke. Es kann also durchaus sein, dass einige Blöcke mehr und andere weniger Zyklen haben, ja das ist sogar zu erwarten.

Aber wann bei welche SSD die GC das Wear Leveling triggert um die Unterschiede nicht zu groß werden zu lassen, kann ich Dir auch nicht sagen.

juenger schrieb:
Mag sein, allerdings sollte es nicht wie bei früheren Secure-Erase Empfehlungen enden.
Habe ich was von Secure Erease geschrieben? Nein! Das empfehle ich grundsätzlich nicht und wenn Du mehrere Posts von mir gelesen hast, sollte Dir das auch schon mal aufgefallen sein. Das bringt nur bei den SSDs mit Sandforce Controllern bzgl. der etwas, aber nur kurz und der SF ist sowieso nicht zu empfehlen und war das auch nie!
juenger schrieb:
Da in manchen Fällen scheinbar die Verlangsamung nach bereits 2 Monaten auftritt, wäre es imho besser eine entsprechend grosse Testdatei (einige GB) auf der SSD anzulegen und diese nicht mehr anzufassen und alle paar Wochen mal zu prüfen wie sie sich verhält.
Was soll der Test beweisen? Wenn bei einem User die Verlangsamung schon nach 2 Monaten eingetreten ist, dann wird sie bei der gleichen Nutzung sehr wahrscheinlich wieder nach 2 Monaten vorhanden sein, was aber keine Rückschlüsse über die Ursache erlaubt.

Deshalb:
juenger schrieb:
Wichtiger wäre es das Problem weiter zu verfolgen.
Nur kann man das nur, wenn man eben wie beschrieben testet, ob der Effekt durch die Zeit oder durch die Nutzung (Schreiben + Löschen auf einem begrenzten Bereich und damit das Wear Leveling auslösen) auftritt.
 
Holt schrieb:
Nur kann man das nur, wenn man eben wie beschrieben testet, ob der Effekt durch die Zeit oder durch die Nutzung (Schreiben + Löschen auf einem begrenzten Bereich und damit das Wear Leveling auslösen) auftritt.

Wenn ich mein Tool mit ner Logfunktion erweitert habe kann ich das testen. Ich hab ne EVO 1TB die erst so 4 Wochen alt und zu 80% voll ist.

Der Test wäre dann:
- die Lesegeschwindigkeit der existierenden Dateien zu bestimmen
- dann die restlichen 20% mehrmals vollzuschreiben und zu löschen, damit GC/Wear leveling die alten Daten umorganisiert und in andere Flash Zellen schreibt
- Lesegeschwindigkeit der alten Dateien erneut testen

richtig?
 
Im Prinzip bin ich auch an diesem Test dran.
Bei mir sind seit der Optimierung keine Änderungen im Speed aufgetreten, allerdings nutze ich die SSD auch nur minmal. Schreibe also sehr wenig (aber nicht gar nicht) :)

Ich werde das noch eine Weile beobachten und dann die Nutzung erhöhen. Allerdings habe ich keine Lust das mit speziellen Testtools zu tun, sondern werde einfach ein paar Dinge über die SSD laufen lassen und ein Auge auf die "alten Dateien" haben.
Am, Anfang hatte ich die SSD für 1-2 Wochen in dem "intensiven" Nutzungsszenario.
Insofern ist der Test realistisch, dauert aber auch länger.
 
Holt schrieb:
Habe ich was von Secure Erease geschrieben? Nein! Das empfehle ich grundsätzlich nicht und wenn Du mehrere Posts von mir gelesen hast, sollte Dir das auch schon mal aufgefallen sein. Das bringt nur bei den SSDs mit Sandforce Controllern bzgl. der etwas, aber nur kurz und der SF ist sowieso nicht zu empfehlen und war das auch nie!

Dies war keineswegs auf Dich bezogen. Die Analogie von einem neu beschreiben der gesamten SSD um die Read Performance wieder herzustellen, drängte sich einfach auf.


Holt schrieb:
Was soll der Test beweisen? Wenn bei einem User die Verlangsamung schon nach 2 Monaten eingetreten ist, dann wird sie bei der gleichen Nutzung sehr wahrscheinlich wieder nach 2 Monaten vorhanden sein, was aber keine Rückschlüsse über die Ursache erlaubt.

Wenn eine neue Testdatei erstellt wird, ist anzunehmen das diese vermutlich auf die abgenutztesten Blöcke gespeichert wird, also von einem Wear Leveling weitestgehend ausgeschlossen ist.

Bei normaler Nutzung der SSD, also nicht übermäßigen Schreibaufkommen und dem Fall, daß die Datei wieder langsam wird, könnte man GC/Wear Leveling eher ausschließen.

Da wie Du oben schriebst ohnehin unbekannt ist, ab welchem Wear Delta das Wear Leveling einsetzt, bringt das Schreiben von ein paar hundert GB imho kaum etwas. Vermutlich wird das Wear Leveling erst ab einem relativ hohen Unterschied aktiv werden, da unnötig oft hin und her schreiben des WL ja ansonsten zu einer hohen Write Amplification führen würde.
 
klampf schrieb:
So richtig passt das auch nicht. Bei mir waren die "alten Daten" so 2 Monate alt und wenn das Lesen so schwer fallen würde, sollte man doch erwarten, dass die SSD die Daten auch auffrischt und dann wären die bei einem späteren Lesen wieder schnell, das ist aber nicht so.

Das Auffrischen würde nur Sinn ergeben, wenn der Effekt des schnellen Lesens länger erhalten bleiben würde. Der von dir angegebener Zeitraum von 2 Monaten spricht nicht unbedingt dafür.

Im Prinzip reden wir über einen Tausch von P/E Zyklen gegen einer schnelleren Leserate.
Ergänzung ()

@Holt

Ich würde gar nicht bis zu Bitfehlern gehen, sondern einfach die notwendige Zeit zum Lesen der TLC als so hoch ansehen, wenn die Daten nicht mehr frische sind.
Ergänzung ()

Blublah schrieb:
Wenn ich mein Tool mit ner Logfunktion erweitert habe kann ich das testen. Ich hab ne EVO 1TB die erst so 4 Wochen alt und zu 80% voll ist.

Der Test wäre dann:
- die Lesegeschwindigkeit der existierenden Dateien zu bestimmen
- dann die restlichen 20% mehrmals vollzuschreiben und zu löschen, damit GC/Wear leveling die alten Daten umorganisiert und in andere Flash Zellen schreibt
- Lesegeschwindigkeit der alten Dateien erneut testen

richtig?

Das Problem dürfte die Definition für mehrmals sein. Was ist mehrmals 10, 50, 100 oder 250 mal?
Das Problem ist, dass wir nicht Wissen, wann das Wearleveling greift und wie es implementiert ist.
Ergänzung ()

juenger schrieb:
Vermutlich wird das Wear Leveling erst ab einem relativ hohen Unterschied aktiv werden, da unnötig oft hin und her schreiben des WL ja ansonsten zu einer hohen Write Amplification führen würde.

Full ack.


Edit:

Was sagt eigentlich der Samsung Support dazu?
 
Zuletzt bearbeitet:
Hallo32 schrieb:
Das Problem dürfte die Definition für mehrmals sein. Was ist mehrmals 10, 50, 100 oder 250 mal?
Das Problem ist, dass wir nicht Wissen, wann das Wearleveling greift und wie es implementiert ist.

Das werde ich dann ja sehen. Ich kann mir ja ein Script schreiben welches das kopieren, löschen und testen erledigt :)
 
juenger schrieb:
Bei normaler Nutzung der SSD, also nicht übermäßigen Schreibaufkommen und dem Fall, daß die Datei wieder langsam wird, könnte man GC/Wear Leveling eher ausschließen.
Ob das Problem Zeit ist (also Ladungsverlust, Mehraufwand beim Lesen / der Fehlerkorrektur) oder ob das Problem die Nutzung ist, also Fehler im Algorithmus des Wear Leveling, kann man doch nur testen, wenn man zwei unterschiedliche Nutzungsverhalten durchprobiert. Also einmal in kurzer Zeit ganz viel nutzt, um eben das Wear Leveling innerhalb weniger Tage auszulösen und dann ganz wenig nutzt, damit kein Wear Leveling passiert, obwohl die Zeit verstreicht. Opimal wären natürlich zwei neue Evo um den Test zu machen, aber es wird auch mit den schon genutzten gehen, es wird nur eben schwerer zu sagen, welche Nutzung die Zellen dann schon hinter sich haben, wo die Testdaten am Ende landen und wie viel man ggf. schreiben muss um ein Wear Leveling für diese Blöcke auszulösen.

juenger schrieb:
bringt das Schreiben von ein paar hundert GB imho kaum etwas. Vermutlich wird das Wear Leveling erst ab einem relativ hohen Unterschied aktiv werden, da unnötig oft hin und her schreiben des WL ja ansonsten zu einer hohen Write Amplification führen würde.
Ein paar TB oder auch ein paar mehr TB könnten schon nötig sein, gerade wenn die Evo eine hohe Kapazität hat. Bei einer 1TB Evo sind ja 1TBW gerade mal ein Zyklus, ohne die WA gerechnet.

Hallo32 schrieb:
Im Prinzip reden wir über einen Tausch von P/E Zyklen gegen einer schnelleren Leserate.
Ja, aber P/E Zyklen sollte sie sowieso genug haben, außer man schreibt sowieso recht viel darauf und plant die wirklich möglichst viel Jahre / Jahrzehnte zu nutzen. Wer sich in 2, 3 oder spätestens 5 Jahren sowieso eine neue, viel größere und schnellere SSD kaufen wird, dem wird auch ein zusätzlicher P/E Zyklus alle paar Monate die SSD nicht vorzeitig killen.

Hallo32 schrieb:
Ich würde gar nicht bis zu Bitfehlern gehen, sondern einfach die notwendige Zeit zum Lesen der TLC als so hoch ansehen, wenn die Daten nicht mehr frische sind.
Das würde aber bedeutet, dass die Zellen jetzt schon, fast neu, massiv Ladung verlieren und diese müsste sich auch in der Bitfehlerrate niederschlagen. Das ist aber nicht so, die adaptiven Fehlerkorrekturen beruhen ja auch alle darauf, dass die NANDs mit dem Verbrauch der P/E Zyklen verschleißen und dann die ECC aufwendiger wird, was auch bedeutet, dass SSDs die sowas einsetzen dann im Alter langsamer sein werden als im Neuzustand.

Hallo32 schrieb:
Das Problem dürfte die Definition für mehrmals sein. Was ist mehrmals 10, 50, 100 oder 250 mal?
Das Problem ist, dass wir nicht Wissen, wann das Wearleveling greift und wie es implementiert ist.
Das stimmt, aber wenn das Problem schon bei SSDs auftritt, bei denen nur im Schnitt 3 Zyklen verbraucht sind, dann dürfte wir eher von 10 als von 250 reden. Wie gesagt, optimal wären neue Evos zum Testen, zumal da die "alten Daten" in garantiert frischen Zellen landen.

Hallo32 schrieb:
Was sagt eigentlich der Samsung Support dazu?
Gut Frage! Aber ich denke mal, wenn man einen Weg findet dieses Verhalten zu reproduzieren, dann besteht auch eine Chance, dass man sich dort des Themas annimmt, sofern es denn wirklich ein Bug ist. Wenn es tatsächlich an den NANDs selbst liegt, werden sie auch nichts machen können, dann ist das eine Eigenschaft der SSD die eben der beste Review nicht aufzeigen konnte.
 
Hallo32 schrieb:
Was sagt eigentlich der Samsung Support dazu?

Es liegt ja eh im Endeffekt an denen den Fehler zu heben, deshalb würde mich auch interessieren, ob sie sich dem Problem überhaupt bewusst sind.
 
Zuletzt bearbeitet:
Hallo32 schrieb:
Was sagt eigentlich der Samsung Support dazu?
Ich habe den Hinweise mal aufgegriffen beim Samsung-Support angefragt.
Beim Deutschen, aus deutsch. Mit Hinweis auf diesen und den engl. Thread.
Bin gespannt.
 
Holt schrieb:
Ja, aber P/E Zyklen sollte sie sowieso genug haben, außer man schreibt sowieso recht viel darauf und plant die wirklich möglichst viel Jahre / Jahrzehnte zu nutzen. Wer sich in 2, 3 oder spätestens 5 Jahren sowieso eine neue, viel größere und schnellere SSD kaufen wird, dem wird auch ein zusätzlicher P/E Zyklus alle paar Monate die SSD nicht vorzeitig killen.

Solange die Ursache noch cniht bekannt ist, macht es keinen Sinn über die notwendigen P/E Zyklen zu sprechen.

Holt schrieb:
Das würde aber bedeutet, dass die Zellen jetzt schon, fast neu, massiv Ladung verlieren und diese müsste sich auch in der Bitfehlerrate niederschlagen. Das ist aber nicht so, die adaptiven Fehlerkorrekturen beruhen ja auch alle darauf, dass die NANDs mit dem Verbrauch der P/E Zyklen verschleißen und dann die ECC aufwendiger wird, was auch bedeutet, dass SSDs die sowas einsetzen dann im Alter langsamer sein werden als im Neuzustand.

Die einzelnen Zellen sind untereinander kapazitiv gekoppelt und dieses kann dazu führen, dass es nicht mehr so schnell eindeutig auslesbar ist, welcher Binärwert dort hinterlegt wurde. Die Grenzen zwischen den einzelnen Zuständen werden ein wenig verwischt.

Dazu gab auf dem FMS auch einige Beiträge.

Auf einen Ladungsverlust würde ich aktuell nicht tippen.

Holt schrieb:
Das stimmt, aber wenn das Problem schon bei SSDs auftritt, bei denen nur im Schnitt 3 Zyklen verbraucht sind, dann dürfte wir eher von 10 als von 250 reden. Wie gesagt, optimal wären neue Evos zum Testen, zumal da die "alten Daten" in garantiert frischen Zellen landen.

Testen. :)

Holt schrieb:
Gut Frage! Aber ich denke mal, wenn man einen Weg findet dieses Verhalten zu reproduzieren, dann besteht auch eine Chance, dass man sich dort des Themas annimmt, sofern es denn wirklich ein Bug ist. Wenn es tatsächlich an den NANDs selbst liegt, werden sie auch nichts machen können, dann ist das eine Eigenschaft der SSD die eben der beste Review nicht aufzeigen konnte.

Das Problem scheint nur zu sein, dass zumindest der deutsche Support von netten, freundlichen, hilfsbereiten Personen erfolgt, die aber nicht unbedingt für solche Fragen hinreichend geschult wurden. Hatte mit der 830 mal meinen Spaß. :)
Ergänzung ()

klampf schrieb:
Ich habe den Hinweise mal aufgegriffen beim Samsung-Support angefragt.
Beim Deutschen, aus deutsch. Mit Hinweis auf diesen und den engl. Thread.
Bin gespannt.

Ich würde mich freuen, wenn du uns auf den aktuellen Stand hältst. :)
 
Holt schrieb:
Das stimmt, aber wenn das Problem schon bei SSDs auftritt, bei denen nur im Schnitt 3 Zyklen verbraucht sind, dann dürfte wir eher von 10 als von 250 reden. Wie gesagt, optimal wären neue Evos zum Testen, zumal da die "alten Daten" in garantiert frischen Zellen landen.

Auf meiner 4 Wochen alten EVO tritt das Problem ansatzweise schon bei 0 Zyklen (laut Magician S.M.A.R.T. Info) auf.

Ich hab jetzt ein 'rewrite' feature in das FileBench Tool eingebaut und mit ein paar Dateien getestet die ich als allererstes auf die EVO kopiert habe. Dort gab es bereits Dateien die nur noch mit 200-250 MB/s gelesen wurden (alle über 30MB gross) (der Grund könnte evtl auch in einem ursprünglichen ungünstigen Schreibvorgang liegen da es bis jetzt nur relativ wenige Dateien betrifft). Nach dem rewrite war die Leserate bei knapp über 500MB/s.
 
Zuletzt bearbeitet:
Zurück
Oben