juenger schrieb:
Holt, verstehst Du eigentlich selbst, was Du da so von Dir gibst?
Im Gegensatz zu Dir ja!
juenger schrieb:
Wenn Du die Problematik der Kaputtschreibtests nicht verstehst versuche doch wenigstens zu verstehen, das man einen Flash-Speicher per Definition nicht solange beschreiben darf, bis er kaputt ist.
Deswegen sind die spezifizierten P/E Zyklen ja auch deutlich geringer als die maximal möglichen P/E Zyklen, denn die DRT fällt auch mit der Zahl der verbrauchten Zyklen, dazu findest Du von mir hier Beitrag von vor einigen Jahren.
juenger schrieb:
Die Daten müssen auch noch nach einer längeren DRT noch lesbar sein.
Das ist von der JEDEC in der JESD 218 definiert und zwar mit der Temperaturangeben und für Client (also Consumer) und Enterprise SSDs getrennt:
Auch diesen Anhang poste ich schon seid Jahren immer wieder. Data Retention Power On gibt es nicht, dafür muss jeder Controller durch Refreshes selbst sorgen und das machen sie auch, weshalb auch SSD die NAND verschleissen, wenn man überhaupt nicht auf ihnen schreibt, zumal auch das Auslesen Ladung in den Zellen kostet.
juenger schrieb:
Auch in diesem Fall wird es nicht besser die gleiche Fehlinformation durch endlose dogmatische Wiederholung als Information verkaufen zu wollen.
Fehlinformationen kommen hier nur von Dir. Wie z.B.:
juenger schrieb:
Flash Memory für industrielle Anwendung findest Du im iNet des öfteren mit rund 100 Jahren und Consumer Flash wird oft mit einem DRT Zeitraum von 10 Jahren genannt.
Scheißhausparolen ohne jeden Beleg. Die 100 Jahren sind wie die oft zitierten 100.000 P/E Zyklen für SLC NAND als unbewiesene Behauptung bis komplett Übertreibung aus der Anfangszeit der NAND Technologie zu sehen.
Schaut Euch doch mal an, wie die MTRON und die Intel X25-E im
Dauerschreibtest auf xtremesystems.org abgeschnitten haben. Die MTRON waren auch schnell und unter komischen Umständen kaputt, also konnte keine wohl nie jemand damit 100.000 Zyklen belegen und die SLC NANDs der X25-E waren nicht besser als die MLC NANDs der X25-V. Die immer wieder genannten 100.000 P/E Zyklen für SLC halte ich daher für schamlos übertrieben, vielleicht schaffen die besten Qualitäten, aber warum sollte nicht die besten Qualitäten in seiner SSD verbaut haben?
Bei der Intel X25-E 64GB hat sich jedenfalls
nach 579.46 TiB der Available Reserved space von 100 auf 99 verringert, obwohl es angeblich keine Reallocations gab, S.M.A.R.T. Attribute sagen eben nicht immer die Wahrheit, nach
625.97 TiB sind dann die ersten beiden Reallocated sectors aufgetaucht, da waren gerade erst 5% der Spezifizierten Zyklen verbraucht. Bei
665.36 TiB waren es 7 Reallocated sectors, bei
702.41 TiB schon 27 und der Wert ist munter weiter gestiegen.
Im Vergleich dazu hat sich bei der
Intel X25-M G1 80GB nach 431,9031 TiB die Anzahl der Reallocated sectors von 02 auf 04 erhöht (den Post 0 auf 2 habe ich nicht gefunden) und da war der MWI auf 82, es waren also nur 18% der Spezifizierten P/E Zyklen verbraucht. Bei
439,2336 TiB waren es 5 (MWI 80), bei
443 TiB 7 (MWI 79) und Ende war sie nach
883.46 TiB, da war der Zähler der Reallocated sectors schon mehrfach übergelaufen (ist der Aktuelle Wert, nicht der Rohwert) und auch der MWI war schon unter 0 und wieder bis 235 runter. Der Available Reserved space war auf 16 gefallen.
Beiden haben den gleichen Controller, beiden haben 80GiB NAND verbaut (ist ja ein 10 Kanal Controller) und auch wenn die Meldung über das Ableben der X25-E fehlt, so war bei
der letzten Meldung nach 1.58 PiB der Available Reserved space von 25 (bei 1.49 PiB) auf 14 gefallen, die SSD also sehr nahe am Ende und hatte nicht einmal doppelt so viele Daten geschrieben wie die X25-M mit dem MLC NAND.
Vergleicht man das noch mit der Crucial m4 64GB, die genau darüber auch nahe dem Ende ist aber noch lebt und 2110.8663 TiB (=2.06PiB) geschrieben und 36477 P/E Zyklen überstanden hat, obwohl sie 20% weniger NAND und auch nur das MLC in 25nm statt in 50nm wie die beiden Intel hat, so zeigt das doch deutlich, dass SLC wohl eben nicht so eine mythische Haltbarkeit hat und die Fortschritte der Controller sowie der NAND Fertigung die prinzipiellen Nachteile von mehr Bits pro Zelle und kleineren Fertigungsstrukturen durchaus mehr als ausgleichen können. Das haben wohl auch die SSD Hersteller bemerkt und setzen deswegen nun die besten MLC Qualtitäten als eMLC statt SLC NAND bei Enterprise SSDs ein.
Glaube also nicht jede unbelegte Behauptung die irgendwo im Netz zu lesen ist! Auch das
das Back Bias assisted Band to Band tunneling (B4) Flash um das es hier geht, ist noch Zukunftsmusik und hat mit dem NAND normaler SSDs nicht zu tun, es ist auch deutlich teurer.
juenger schrieb:
Und bitte hör auf, in einem Anwenderforum, wofür ich das CB Forum eigentlich halte, deine Marketing-Ratschläge zu verbreiten.
Was haben denn Deine Ausführungen über Zukunftsmusik wie B4 Flash hie verloren? Das kann heute noch niemand kaufen und wenn, wäre es extrem teuer.
juenger schrieb:
Ich als Konsument und Endverbraucher lasse mich nicht für Dumm verkaufen und von Dir laufend erklrären wie "Schlecht" ein Speichersystem sein darf und ich als Kunde dies so hinnehmen müsse.
Klar kann man immer das bestes haben wollen, nur macht es Sinn? Die Kapazitäten steigen immer noch und die Preise fallen, dazu gibt es jetzt mit PCIe SSDs Modelle deren Performance die von SATA 6Gb/s SSD in den Schatten stellt. Von der Performance der SSDs der ersten Generation die es noch mit SLC NAND gab, gar nicht zu reden. Hättest Du Dir damals einige davon gekauft und ich einige mit der gleichen Kapazität in MLC, so hätte ich genug Geld gespart um mir zwischendurch ein paar neue SSDs zu kaufen , die dann auch noch viel größer und schneller als Deine alten SLC SSD wären.
Gerade für einen Heimanwender ist es bei Computer-HW eben nicht die besten Strategie sich immer die allerbeste und daher auch teuerste HW zu kaufen, auch wenn diese sehr viel länger haltbar ist, nicht solange die Entwicklung immer weiter geht.
juenger schrieb:
Wenn Du Fakten hast, gerne aber deine konzernorientierte Meinungsmache ist auf Dauer echt nervend.
Deine schwachsinnigen Kommentare auch, denn alle größeren HW Anbieter und NANDs werden eben nur von großen Anbietern gefertigt weil man das nicht im Hinterhof machen kannn, sind nun einmal große Konzern. Wieso sollte jemandem empfehlen eine SSD von einer kleinen Klitsche zu kaufen, die es morgen vielleicht nicht gibt, die den Controllerhersteller vielleicht morgen nicht mehr bezahlt und damit keine FW Update für ihre Kunden mehr bekommt (schau mal wie viele Anbieter von SSD mit dem Sandforce schon ewig keine FW Update für ihre Kunden mehr bereitstellen) und deren SSDs entweder sehr teuer sind oder die einfach NANDs fragwürdiger Qualität verbauen, weil dort kein Label von Tier 1 NAND des NAND Herstellers drauf ist?
Außer dem bescheuerten Argument mit den paar Lesern hier zu versuchen eine Marktkonzentration verhindern zu wollen, was sowieso nirmals klappen wird und gegenüber den Lesern unfair ist, fällt mir nichts ein. Außerdem gibt es auch noch Egoisten in Foren die anderen eine eher zweifelhafte Empfehlung geben um die als Versuchskanninchen zu missbraichen, weil sie selbst sich nicht trauen diese Hardware zu kaufen und daher wissen wollen, ob der andere auf die Nase gefolgen ist um nicht selbst in Risiko zu gehen. Was man davon halten soll, kann wohl jeder selbst für sich beantworten. Was von beiden ist also Dein Motiv mich für meine Empfehlungen zu kritisieren?
juenger schrieb:
Die zum Teil signifikante verlangsamsung der Leseraten ist aber schon ein recht deutliches Indiz und korrekterweise muesste man sagen lässt sich "bisher" fehlerfrei auslesen.
Das ist korrekt, aber laut JEDEC JESD218 müssen die Daten nur 12 Monate lange gelesen mit der genannten UBER werden können und solnage die spezifizierten P/E Zyklen nicht verbaucht und die Temperatur nicht überschritten wurde. Danach sollten die Anbieter die die NAND binnen und dazu die spezifizierten Zyklen angeben, wenn sie sich an die Norm halten.
juenger schrieb:
Die Frage bleibt aber offen, wie sich die Degeneration der Flash Zellen bei noch längerer Recovery-losen Zeit weiterentwickeln wird.
Dann werden die Daten irgendwann verloren gehen, das ist keine Frage. NAND ist eben kein Langzeitdatenspeicher und die SSD werden von Heimanwendern auch üblicherweise nicht dafür eingesetzt.
juenger schrieb:
Aber wie kommst Du eigentlich zu der Annahme es handle sich um ein FW Problem? Nur weil Samsung ein FW Update angekündigt hat, bedeutet dies doch nicht zwingend das ein FW Problem vorliegt? Meiner Meinung nach liegt das Problem in der Hardware.
Nein! Die HW, also die NANDs und damit deren DRT ist ja gegeben und damit hätte die FW darauf eingestellt werden müssen und deshalb ist es die Schuld der FW. Mit einer anderen HW, also anderen NANDs wie den 3d-TLC-NANDs der 850 Evo wäre das auch mit der FW nicht passiert, das ist klar. Aber da FW immer auf die konkrete HW angepasst sein muss und nicht umgekehrt, ist eben die FW hier schuld.
Aueßrdem gibt es ja zwei Schritte bei dem Update die das Problem beheben:
Das zeigt, dass alleine das FW Update den Großteil des Effektes ausmacht. Wie viel von dem Effekt der Refresh und wie viel alleine die anderen interne Anordnung nach dem Refresh, welches offenbar sequentiell neuschreibt. Dabei ist der Einfluss der Anordung der Daten zu berücksichtigen die die Controller normalerweise ebe abhängig von dem Zusammenhang beim Schreiben vornehmen, was auch als Schattenfilesystem bezeichnet wird.