News SSD-Langzeittest: Nach 1 Jahr und 9,1 Petabyte starb das letzte Exemplar

Piktogramm schrieb:
Du stellst Mutmaßungen in den Raum und das offensichtlich ohne die Artikel zu kennen
Korrekt, aber würde ich den Artikel kennen, bräuchte ich keine "Mutmaßungen in den Raum" zu stellen. Beantworte doch die Frage ob diese Billig SSDs dann auch auf die Haltbarkeit der NANDs hin getestet wurden, dann wären wir doch einen Schritt weiter.
Piktogramm schrieb:
Gönn dir den Artikel für 1,49€
Im Leben nicht, für den Mist von heise bezahle ich doch nicht auch noch Geld, schon aus Prinzip nicht.
Piktogramm schrieb:
dann können wir über Inhalte Diskutieren anstand über Hirngespinste.
Dann sag doch was dort steht und meinen Mutmaßungen widerspricht.
 
Axxid schrieb:
Und meine alte OCZ Agility 3 macht langsam Probleme. Könnte auch ein Treiberproblem sein. Wobei ich nachsehen müsste was da an Daten durch gegangen ist..
Wobei die SSD auch keinen guten Ruf hat(te) wenn ich mich nicht irre.

Meine laeuft und laeuft und laeuft (im Server als Cache). 2011 gekauft, hat auch gerade erst mal die 20TB geknackt.
 
Mir bringt der beste NAND nichts wenn der Controller verreckt....
Darum kauft man auch nicht wie einige ich nenne sie mal "Helden" hier vorschlagen das billigste was man finden kann, sondern schon min. 5 Jahre Garantie SATAs und hochwertige SSDs.

Billige SSDs haben auch oft Probleme mit der Firmware, dann sind auch mal schnell alle Daten weg. Also so billig wie möglich kaufen ist bei SSDs noch nie ein gute Idee gewesen. Genau das Gegenteil, so hochwertig wie möglich war die beste Taktik.

Mich hätte mal interessiert ob bei den M.2 100Grad throttel Geschichten was kaputt geht über einen Zeitraum von 1 Jahr. Gibts da schon Tests? Oder stellen die einfach Ventilatoren auf und künsteln so die Temps runter damit sie halten?
 
Hallo zusammen,

@ Holt

Im Leben nicht, für den Mist von heise bezahle ich doch nicht auch noch Geld, schon aus Prinzip nicht.

Der Artikel zu den Langzeittests der SSD`s ist in Heft Nr. 01/2017 zu Finden. Vielleicht kennst du ja jemanden, der das Heft hat oder kannst es sonstig Einsehen.

Ansonsten ist mir nicht ganz klar, was du an Heise, speziell der C`t, auszusetzen hast. Klar haben die auch ihre Schwächen, aber im Großen und Ganzen ist es die mit Abstand seriöseste deutsche IT-Seite als auch Publikation. Die sich auch was Trauen.

So long...
 
Merle schrieb:
Wenn dann die erste Zelle bei absolut gleichmäßiger Nutzung ausfällt wäre das ohnehin der worst case gewesen; die erste, instabilste Flashzelle kann nicht mehr beschrieben werden. Wear leveling hätte die Last umverteilt auf bisher weniger oft beschriebene Zellen, und damit länger gehalten.
Imo daher Testmethodik 1A, bildet den absoluten worst case ab.
Ich glaube Du verstehst die Testmethodik von heise und/oder Wear Leveling nicht.

c't hat mit h2bench sequentiell Daten geschrieben (SSD einmal voll), alles gelöscht und dann wieder von vorne. Damit wird jede Zelle gleich belastet. Fällt eine Zelle aus, greift der Controller auf Ersatzzellen zurück (davon gibt es ja etliche Gigabyte). Getestet wurde bis zum kompletten Tot der SSD.

In der Praxis ist ein Teil der SSD mit ziemlich statischen Daten belegt (cold data, z.B. OS, Programme, Games, Bilder...). Diese Zellen würden also ggf. nur 1x beschrieben werden, während ein kleiner Teil (z.B. 40 GB freier Speicherplatz) tagtäglich mit dynamischen Daten (hot data, z.B. Cache) durchgeknetet wird und tausende P/E-Cycles abbekommt. Damit das nicht passiert, verschiebt der Controller die statischen Daten bei Zeiten auf höher belastete Zellen, damit alle Zellen halbwegs gleichmäßig altern.

Auch haben sequentielle Schreibtests das Problem, dass sog. read-erase-modify-write-Zyklen nicht vorkommen.

Die Flash-Zellen bekommen in beiden Fällen mehr P/E-Cycles ab als es die TBW vermuten lässt (Write Amplification steigt).


Beim Test von c't dürfte die Write Amplification nahe 1 gelegen haben (TBW vom Dateisystem entspricht physikalisch geschriebener Datenmenge), während die Write Amplification im Alltag hohe Einstellige bis untere zweistellige Werte erreichen kann. Die SSD mag durchaus 9,1 PB schreiben können, das entspricht in der Praxis aber eher einigen 100 TB bis wenigen PB.

Der c't-Test ist also ein Best-Case-Szenario.
 
  • Gefällt mir
Reaktionen: Dunkeltier
Holt schrieb:
...
Das ist Quatsch, denn der Scheduler des Defragmentierdienstes wirft SSDs nach dem Klonen sofort raus ...
Sei mal nicht so absolut in der IT. Es gibt einen mir bekannten Falle, wo Windows 7 eine SSD nicht als SSD erkannt hat, auch wenn es sich nur um einen Fehler gehandelt hat. Kontrolle ist allemal besser, egal was die Theorie sagt.

Bei Windows 10 hingegen wird, wenn die SSD als "Solid-State-Laufwerk" (steht so in der Defrag-Liste) erkannt wird,
nicht defragmentiert, sondern der Trim-Befehl abgesetzt und der Controller kann seine Arbeit effizient erledigen.
Ob nun doch leicht defragmentiert wird, weiß ich aber nicht. Ohne Quelle bezweifle ich aber ein herkömmliches Defragmentieren.
 
Oh, dann habe ich ja noch paar hundert Jahre Zeit. :p

Gute Arbeit von den Herstellern, was halten HDD's aus ?
 

Anhänge

  • ssd.jpg
    ssd.jpg
    219,5 KB · Aufrufe: 617
Meine beiden:

Samsung Evo 840 ( 120 GB )
Zustand 91% = Laufzeit 532 Tage / Eingeschaltet: 2748 mal / Daten geschrieben: 15,7 TB

Samsung Evo 840 ( 250 GB )
Zustand 97% = Laufzeit 461 Tage / Eingeschaltet: 2459 mal / Daten geschrieben: 5,23 TB

Schreiben / Lesen / Iops, alles noch wie am ersten Tag.
 
Zuletzt bearbeitet:
Khalinor schrieb:
Meine Crucial und Samsung sollen noch ca. 9 Jahre halten ...
Mennoooo, da hab ich keinen Grund was neues zu kaufen :heul:
Anhang anzeigen 629926

samsung 830er und mx100, das sind auch die guten. die kann man vererben.

schöner test. zeigt einmal mehr, TLC kommt mir nichts ins haus.
 
Gibt/gab es so einen Test auch für Speicherkarten (SD/CF, Consumer vs. Industrial) ?
Ich habe eine CF-Karte in meinem 286er und würde gerne wissen, wie lange die in der Praxis hält.
 
Und meine alte OCZ Agility 3 macht langsam Probleme.

OCZ hatte damals extreme Qualitäts Probleme.

Billige SSDs haben auch oft Probleme mit der Firmware, dann sind auch mal schnell alle Daten weg.

Das hat mit dem Preis gar nix zu tun.
Vor allem ich kann auch alles überteuert verkaufen. Der Preis sagt da gar nix.

Zu dem Test muss man auch sagen. Die wollten die SSD kaputt machen. In wie weit das auf die Praxis übertragbar ist. Wage ich zu bezweifeln.

Wenn ich dann sage billig und Pro Modelle. Welche kann ich besser über Gebühr Drangsalieren. Da Rolle ich doch mit den Augen.

Da kann ich auch sagen. Werfen wir billige und teure HDDs oder SSD an die Wand. Schaun mer mal ob es den Preis wert ist. Wenn Sie das überlebt.

Wobei man auch sagen muss so viele Hersteller gibt es gar nicht. In den billigen ist im Grunde auch dasselbe drin. Nur der Marken Aufpreis für den Aufkleber entfällt dann eben.
 
Zuletzt bearbeitet:
schön zu wissen das meine 960 EVO vermutlich nicht schon bei erreichen der 200 TB Grenze abkackt und womöglich sogar nen Petabyte stemmen kann .. , hat schon Vorteile wenn keine beweglichen Teile mehr vorhanden sind .
 
Bei dem Schreiben muss man auch beachten.

Wenn ich nun eine 250er habe. Die hält bei normalen Nutzung 15 Jahre Offiziell und verträgt eher 25.30 Jahre. Gilt das ja bei aktueller Nutzung.

Wenn die mit in 5 Jahren zu klein wird. Und als Backup benutzt wird. Verlängert sich das ja extrem. Also man kann Sie kaum noch kaputt schreiben.

Zb meine 250er Intel 510 sagte 15 Jahre. Nun ist die eben kaum noch in Verwendung nach 3 Jahren. Defekt mal außen vorgelassen wird die mich überleben.

Ich halte auch das mit den kaputt Schreiben für ein Märchen in der Praxis.

Und zwar aus folgenden Grund. Klar kann ich ohne Probleme am Tag 500 Gig Daten schreiben. Nur wer kann das kontinuierlich. Also 7 tage die Woche. Monate Jahre ohne Pause?

Da kommen dann aussagen wie Steam oder Videos. Aber wer saugt jeden Tag also 7 tage die Woche. Monate, Jahre kontinuierlich seine Spiele. Oder Videos. Die meisten haben nur 30 Tage Urlaub. Selbst privat Videos erzeugt man ja nicht kontinuierlich. Sei den beruflich.

Viele übersehen, dass die Angaben wirklich davon ausgehen, dass man Jahre jeden Tag schreibt und das wären gigantische Datenmengen. Wobei ich mich frage würde man das dann bei HDDs machen. Würde nicht auch schnell der Headcrash kommen, wenn die HDD solche Gigantischen mengen weg stecken muss.

Also zumindest Privat sind die SSD so kaum zu killen. Weil große Datenmengen eben nicht kontinuierlich anfallen. Auch Windows Updates kommen ja nicht Gig weise jeden Tag kontinuierlich usw.

Und der Trend zum Streaming und Cloud wird die Sache auch entlasten. Das kommt ja noch hinzu.
 
Zuletzt bearbeitet:
Ich privat hab noch nie eine kaputte HD gehabt und die laufen teilweise 10h und 15h am Tag.
Häufiges Ein- und Ausschalten, Einschaltstrom, Beschleunigen, Abbremsen ist für eine HD schlimmer als häufige Zugriffe.

Es gibt HDs die auch nach 20 Jahren noch funktionieren...

Aber schön zu wissen, das meine Annahme von mindestens 10 Jahren Betriebsdauer für meine 850 EVO SSD wohl Realität werden kann.
Wahrscheinlich ersetz ich meinen 6 Jahre alten Computer, aussnahme die SSD und die RX480 Nitro, mit einzelnen bis 15 Jahre alten Bauteilen, onehin vorher...
 
Ich privat hab noch nie eine kaputte HD gehabt und die laufen teilweise 10h und 15h am Tag. Häufiges Ein- und Ausschalten, Einschaltstrom, Beschleunigen, Abbremsen ist für eine HD schlimmer als häufige Zugriffe.

Das ist aber einfach nur purer Zufall.

Ich denke auch nicht das Du dann eben da so viel geschrieben hast wie im Test zb auf die SSDs.

Das müsste man schon vergleichbar machen. Also nicht nur die reine Leerlaufleistung der HDDs.
 
Ich habe hier noch eine 5GB HDD mit ATA33 oder so :D die Läuft noch, sollte aus den 90ern sein.

Der Test belegt nur wieder das TLC minderwertig ist.

SLC oder MLC kaufen und sonst nichts.

mfg
 
Kasmopaya schrieb:
Mich hätte mal interessiert ob bei den M.2 100Grad throttel Geschichten was kaputt geht über einen Zeitraum von 1 Jahr. Gibts da schon Tests?
Die 950 Pro hat die gleichen NANDs der 850 Pro,
schreibt aber zwei- bis dreimal so schnell und hätte damit nach weniger als 6 Monaten die gleichen 9PB geschafft. Richtig heiß werden auch eher die Controller als die NANDs, wobei die NANDs bei höheren Temperaturen sogar mehr P/E Zyklen abkönnen als bei niedrigeren, auch von daher wäre ein kühlender Luftstrom über die SSD in so einem Test also geboten um die Ergebnisse nicht positiv zu verfälschen. Der Nachteil hoher Temperaturen der NANDs, eine geringere Data Retention Time und damit häufigere Refreshs, spielt ja bei solchen Tests kaum eine Rolle bzw. keine Rolle wenn nicht einmal statische Daten auf der SSD liegen, sondern wie wohl bei heise extrem praxisfern die ganze Kapazität überschrieben wird. Die haben von SSDs eben nicht viel Ahnung, über den Rest dort will ich nicht urteilen.

Generell gehört zu einem solche Endurance Test immer auch die Angabe der Durchschnittstemperatur der SSD dazu, damit man damit wirklich was anfangen kann.
Kasmopaya schrieb:
Oder stellen die einfach Ventilatoren auf und künsteln so die Temps runter damit sie halten?
Was heißt künstlich? Nur weil ein HW passiv gekühlt wird, bedeutet es ja nicht automatisch das sie ohne einen kühlenden Luftstrom auskommt und bei Enterprise HW ist es sogar häufig so, dass die HW auf der Platine und auch Steckkarten passiv gekühlt werden und alleine die dicken Lüfter in der Mitte des Gehäuses für den nötigen Luftstrom sorgt. Da steht dann auch meist in der Anleitung wie stark der sein muss, weil HW in Servern eben auch 24/7 Last abkönnen muss. So schreibt Intel bei der DC P3500:
Verzichtet aber bei der 750 auf diese Angaben, obwohl die 750 die Consumer Version der DC P3500 ist. Bei Consumer HW wird eben auf die Angabe zum nötigen Luftstrom oft verzichtet, Samsung schreibt aber z.B. sowohl im Datenblatt der 950 Pro als auch in dem der 960 Pro immerhin: "Proper airflow recommended"

Dies liegt daran, dass solche Consumer HW eben bei typischer Heimanwendernutzung nur kurz belastet wird und immer wieder Zeit hat sich abzukühlen, sollte sie doch länger belastet werden, drosselt sie dann eben notfalls die Performance um nicht zu überhitzen. Wie die Tests in den Reviews zeigen, muss man selbst ohne Lüftung meist zumindest in einem offenen Aufbau ohne großartige Hitzequellen in der Nähe dann auch schon eine ganze Menge Daten übertragen um an diesen Punkt zu kommen. Wer die SSD natürlich in einer Umgebung mit Temperaturen wie in einer Sauna packt, der sollte sich dann über eine früh einsetzende Drosselung nicht wundern. Aber bei ungenügender Kühlung drosseln GPUs und GPUs ja auch, von daher kann ich da nicht mit "künsteln" erkennen, wenn man für die nötige Kühlung sorgt, sonst müsste man auch fordern bei CPU Reviews alle CPUs die vom Hersteller ohne Kühler geliefert werden, diese dann auch so zu testen. :evillol:

engine schrieb:
Es gibt einen mir bekannten Falle, wo Windows 7 eine SSD nicht als SSD erkannt hat, auch wenn es sich nur um einen Fehler gehandelt hat.
Mit nicht, aber was für eine SSD auf was für einem Board war es denn? Außer wenn das Board das Auslesen der S.M.A.R.T. Werte unterdrückt und dann das BIOS die Device Ident Daten auch noch unkorrekt oder unvollständig wiedergibt, kann ich mit da keine Fall denken wo Windows SSDs nicht als solche erkennt, sofern deren Device Ident Daten stimmte.

Viel wichtiger ist also eher die Frage, woran festgemacht wurde, dass Windows die SSD nicht als solche erkannt haben soll. So einige hier im Forum haben nämlich angenommen die SSD wäre nicht korrekt erkannt worden, weil der Defragmentierdienst so aktiv war. Dies ist aber falsch, denn der läuft auch bei SSDs immer, es könnte ja sein das HDDs im System sind. Der wirft aber eben nach dem Klonen SSDs aus seinem Zeitplan raus, sobald er anläuft, möglicherweise nicht, wenn er schon vorher deaktiviert war, dies habe ich nie ausprobiert, aber dann würde die SSD ja auch nicht automatisch defragmentiert werden.
engine schrieb:
Kontrolle ist allemal besser, egal was die Theorie sagt.
Das ist schon richtig, nur wissen die meisten leider nicht, wo sie wirklich nachsehen müssen und das ist beim Defragmentierdienst eben in dessen Zeitplaner und nicht unter Dienste.

engine schrieb:
Ohne Quelle bezweifle ich aber ein herkömmliches Defragmentieren.
Schau selbst nach, öffne eine Power Shell und führe dort aus:
get-eventLog -logname application -source "microsoft-windows-defrag" | sort timegenerated -desc | fl timegenerated, message
Nun habe ich hier gerade kein deutsches Windows, aber im englischen Windows steht dann in der Ausgabe wann zuletzt ein retrim oder eine defragmentation gelaufen sind und bei findet bei SSDs eben zuweilen beides hintereinander. Dies ist aber wie gesagt kein volles Defragmentieren wie bei HDD, sondern dient nur dazu extreme Fragmentierung zu vermeiden, da diese dann auch bei SSDs für die Performance nachteilig ist und irgendwann auch bzgl. der Metadaten von NTFS zu Problemen führen kann. Ich habe mal eine Platte nicht von FAT32 auf NTFS konvertieren können, weil dort die Fragmentierung zu massiv war und erst nach einer Defragmentierung der HDD ging es dann. Keine Ahnung welches Limits es da gibt, aber Windows macht das nicht zum Spaß oder um den Verkauf von SSD zu fördern, sondern weil es eben schon Sinn macht.
Koto schrieb:
Vor allem ich kann auch alles überteuert verkaufen. Der Preis sagt da gar nix.
Der Mensch denkt zwar wie er selbst ist, aber so doof vorher nicht in einem Preisvergleichsportal die Preise der Produkte bei den namhaften Händlern zu vergleichen und daher dann total überteuerte Preise als Beleg für Qualität zu nehmen, ist hoffentlich keiner. Also unterstelle so einen Mist auch niemandem.
Koto schrieb:
Zu dem Test muss man auch sagen. Die wollten die SSD kaputt machen. In wie weit das auf die Praxis übertragbar ist. Wage ich zu bezweifeln.
Darüber wie weit oder nicht dies in die Praxis übertragbar ist, diskutieren wie doch hier gerade und natürlich ist es der Sinn jedes Haltbarkeitstests ein Produkt bis an seine Grenzen zu belasten und damit letztlich auch meistens zu zerstören, eben um innerhalb möglichst kurzer Zeit zu simulieren was im Alltag viel länger dauern würde. Dies kann eben auch nie 100%ig realistisch den Alltag widerspiegeln, aber sonst hätte man erst Ergebnisse wenn es das Produkt vermutlich längst nicht mehr gibt, wie es ja auch bei der BX200 praktisch der Fall war. Solche Tests sind also zwangsläufig auch fehlerbehaftet, aber wenn eine SSD im Test doppelt so lange durchhält wie eine andere, stehen die Chance gut, dass sie im Mittel über eine größere Population auch im Alltag eben länger hält. Eine 100%ig Übertragbarkeit im Sinne davon das sie auch im Alltag dann genau doppelt so lange hält, sollte man natürlich nicht unbedingt erwarten.

Koto schrieb:
Da kann ich auch sagen. Werfen wir billige und teure HDDs oder SSD an die Wand. Schaun mer mal ob es den Preis wert ist. Wenn Sie das überlebt.
Nein, das ist Quatsch. Hierbei würde man zumindest die HDDs Konditionen deutlich außerhalb ihrer Spezifikationen bzgl. der erlaubten Schocks aussetzen und Rückschlüsse auf das Verhalten bei Einhaltung der Spezifikationen aus dem Verhalten bei deren Verletzung zu ziehen, ist Blödsinn.
Koto schrieb:
Wobei man auch sagen muss so viele Hersteller gibt es gar nicht. In den billigen ist im Grunde auch dasselbe drin. Nur der Marken Aufpreis für den Aufkleber entfällt dann eben.
Das stimmt zwar schon, aber es wollen dann auch mehrere daran verdienen, neben dem NAND Hersteller auch der eigentlich Hersteller der SSD und der Anbieter dessen Name am Ende auf der SSD steht. Dazu werden kommt noch der Hersteller des Controllers und der kassiert dann womöglich auch noch für jedes FW Update extra, weshalb die Kunden solcher Billig Marken dann ohne auskommen müssen. Die Frage ist letztlich, wo die Dinger zusammengelötet werden, was man aber kaum erfahren wird und woher die NANDs kommen, denn wie der Fall der KingFast bei thessdreview gezeigt hat, kann ja auch durchaus NANDs aus dunklen Kanälen auf den Platinen der SSDs landen. Auch wenn dies Aussage des Herstellers dazu nicht wirklich glaubhaft klingt:
Wer 50.000 SSD im Monat herstellt (bei 5 Tagen pro Woche und 10 Stunden pro Tag also 200 pro Stunde), kauft also bei einem bisher unbekannten (google kannte damals HongWang International auch nicht) Anbieter NAND für 30 SSD, was der Produktion von 9 Minuten entspricht? Also eine absolute Kleinstmenge und dann prüft diese NANDs nicht einmal optisch, aber angeblich jede SSD? Dabei fällt die Fälschung aus dem richtigen Winkel sogar auf den Fotos auf:

Koto schrieb:
Ich halte auch das mit den kaputt Schreiben für ein Märchen in der Praxis.
Es hängt eben von der Qualität der verbauten NANDs ab. Wenn man das Pech hat eine mit solche zu erwischen wie diese KingFast, bei der NANDs drauf sind die selbst OCZ zu mies waren und deren Qualitätsansprüche waren damals den Ausfallraten einiger Serien nach zu urteilen offenbar nicht gerade sehr hoch angesetzt, dann würde ich mich über kaputtgeschriebene NANDs in einer SSD nicht wundern.

Norebo schrieb:
Ich privat hab noch nie eine kaputte HD gehabt und die laufen teilweise 10h und 15h am Tag.
Häufiges Ein- und Ausschalten, Einschaltstrom, Beschleunigen, Abbremsen ist für eine HD schlimmer als häufige Zugriffe.
Auch die allermeisten HDDs haben seit einiger Zeit ein sogenanntes Workload Rating, was von 55TB/Jahr für einfache Desktopplatte bis 550TB/Jahr für 3.5" Enterprise Nearline HDDs reicht. Dabei zählen anderes als bei SSD neben den geschrieben auch gelesenen Datenvolumen zum Workload. Bei der Anzahl der Start-Stopp Zyklen der Spindel sind hingegen ehr die Consumer HDDs im Vorteil, hier sind 10.000 pro Jahr bzw. 50.000 insgesamt die Regel, bei Enterprise HDDs sind zuweilen auch nur 250 im Jahr angegeben oder die Angabe fehlt komplett. Bzgl. der Betriebsstunden sind die ganz einfachen Consumer HDDs ohne Zulassung zum Dauerbetrieb auf maximal 2400 Power-On-Hours pro Jahr ausgelegt und manche gehen bei Dauerbetrieb dann auch schon bald nach den bei diesen HDDs üblichen 2 Jahren Garantiedauer kaputt, haben dann aber auch so viele Stunden runter wie in über 7 Jahren des vorgesehenen Betriebs angefallen wären.

Norebo schrieb:
Es gibt HDs die auch nach 20 Jahren noch funktionieren...
Ausnahmen bestätigen die Regel, aber schon seit einiger Zeit werden HDDs wie übrigens Consumer und auch Server HW generell, nur noch auf eine Nutzungsdauer von 5 Jahren ausgelegt. Praktisch hält die HW aber meist etwas bis deutlich länger, sofern eben die Spezifikationen eingehalten werden, erwarten sollte man es aber nicht.

C4rp3di3m schrieb:
Der Test belegt nur wieder das TLC minderwertig ist.
Nur weil TLC nicht die gleiche Schreibleistung und Haltbarkeit bietet, ist es längst nicht minderwertig. Dafür ist TLC für die Nutzung der allermeisten Heimanwender immer noch mehr als haltbar genug und günstiger, hat also durchaus seine Daseinsberechtigung. Von minderwertigen NANDs redet man nur, wenn die konkreten NANDs nicht die Vorgaben des NAND Herstellers für eine bestimmte Verwendung erreichen.

So gibt z.B. Micron für die 3D TLC NANDs 1500 P/E Zyklen an, wenn der Controller LDPC unterstützt ("mit BCH sind es nur 500"), erreichen bestimmte NANDs aus der Fertigung diese Werte nicht und landen trotzdem in SSDs, so hat diese SSD dann minderwertige NANDs verbaut. TLC generell als minderwertig abzutun, ist aber unsinnig. Man tut ja auch nicht die Arbeitskollegen die weniger Leistung bringen aber auch weniger verdienen als minderwertig ab, oder?
 

Ähnliche Themen

Antworten
2
Aufrufe
5.072
J
Zurück
Oben