News Crucial MX100 mit 16-nm-Flash als M500-Nachfolger

dreamy_betty schrieb:
Naja, der einzige Vorteil könnte der Preis sein, denn die Produktionskosten sollten günstiger sein (sofern die Ausbeute passt).
Bevor die Ausbeute nicht stimmt, wird Micron selbst (Crucial ist ja eine Tochterfirma) keine SSDs mit den NANDs bringen.

dreamy_betty schrieb:
Da es sich bei diesem 16nm Flash nur um einen einfachen Shrink handelt und auch weiterhin 128Gb per Die geboten werden, sind auch die Eigenschaften dieselben.
So einfach ist das auch nicht, denn es ändern sich mit einem Shrink auch wichtige Eigenschaften. Die Zyklenfestigkeit nimmt tendenziell ab, die Latenz steigt, aber wenn es ein neuen Interface gibt, dann kann der Durchsatz sogar steigen. Letztlich hängen die Eigenschaften der SSD aber vor allem vom Controller und dessen FW ab, worüber wir aber noch gar nichts wissen.
dreamy_betty schrieb:
Von 25nm auf 20nm sank die Lebensdauer damals von 3.000 auf 1.000 P/E-Zyklen.
Hast Du einen Beleg dafür? Ich habe nur immer die Aussage gefunden, dass Micron erwartet hat mit 20nm die gleiche Zyklenfestigkeit wie bei 25nm zu erreichen. Das hat aber wohl nicht so ganz hingehauen, weshalb die m500 auch weniger Nutzkapazität spendiert bekommen hat (siehe Anands Review der m550). Allerdings haben wohl die eMLC in 20nm nur 10.000 garantierte P/E Zyklen statt der 30.000 bei den eMLC in 25nm, was im Prinzip die 1000 plausibel erscheinen lässt.

1000 P/E Zyklen reichen für gewöhnlich immer noch für Jahrzehnte. Gerade gibt es hier bei hardwareluxx.de eine 840 250GB mit 40P/E Zyklen nach einem Jahr und 6.5TB. Da reichen alleine die garantierten P/E Zyklen für 25 Jahre und die NANDs in SSDs von NAND Herstellern haben bisher in allen Endurance Test mindestens doppelte so viel Zyklen überstanden wie die Hersteller garantieren, meist noch deutlich mehr.

Bzgl. der Haltbarkeit scheinen einige "Fachleute" unnötig Bedenken zu streuen, was man aber nun wirklich nicht ernst zu nehmen braucht.
fanatiXalpha schrieb:
naja, so tolle news sind das dann ja nicht, wenn die lebensdauer sinkt :/
Na und, das passiert doch schon die ganze Zeit und mit jeder neuen Generation. Möchtest Du deswegen lieber wieder eine SSD der ersten Generation zum damaligen Preis haben? Doch wohl kaum.

Mr.Seymour Buds schrieb:
Denke Crucial wird daran nichts (zum Schlechten) ändern.
Wie es schon erklärt wurde, ist das eine physikalische Sache und wird nicht absichtlich gemacht. Im Gegenteil, die Hersteller tun eine Menge um den Effekt zu kompensieren, z.B. die bei der Signalverarbeitung.
etking schrieb:
Schade, dass Apple sich die Anobit-Technologie zur Erhöhung der Schreibzyklen auf 50.000 einverleibt hat
Glaubst Du das? Da kommt ein kleines Startup, verspricht eine Menge, beweisen nichts und die Macher haben das Glück die Klitsche für eine unglaubliches Vermögen zu verkaufen.
etking schrieb:
Im Juni kommen gerüchteweise endlich auch die neuen LSI Sandforce-SSDs, die wegen der Kompression weniger Schreibzyklen verbrauchen und dadurch im Vergleich zu Samsung und Crucial besonders langlebig sind.
Was nutzt das, wenn die verbauten NANDs nicht wenigstens gleichwertig sind? Von den NAND Herstellern hat nur noch Intel eine SSD mit Sandforce im Programm. Außerdem haben bei allen SSD mit Sandforce im Dauerschreibtest auf xtremesystems.org nicht wirklich sensationell gut abgeschnitten, auch die von NAND Herstellern wie Intel oder SanDisk. Da wird auch mehr versprochen als gehalten! Außerdem hat der SF-3700 noch gewaltige Probleme mit der Leistungsaufnahme, wann er serienreif ist, steht noch in den Sternen, vorgestellt wurde er ja schon vor einer ganzen Weile.

estros schrieb:
Hoffentlich machen sie es wie Samsung mit TLC bzw SLC Speicher bei der EVO.
Wobei der ja Pseudo-SLC und nur ein beschränkte Bereich.

fox40phil schrieb:
hm naja mal abwarten was vom Hersteller für Werte angegeben werden
Die Hersteller geben nur noch selten Werte an und wenn, dann meist total untertriebene TBW Werte. Ich wette es werden wieder die üblichen 72TBW sein, die Crucial seid der C300 für alle Consumer SSD mit mindestens 120GB angibt.
fox40phil schrieb:
ob dann die M500 noch weiter produziert und verkauft wird.
Wenn von einem Nachfolger die Rede ist, dann ist das i.d.R. ein Hinweis, dass dies wohl nicht der Fall sein wird. Das würde auch keinen Sinn machen, zumal es mit der m550 ja nun eine High-End Consumer SSD Reihe gibt und die m500 damit nun die Value-Variante geworden ist. Wenn die MX100 nun noch günstiger wird, welchen Platz hätte da die m500 noch?

Mr.Smith schrieb:
schneller wird die mx100 natürlich auch..
neuerer controller etc. und sparsamer..
Warten wir es ab. Die m4 war sparsamer als die m500, neue Generationen werden also nicht automatisch sparsamer als ihre Vorgänger.

frankkl schrieb:
Die M500 mit 240 GB liegt schon seid Wochen bei etwa 90 Euro und die M550 mit 256 GB für etwa 122 Euro.
Die m550 ist vor allem in der höchsten Kapazitäten interessant, den die m500 960GB ab €365,83 kostet €0,381/GB, aber die m550 1TB ab €380,38 sogar nur €0,380/GB. Allerdings sind bei den Versionen ab 480/512GB die Unterschiede bzgl. Aufbau und Performance auch am geringsten.

frankkl schrieb:
hoffendlich wird die genauso gut wie die M500 :) und nicht sowas wie eine Crucial v4 :rolleyes:
Das denke ich schon. Crucial dürfte aus dem Fehlgriff mir der v4 gelernt haben, dass es keinen Sinn macht einen Schrottcontroller zu verwenden um Kosten zu sparen. Schaut man mal über den Tellerrand zu AData, die ja mit der SP 920 praktisch eine m525 gebracht haben die sogar bei Micron gefertigt wird, könnte es der gleiche Silicon Motion SM2246EN wie in der AData SP610 werden. Immerhin hat die v4 ja gezeigt, dass Micron / Crucial nicht exklusiv an Marvell gebunden zu sein scheint. Wie dieser Test zeigt, ist der Controller so schlecht nicht und so miese Controller wie den Phison 3105 der v4 gibt es wohl auch nicht mehr, so dass es durchaus nicht die schlechteste Option wäre, aber warten wir es ab.
 
shire89 schrieb:
Du vernachlässigst, dass durch die kleine Fertigung auch die Ströme zum Schalten kleiner werden. In welcher Relation die beiden Parameter stehen, weiß ich leider nicht.
Diese werden zwar geringer, trotzdem herrschen beim Schalten auf Transistorebene noch immer kV bzw. hohe Ampere. Das Verringern der Oxidschicht nimmt einfach zu großen Einfluss darauf. Klar spielt das auch da rein aber es verkompliziert die Erklärung und der Effekt ist nach dem was ich weiß eher gering.
 
Die Hersteller werden doch immer "findiger" beim Umgehen der physikalischen Grenzen der Minimierung der NAND-Strukurbreiten.

Die Controller werden immer weiter optimiert und es würde mich nicht wundern, wenn die Controller demnächst intern die "Löschung" speichern, aber nicht ausführen. Dem Betriebssystem wird dann vorgegaukelt, der Speicherbereich sei leer - obwohl er es nicht ist. Der Controller löscht ihn erst dann, wenn er tatsächlich gebraucht wird. So verringert sich der "Verschleiß" nochmals.

Warten wir mal ab, was die Hersteller alles aus dem Hut zaubern - und was es in der Realität bringt. Die großen Hardwaremagazine werden sich eh sofort auf die ersten 16nm-Flashdisks stürzen, um das herauszufinden. ;)
 
fortunes schrieb:
Die Controller werden immer weiter optimiert und es würde mich nicht wundern, wenn die Controller demnächst intern die "Löschung" speichern, aber nicht ausführen. Dem Betriebssystem wird dann vorgegaukelt, der Speicherbereich sei leer - obwohl er es nicht ist. Der Controller löscht ihn erst dann, wenn er tatsächlich gebraucht wird. So verringert sich der "Verschleiß" nochmals.

Das macht der Garbage Collector der SSDs doch schon seit Jahren so... wobei nicht kurz vor der Neubenutzung gelöscht wird sondern in ner "ruhigen Minute" wenn der komplette Block als leer markiert wurde (so das eben nur eine einzige Löschoperation benötigt wird)


Ich bin mal gespannt wie günstig die SSDs noch werden können. Den Preis pro Gigabyte von Festplatten werden sie wohl nie einholen können, denn auch da geht die Entwicklung ja noch weiter. Aber es haben auch beide Techniken irgendwo ihre Berechtigung und Einsatzzweck.
 
estros schrieb:
Hoffentlich machen sie es wie Samsung mit TLC bzw SLC Speicher bei der EVO.
Das ist aber kein Vorteil. Ich würde MLC immer vorziehen, auch wenn Techniken um die Haltbarkeit zu verlängern eingesetzt werden.
 
Holt schrieb:
Die m550 ist vor allem in der höchsten Kapazitäten interessant, den die m500 960GB ab €365,83 kostet €0,381/GB, aber die m550 1TB ab €380,38 sogar nur €0,380/GB. Allerdings sind bei den Versionen ab 480/512GB die Unterschiede bzgl. Aufbau und Performance auch am geringsten.

Das denke ich schon. Crucial dürfte aus dem Fehlgriff mir der v4 gelernt haben, dass es keinen Sinn macht einen Schrottcontroller zu verwenden um Kosten zu sparen. Schaut man mal über den Tellerrand zu AData, die ja mit der SP 920 praktisch eine m525 gebracht haben die sogar bei Micron gefertigt wird, könnte es der gleiche Silicon Motion SM2246EN wie in der AData SP610 werden. Immerhin hat die v4 ja gezeigt, dass Micron / Crucial nicht exklusiv an Marvell gebunden zu sein scheint. Wie dieser Test zeigt, ist der Controller so schlecht nicht und so miese Controller wie den Phison 3105 der v4 gibt es wohl auch nicht mehr, so dass es durchaus nicht die schlechteste Option wäre, aber warten wir es ab.
Preislich sind die SSD im 1000 GB bereich noch zuteuer und keine alternative zur Festplatte !

Wenn die MX100 einen exoten billig Controller erhält wäre die keine richtige alternative mehr :(

Aber die M550 ist preislich schon so interessant kostet jetzt etwa soviel wie die M500 im Januar 2014 gekostet hat für meine M500 mit 240 GB hatte ich knapp 117 Euro bezahlt die M550 mit 256 GB kostet jetzt nur noch 122 Euro und das nur ein paar Wochen später,
da lohnt sich vielleicht die MX100 kaum noch mit einen komischen Controller :rolleyes:

frankkl
 
Zuletzt bearbeitet:
@Diablokiller999: Hast du dafür auch Belege? Ich tippe mal darauf, dass man diese beiden genannten Parameter proportional ausrichtet, so dass die Lebensdauer sich nur minimal ändert.
 
Die Lebensdauer kennt bisher nur einen Weg, sie wird immer kürzer, aktuelle SSD-Speicherzellen verkraften nur noch einen Bruchteil der Schreibzyklen der vorletzten Generation, nur durch die höhere Speicherkapazität gleicht sich das wieder aus. Eine aktuelle 512GB SSD verkraftet in etwa so viele insgesamt geschriebene TB wie eine 128GB SSD vor drei Jahren, grob geschätzt.

Mit reinen, intelligenten Softwarelösungen könnte man zwar die Schreibzyklen um den Faktor 50 erhöhen (Apple / Anobit), umgesetzt wird das aber bisher nicht in Endkundenprodukten. Fast alle SSDs am Markt verbrauchen sogar mehr Schreibzyklen als eigentlich nötig, weil sie komplexe interne Datenbanken führen.
 
Zuletzt bearbeitet:
Auch die wird nicht schneller sein als die Vorige Serie.
Es muss ein neuer schnellerer SATA Bus her. SSD auf SATA 6.0 da limitiert der Bus.
Erst dann wenn SATA 12 kommt, dann werden wir wieder mal einen Performanceschub füllen.
 
fortunes schrieb:
Die Hersteller werden doch immer "findiger" beim Umgehen der physikalischen Grenzen der Minimierung der NAND-Strukurbreiten.
Auf jeden Fall, die Controller und vor allem auch die immer größer werdenden Kapazitäten kompensieren diese Effekte ja auch, weil sich bei mehr NAND die Schreibzugriffe auch über mehr Zellen verteilen und damit bei gleich viele TBW weniger Zyklen anfallen.

Über die Haltbarkeit wird immer viel geredet und manche fordern bzw. wünschen sich da unrealistisch hohe Werte, die praktisch kein normaler Heimanwender braucht. Wenn man 10TB im Jahr schreibt, ist das schon sehr viel, das schaffen die Wenigsten.

fortunes schrieb:
Die Controller werden immer weiter optimiert und es würde mich nicht wundern, wenn die Controller demnächst intern die "Löschung" speichern, aber nicht ausführen. Dem Betriebssystem wird dann vorgegaukelt, der Speicherbereich sei leer - obwohl er es nicht ist.
Wieso muss man dem Betriebssystem etwas vorgaukeln? Das prüft ja nicht, ob Daten wirklich gelöscht wurden, denn für das Betriebssystem ist das Löschen einer Datei nur das Setzen eines entsprechenden Flags in deren Verwaltungsdaten und dann ggf. noch die Mitteilung über TRIM, aber ob diese angekommen ist, interessiert das Betriebssystem überhaupt nicht.

Außerdem arbeiten die Controller schon so, denn es reicht aus die Daten als ungültig zu markieren und die Verknüpfung der LBAs mit den NAND Adressen aufzuheben um keinen Zugriff mehr auf die Daten in getrimmten LBAs zu haben. Wenn nun aber z.B. nur ein 4k Cluster getrimmt wurde, dessen Daten in einem Block von 1MB oder 2MB Größe stehen und dessen übrige Daten noch gültig sind, so wäre es für die Write Amplification fatal, wenn man die ganz übrigen Daten erst kopieren müsste um dann den Block löschen zu können, nur weil 4k davon ungültig geworden sind. Das würde man nur machen, wenn man den Platz unbedingt braucht, weil die SSD eben extrem voll ist.
fortunes schrieb:
Der Controller löscht ihn erst dann, wenn er tatsächlich gebraucht wird. So verringert sich der "Verschleiß" nochmals.
Das macht der Sandforce genau so, aber das ist auch Schwachsinn und führt nur dazu, dass die Schreibrate nach dem erstmaligen Beschreiben aller NANDs entsprechend abfällt. Geschont wird dabei auch nichts, denn wenn keine gültigen Daten mehr in einem Block stehen, dann kann man den auch vorher löschen. Ob der nun früher oder später gelöscht wird, hat auf die Lebensdauer keinen Einfluss, da spielt nur eine Rolle, ob vor dem Löschen noch Daten kopiert werden müssen und wie viele.

Jesterfox schrieb:
Das macht der Garbage Collector der SSDs doch schon seit Jahren so... wobei nicht kurz vor der Neubenutzung gelöscht wird sondern in ner "ruhigen Minute" wenn der komplette Block als leer markiert wurde (so das eben nur eine einzige Löschoperation benötigt wird)
Wenn Du mit "nur eine einzige Löschoperation benötigt wird" meist, dass es keine Kopiervorgänge geben muss, dann passt es, denn zweimal löschen gibt es nicht, so einen Block kann man immer nur als Ganzes Löschen, Pageweise kann man Lesen und Schreiben, aber Löschen geht eben nur Blockweise.

Obwohl auch da die Welt nicht schwarz-weiß ist, sondern natürlich in der Idle-GC auch mal Blöcke gelöscht werden, die noch gültige Daten enthalten welche vorher kopiert werden, sonst könnte der Controller irgendwann keine freien Pages mehr bereitstellen.
Jesterfox schrieb:
Ich bin mal gespannt wie günstig die SSDs noch werden können. Den Preis pro Gigabyte von Festplatten werden sie wohl nie einholen können, denn auch da geht die Entwicklung ja noch weiter.
Sag niemals nie, aber so bald werden wir das wohl nicht erleben, zumindest nicht im Consumer Bereich. Bei den schnellen Enterprise HDDs ist es dagegen schon fest Realität, die 15k Platten verschwinden fast schon vom Markt und werden durch langsamere Platten und Cache-SSDs ersetzt und den langsameren Platten mit 10k rücken die DC SSD mit hohen Kapazitäten auf den Leib, denn auch wenn die SSDs teurer sind, so kann man sich damit ggf. die Cache SSD einsparen und braucht Steckplätze, was die Lösung am Ende wirtschaftlicher machen wird. Vor allem bei Daten die selten geschrieben aber oft gelesen werden, wo also die Anforderungen an die Haltbarkeit der NANDs nicht so hoch sind und damit die SSDs günstiger sein können.

Jesterfox schrieb:
Aber es haben auch beide Techniken irgendwo ihre Berechtigung und Einsatzzweck.
Wobei die SSDs die HDDs ähnlich verdrängen werden, wie schon die USB Sticks zuerst die Floppy und dann zunehmend die CDs und DVDs am Computer verdrängt haben, wobei da natürlich das Internet auch seinen Teil zu beigetragen hat.

frankkl schrieb:
Preislich sind die SSD im 1000 GB bereich noch zuteuer und keine alternative zur Festplatte !
Bei reinen GB/€ Vergleichen wird die HDD natürlich noch auf lange Zeit gewinnen, aber dabei lässt man die Vorteile der SSD ja auch komplett außen vor. Außerdem ging es dabei ja auch darum die m500 mit der m550 zu vergleichen und da gewinnt die m550 im 1TB Bereich eben deutlicher an Attraktivität als bei den kleinen Kapazitäten, oder würdest Du eine m500 960GB der m550 1TB vorziehen?

frankkl schrieb:
Wenn die MX100 einen exoten billig Controller erhält wäre die keine richtige alternative mehr :(
Da würde ich erst mal die Tests abwarten, denn auch die Controller der günstigen Hersteller sind heute nicht mehr so schlecht wie noch zu Zeiten der v4, wobei der dort verwendete Phison 3105 schon damals total veraltet war, auch innerhalb der Produktpalette von Phison selbst.

frankkl schrieb:
da lohnt sich vielleicht die MX100 kaum noch mit einen komischen Controller :rolleyes:
Warten wir es mal ab, noch gibt es ja keinerlei Auskünfte über den Controller, aber die Änderung des Namen von M auf MX könnte in die Richtung deuten. vielleicht wollte man den Kunden auch nicht verwirren und bringt deswegen keine M600, weil sonst die höher positionierte m550 eine geringere Nummer hätte.

etking schrieb:
aktuelle SSD-Speicherzellen verkraften nur noch einen Bruchteil der Schreibzyklen der vorletzten Generation, nur durch die höhere Speicherkapazität gleicht sich das wieder aus. Eine aktuelle 512GB SSD verkraftet in etwa so viele insgesamt geschriebene TB wie eine 128GB SSD vor drei Jahren, grob geschätzt.
Das ist doch totaler Schwachsinn! Die Samsung 840 Pro 128GB hat in diesem Test mehr als 3PB geschrieben. Vergleicht man das mit ihren Vorgängern im Dauerschreibtest auf xtremesystems.org, wo die 470er 64GB auf 478TiB gekommen ist, so hat die aktuelle 840 Pro im Verhältnis zur Größe dreimal so viele Daten geschrieben und nicht nur ein Viertel, wie Du behauptest.

Betrachtet man die TLC Modelle, so hat die 840 (None-Pro) mit 120GB 432.92 TiB geschrieben, nur etwa 10% weniger als die halb so große 470er bei Doppelter NAND Kapazität. Auch da sind wir also weit von Deinem Faktor 4 entfernt und selbst die 432 TiB sind noch viel mehr, als Heimanwender normalerweise während der Nutzungsdauer auf ihre SSD schreiben, da schaffen viele kaum ein Zehntel davon.

etking schrieb:
Mit reinen, intelligenten Softwarelösungen könnte man zwar die Schreibzyklen um den Faktor 50 erhöhen (Apple / Anobit), umgesetzt wird das aber bisher nicht in Endkundenprodukten.
Wo sind denn die super haltbaren SSD mit der genialen Anobit Technik? Außerdem war das damals wohl keine SW Lösung, sondern schien in den Bereich der Signalverarbeitung zu gehen und das machen die ganze NAND- und Controllerhersteller schon selbst seid Jahren, weshalb sich eben die Haltbarkeit nicht wie von Dir behauptet so massiv verschlechtert hat.

etking schrieb:
Fast alle SSDs am Markt verbrauchen sogar mehr Schreibzyklen als eigentlich nötig, weil sie komplexe interne Datenbanken führen.
Wie sollen sie das denn sonst machen? Man muss nun einmal so viel verwalten, weil man NAND eben nicht pageweise löschen kann. Hätte man 4k Pages und könnte diese einzeln löschen, wäre der Aufwand ungleich geringer, aber selbst dann müsste man noch eine Indirection Table haben um ein Wear-Leveling zu realisieren und die Dies wären unverhältnismäßig groß.

Makso schrieb:
Es muss ein neuer schnellerer SATA Bus her. SSD auf SATA 6.0 da limitiert der Bus.
Erst dann wenn SATA 12 kommt, dann werden wir wieder mal einen Performanceschub füllen.
Es wird niemals SATA 12Gb/s geben, da man sich für PCIe in Form von SATA Express bzw. M.2 entschieden hat. Schnellere Schnittstellen gibt es also und so langsam kommen sie auch auf den Markt. Darüber hatte wie nun zuletzt doch genug News und Threads hier.
 
Holt schrieb:
Wenn Du mit "nur eine einzige Löschoperation benötigt wird" meist, dass es keine Kopiervorgänge geben muss, dann passt es, denn zweimal löschen gibt es nicht, so einen Block kann man immer nur als Ganzes Löschen, Pageweise kann man Lesen und Schreiben, aber Löschen geht eben nur Blockweise.

Obwohl auch da die Welt nicht schwarz-weiß ist, sondern natürlich in der Idle-GC auch mal Blöcke gelöscht werden, die noch gültige Daten enthalten welche vorher kopiert werden, sonst könnte der Controller irgendwann keine freien Pages mehr bereitstellen.

Ja, war n bissl zusammengefasst. Das Umkopieren provoziert ja evtl. spätere zusätzliche Löschoperationen. Das Umkopieren sollte der idle-GC nur im äuß0ersten Notfall machen, wobei es natrülich dieal wäre wenn eine SSD imer genug Overprovisioning hätte. Aber das kostet ja extra... (oder reduziert die verfügbare Kapazität bei gleichbleibendem Preis)
 
shire89 schrieb:
@Diablokiller999: Hast du dafür auch Belege? Ich tippe mal darauf, dass man diese beiden genannten Parameter proportional ausrichtet, so dass die Lebensdauer sich nur minimal ändert.
Hab die gleiche Frage unserem Dozenten für VLSI in der Vorlesung gestellt und das war seine Antwort, nahm den Mann vom Frauenhofer-Institut da einfach mal beim Wort :D
 
Die MLC Schreibzyklen wurden von den Herstellern vor zwei Jahren noch mit 5000 angegeben, jetzt sind es laut Hersteller meist nur noch 1000. Ich sehe da eine erhebliche Verkleinerung.
 
etking schrieb:
Die MLC Schreibzyklen wurden von den Herstellern vor zwei Jahren noch mit 5000 angegeben, jetzt sind es laut Hersteller meist nur noch 1000.
Belege? Wer gibt für welche NANDs 1000 garantierte P/E Zyklen an? Mir fällt da bei den SSD von NAND Herstellern nur das TLC NANDs in der 840 ein, die Evo scheint laut den S.M.A.R.T. Werten 1250 garantierte P/E Zyklen zu haben. TLC und MLC sind verschiedene Techniken, die Verringerung liegt also nicht am Shrink. Im Gegenteil, die TLC NANDs der Evo sind 19nm NANDs, die der Vorgängergeneration waren noch 21nm.
 
Zuletzt bearbeitet:
Wer weiß, warten wir ab was Crucial da bekannt gibt und letztlich ist MLC-3 der Weg zu günstigeren SSDs. Eine einfache HDD kostetet etwa 50€ und da muss eine ausreichend große SSD auch hinkommen und die HDD bei den Standardkonfigurationen abzulösen, denn den Platz deb die HDD zusätzlich bietet brauchen viele User gar nicht. Um so günstig zu werden, muss an den NANDs und am Controller gespart werden, was aber kein Problem ist, denn auch die günstigen Controller sind keine lahmen Krücken mehr wie noch vor zwei Generationen und die MLC-3 aka. TLC NANDs halten auch mehr als lange genug durch. Wie viel Luft für ein weiteres Bit in der Zelle aber beim Shrink auf 16nm noch bleibt....
 
Zuletzt bearbeitet:
Da die MX100 bis auf die verbauten NANDs mit der m550 identisch ist, kann man ruhig zu MX100 greifen, zumal die verfügbaren Versionen ja schon jetzt zumindest pro GB günstiger sind als die m500 und sogar noch etwas schneller.

Über die Haltbarkeit kann man wenig sagen, laut Crucial sollen die 16nm NANDs ähnlich lange halten wie die 20nm NAND:
Haltbarkeit ist aber bei Heimanwendern überhaupt kein Problem, das wird nur unnötig aufgebauscht, denn kein normaler Heimanwender wird in der normalen Nutzungsdauer auch nur die Mehrzahl der garantierten P/E Zyklen hochwertiger NANDs (also keiner minderwertigen, die eigentlich in SSDs nichts zu suchen haben) verbrauchen. Wer eine SSD von einem NAND Hersteller kauft und sie nicht in Enterpriseumgebungen einsetzt, hat mit der Haltbarkeit keine Probleme. Ausfälle kann es zwar immer geben, aber das hat nichts mit der Haltbarkeit der NANDs zu tun.
 
@Holt

Das Anandtech Review macht eher einen durchwachsenen Eindruck.
Die Angabe der Größe des Caches fehlt.
Die 16nm bei dem 128GB würde ich aktuell zumindest als fraglich betrachten, den nur die 256er und 512er werden in der Pressemeldung direkt mit der 16nm Technologie in Verbindung gebracht. http://www.wallstreet-online.de/nac...erformance-branchenfuehrendem-funktionsumfang

Das Datenblatt selbst schweigt sich zum NAND vollständig aus und die Angabe in einen Review sind höchstens ein Indiz. Somit ist jede MX100 eine SSD die mit einen Ü-Ei zu vergleichen ist.("Kingston")
 
Wen interessiert die Größe des Caches? Das ist doch total irrelevant und hat keinen direkten Einfluss auf die Performance, genau wie bei HDDs auch. Der allergrößte Teils Cache ist bei SSDs obendrein nur zum Speichern der Verwaltungsdaten da, weshalb die mit den hohen Kapazitäten auch immer mehr Cache verbaut haben als ihre kleinen Geschwister und zuviele Userdaten im Cache stehen, wird es nur gefährlich für die Datensicherheit, sollte der Strom mal plötzlich ausfallen.

Natürlich ermöglicht die Reduzierung der Fertigungsstrukturen auch die Senkung der Preise, das war bei Halbleitern schon immer so! Micron ist da im Moment ganz vorne, die anderen Hersteller sind mit entsprechend verkleinerten Fertigungsstrukturen noch nicht so weit, aber Du den Review bei Anandtech aufmerksam liest, findest Du auf der zweiten Seite ja einiges über NAND und wohin sich der Markt entwickelt.

Zur Haltbarkeit macht Crucial nur die übliche 72TBW Angabe und da man die volle Kapazität (256/512GB) freigegeben hat und nicht nur 240/480GB wie bei der m500, scheint Micron ein großes Vertrauen in seine 16nm NANDs zu haben. Das ist mit einer Kingston V300 nicht zu vergleichen, Micron ist NAND Hersteller, Kingston nicht. Bisher hat noch kein NAND Hersteller SSDs mit NAND gebracht, die die versprochenen P/E Zyklen nicht weit übertreffen und bzgl. der Zyklenfestigkeit gibt es ja die Aussage, dass diese denen der 20nm NAND ähneln soll.
 
Zuletzt bearbeitet:

Ähnliche Themen

Zurück
Oben