Test Crucial MX100 SSD im Test

Hallo Leute

habe da mal eine frage an die Leute, die die 512 GB MX haben was für einen Wert hab ihr beim AS Benchmark bei 4 K Lesen und Schreiben
oder bei CrystalDiskMark Lesen und Schreiben

Schon mal ein ganz großes DANKE
 
Die Werte für 4k, egal ob Lesen oder Schreiben, hängen sehr vom System und dessen Energiespareinstellungen ab. Poste doch einfach den Screenshot von AS-SSD zusammen mit Informationen zum System im passenden Sammelthread!
 
ok mache ich
Ergänzung ()

@Holt

Energiespareinstellungen was muss ich da einstellen?
 
So schlecht sind die Werte nicht, als dass ich da deswegen was verstellen würde. Sonst muss man eben alles was Windows und das BIOS bzgl. Energiesparen haben deaktivieren um wirklich die Bestwerte zu erzielen, aber wirklich praktisch für den Alltag ist so eine Einstellung wegen der deutlich erhöhten Leistungsaufnahme dann nicht mehr.
 
Subwayne schrieb:
Jetzt mal ne Frage in die Runde. Wie merke ich das meine SSD den Geist aufgibt? Bei einer HDD ist es ja meist ein mechanischer Defekt, der sich "ankündigt". Wie merke ich das die Speicherzellen der SSD nicht mehr funktionieren? Danke

Subwayne

Ich nutze für solche speziellen via Software die Infos aus HardDiskSentinel.
Kurz vor meinem bevorstehenden Tausch von m4 64GB auf MX 100 256GB werden noch 985 Tage (fallend) angezeigt.
Als Vergleich hab ich auch noch SSDLife Pro installiert. Der zeigt mir im Moment 218 Jahre verbleibend an.

Hehe ...dann Traue ich lieber HDS ...der bei meinen HDD's auch immer gut im Rennen lag.
 
Das eine wie das andere Tool sind Schrott, zumindest wenn es um solche unsinnigen Vorhersagen geht. Schau einfach regelmäßig mit CrystalDiskInfo (die Portable Edition reicht) regelmäßig auf dem Media Wear Indicator (der heisst nicht so, aber meist erkennt man schnelll, welches Attribute es ist) und merke Dir, wie der wann stand und wie schnell er also fällt. Dann kann aber gerade bei der m4 das NAND immer noch 3x bis über 10x so viele P/E Zyklen vertragen.
 
Zumal doch die SSD, wenn die Flashzellen ihre Schreibfähigkeit aufgebraucht haben, doch immer noch lesbar sein müsste, oder? Und Elektronikdefekte lassen sich ohnehin nicht vorhersagen. Deshalb: Backup machen wie immer (!) und die SSD nutzen, so lange sie funktioniert und vom Platz her ausreicht.
 
ThommyDD schrieb:
Zumal doch die SSD, wenn die Flashzellen ihre Schreibfähigkeit aufgebraucht haben, doch immer noch lesbar sein müsste, oder?

Laut Spezifikation ja, in der Praxis fast immer nein.

Die Flash Zellen sind zwar "nur" für n Zyklen spezifiziert, können in vielen (allen?) SSDs aber über ihre Spezifikation hinaus weiter betrieben werden.
 
Ja, dass die Flashzellen immer mehr vertragen als garantiert, ist klar (ist ja nicht wie bei den Druckern, die nach x Seiten die Arbeit einstellen, egal ob tatsächlich Toner/Tinte leer oder nicht). Mir ging es darum, ob eine Zelle, die vielleicht nach 5493 Zyklen nicht mehr beschreibbar ist, nur als nicht beschreibbar gekennzeichnet wird, aber ihr Inhalt immer noch ausgelesen werden (und vielleicht auf eine noch funktionierende Zelle übertragen werden) kann? Dass also zwar keine neuen Daten mehr drauf können, aber die alten nicht verloren sind. War dein erster Satz darauf bezogen? Falls ja, was verhindert das dann in der Praxis? Würde mich einfach interessieren. :)
 
Eine einfache "Flash Speicherzelle" besteht aus einen Floating Gate Transistor und deren Floating Gate Isolator wird bei jedem Speichern und Löschen geringfügig beschädigt. Ist der Isolator zu beschädigt, bleiben die Ladungen nicht mehr auf dem Floating Gate und die Daten gehen verloren.

Die Erklärung ist jetzt nur ganz grob, sollte aber für das Verständnis des Problems reichen.

http://de.wikipedia.org/wiki/Floating-Gate-Transistor
 
Ach so, gut, dann ist das logisch. Danke! :) Das Problem ist also nicht fehlende Fähigkeit zur Ladungsänderung, sondern fehlende Fähigkeit der Ladungserhaltung.
 
Hallo32 schrieb:
Laut Spezifikation ja, in der Praxis fast immer nein.
Das könnte nur eingehalten werden, wenn die SSD mit dem Erreichen der spezifizierten P/E Zyklen dann Read-Only werden würde. Dann müsste sie die Daten bei 30°c noch 12 Monate (für Consumer SSDs) halten. Geht man darüber hinaus, wie es in den diversen Endurance Tests üblich ist, dann kann man die SSD teils noch sehr viel länger nutzen, verliert am Ende aber eigentlich immer auch die Daten. Spätestens wenn man die SSD abschaltet, sind die dann weg, weil der Controller dann eben nicht einmal mehr sein eigene FW korrekt aus den NANDs lesen kann.

Hallo32 schrieb:
Die Flash Zellen sind zwar "nur" für n Zyklen spezifiziert, können in vielen (allen?) SSDs aber über ihre Spezifikation hinaus weiter betrieben werden.
Nein, wenn minderwertige NANDs verbaut werden, dann reichen die nicht einmal mit zum MWI 0 (Media Wear Indicator, also wie viel % spezifizierte Zyklen noch da sein sollten, heißt aber bei jeder SSD anders). Im Dauerschreibtest auf xtremesystems.org ist das bei allen OCZ passiert, außer der einen Vertex Turbo die nicht aus dem Handel stammte, sondern auf Vermittlung eines OCZ Mitarbeiters als Ersatz für die erste Vertex Turbo gekommen ist, passiert.

ThommyDD schrieb:
Ja, dass die Flashzellen immer mehr vertragen als garantiert, ist klar
Nein, so klar ist das nicht, denn das ist eine Frage der verbauten Qualitätsstufe der NANDs. Nur NANDs die auch entsprechend hochwertig sind, schaffen das. NANDs die es nicht schaffen, sind als minderwertig anzusehen.

ThommyDD schrieb:
Mir ging es darum, ob eine Zelle, die vielleicht nach 5493 Zyklen nicht mehr beschreibbar ist, nur als nicht beschreibbar gekennzeichnet wird, aber ihr Inhalt immer noch ausgelesen werden (und vielleicht auf eine noch funktionierende Zelle übertragen werden) kann?
Da gute SSD Controller auch ein gutes Wear-Leveling hinbekommen sollten, dürfte es dann keine noch gut haltbaren Zellen mehr geben, wenn die ersten schon komplett ausgelutscht sind. Das hängt natürlich davon ab, wie gleichmäßig die Qualitäten der einzelnen NANDs sind, es kann man ein paar schlechte Blöcke geben, die dann auch frühzeitig ausrangiert werden, das ist normal, aber wenn ein ganzes Die kaputt gegangen ist, ist es meist auch die SSD.

ThommyDD schrieb:
Dass also zwar keine neuen Daten mehr drauf können, aber die alten nicht verloren sind. War dein erster Satz darauf bezogen? Falls ja, was verhindert das dann in der Praxis?
Das wird einfach dadurch verhindert, dass die NANDs am Ende komplett verbraucht sind und die Daten einfach nicht mehr halten können. Die Data Retention Time fällt mit der steigenden Zahl der verbrauchten P/E Zyklen immer mehr und obendrein halbiert sie sich pro 10°C mehr Temperatur.

Was in den Endurance Test wie dem mit Anvil i.d.R. unterlassen wird, ist die ständige und vollständige Leseprüfung der Daten und da würden wohl schon bei einigen SSDs früher Fehler auftreten, so dass ein normaler Anwender einmal die SSD spätestens dann tauschen würde und außerdem kann er sich dann schon nicht mehr auf die Integrität der Daten verlassen, Datensicherung ist also in jeden Fall immer regelmäßig auszuführen. Außerdem geht man nur auf Nummer sicher, wenn man die SSD nur bis zum MWI 0 nutzt und auch eine gute SSD kauft und kein Budget Modell eines Hersteller ohne eigene NAND Fertigung.
 
Holt schrieb:
Was in den Endurance Test wie dem mit Anvil i.d.R. unterlassen wird, ist die ständige und vollständige Leseprüfung der Daten und da würden wohl schon bei einigen SSDs früher Fehler auftreten

Moooment mal. Wäre es nicht Sache des Controllers, diese Fehler zu signalisieren?

Datensicherung ist also in jeden Fall immer regelmäßig auszuführen.

Nicht wirklich überraschend, diese Aussage. ;-)

Außerdem geht man nur auf Nummer sicher, wenn man [...] eine gute SSD kauft und kein Budget Modell eines Hersteller ohne eigene NAND Fertigung.

NAND wird nicht dadurch besser das es im eigenen Haus verbaut wird. Nichts gegen Deine Meinung, aber das fällt meiner Meinung nach in die Kategorie der kohlenstoffreduzierten Powertubes die man unbedingt braucht um wirklich gut Musik hören zu können.
 
Holt schrieb:
Nein, wenn minderwertige NANDs verbaut werden, dann reichen die nicht einmal mit zum MWI 0 (Media Wear Indicator, also wie viel % spezifizierte Zyklen noch da sein sollten, heißt aber bei jeder SSD anders). Im Dauerschreibtest auf xtremesystems.org ist das bei allen OCZ passiert, außer der einen Vertex Turbo die nicht aus dem Handel stammte, sondern auf Vermittlung eines OCZ Mitarbeiters als Ersatz für die erste Vertex Turbo gekommen ist, passiert.

Wo beziehe ich mich auf den MWI?

Die Aussage bezog sich auf die Anzahl der spezifizierten Zyklen des Nands und nicht auf den hinterlegten Wert für die Berechnung des MWI Wertes.
Der Wert für die Berechnung des MWI und die spezifizierten Zyklen des Nands müssen nicht übereinstimmen. Bsp. hast du ja genannt.
Ergänzung ()

Kenneth Coldy schrieb:
Moooment mal. Wäre es nicht Sache des Controllers, diese Fehler zu signalisieren?

Diese Angabe sollte man in den Smart Werten finden.
 
Kenneth Coldy schrieb:
Moooment mal. Wäre es nicht Sache des Controllers, diese Fehler zu signalisieren?
Eigentlich ja, aber das passiert auch, wie man z.B hier sehen kann.

Kenneth Coldy schrieb:
Nicht wirklich überraschend, diese Aussage. ;-)
Und trotzdem wird es viel zu selten beherzigt! Gerade bei SSDs ist die regelmäßige Datensicherung aber extrem wichtig, denn wenn eine SSD mal ausfällt, dann bekommt man meist keine Warnungen vorweg und kann meist auch nichts mehr retten, ja oft nicht einmal vom Profi was retten lassen. Viele denken ja erst an Datensicherung, wenn erste Probleme auftreten und die fallen dann bei einer SSD ganz bös auf die Nase.

Kenneth Coldy schrieb:
NAND wird nicht dadurch besser das es im eigenen Haus verbaut wird. Nichts gegen Deine Meinung, aber das fällt meiner Meinung nach in die Kategorie der kohlenstoffreduzierten Powertubes die man unbedingt braucht um wirklich gut Musik hören zu können.
Nein, das ist ein Vergleich der nicht nur hinkt, der muss im Rollstuhl geschoben werden. Selbst die NAND Dies eines Wafers haben unterschiedliche Eigenschaften bzgl. Zyklenfestigkeit und Data Retention Time. Die NAND Hersteller behalten die besten Qualitäten i.d.R. selbst und die Preise der NANDs die verkauft werden, richten sich nach der Qualität, die man ja durchaus feststellen kann (binnen). Je besser die Qualitätsstufe ist, umso teurer sind die NANDs dann auch und gerade bei Budget SSD Baureihen müssen daher die Hersteller ohne eigene NAND Fertigung zu den günstigen NANDs greifen, um mit den Preise der SSDs von NAND Herstellern, allen voran Crucial, überhaupt mithalten zu können. Google mal was Kingston in der Hinsicht mit der NAND Bestückung der V300 gemacht hat und wie sie das begründen.

Hallo32 schrieb:
Wo beziehe ich mich auf den MWI?

Die Aussage bezog sich auf die Anzahl der spezifizierten Zyklen des Nands und nicht auf den hinterlegten Wert für die Berechnung des MWI Wertes.
Bei einer anständigen SSD ist das das Gleiche, da dort nur die spezifizierten P/E Zyklen der NANDs als Grundlage für den MWI genommen werden. Unanständige SSDs zählen den MWI bei bei Ausfällen von NAND Blöcken nichtlinear runter, so dass der keine Rückschlüsse auf den spezifizierten P/E Zyklen erlaubt und da die Hersteller diese selten bis nie veröffentlichen, kann man dann auch nicht mehr sagen, wie viele es denn sein sollten.
Hallo32 schrieb:
Der Wert für die Berechnung des MWI und die spezifizierten Zyklen des Nands müssen nicht übereinstimmen. Bsp. hast du ja genannt.
Eben, weil die Hersteller ungerne angeben, wie viele Zyklen sie den NANDs zutrauen, gerade wenn da minderwertige Qualitätsstufen verbaut sind, die weniger Zyklen erreichen werden, als man ihnen nach Typ und Bauwart unterstellen würde.

Hallo32 schrieb:
Diese Angabe sollte man in den Smart Werten finden.
Auch, aber wenn ein Sektor nicht mehr fehlerfrei gelesen werden kann, sollte das beim Lesebefehl zu einem Fehler führen, der dem Betriebssystem mitgeteilt wird, genau wie es bei HDDs ja auch der Fall ist.
 
Holt schrieb:
Auch, aber wenn ein Sektor nicht mehr fehlerfrei gelesen werden kann, sollte das beim Lesebefehl zu einem Fehler führen, der dem Betriebssystem mitgeteilt wird, genau wie es bei HDDs ja auch der Fall ist.

Sollte doch auch bei "Sektoren" passieren, die nicht mehr fehlerfrei gelesen werden konnten und dabei auch die ECC nicht mehr half.

Die anderen "Sektoren", bei den die ECC beim Lesen gegriffen hat, müssen theoretisch nur vom Controller mit erhöhter Vorsicht behandelt werden bzw. auf andere Flash Zellen ungemappt werden. Davon muss das BS nichts wissen. Aber liest Windows 7 und 8 nicht auch selbständig die Smart Werte aus?

Die Daten bzw. Formel die hinter den MWI stecken kann man doch schön verschleiern, wenn z.B. die mittl. Blocklöschanzahl oder die Flash Writes nicht angegeben werden.
 
Holt schrieb:
Die NAND Hersteller behalten die besten Qualitäten i.d.R. selbst und die Preise der NANDs die verkauft werden, richten sich nach der Qualität, die man ja durchaus feststellen kann (binnen).

Ich sehe da zwei Aussagen.

1. Die NAND Hersteller behalten die besten Qualitäten i.d.R. selbst

Dafür hätte ich gerne einen Beleg.

2. die Preise der NANDs die verkauft werden, richten sich nach der Qualität

Das wiederum dürfte unstrittig sein. Es bedeutet das teurere SSD tendenziell eher mit den besseren NANDs bestückt werden. Und? Das dürfte bei RAM auch der Fall sein. Ich kann da nichts neues erkennen und vor allem nicht wieso das ein Argument für Deine Unterstellung sein soll.
 
Hallo32 schrieb:
Die anderen "Sektoren", bei den die ECC beim Lesen gegriffen hat, müssen theoretisch nur vom Controller mit erhöhter Vorsicht behandelt werden bzw. auf andere Flash Zellen ungemappt werden. Davon muss das BS nichts wissen.
Richtig, aber was genau die Controller da wann machen, kann man auch bestenfalls erraten.
Hallo32 schrieb:
Aber liest Windows 7 und 8 nicht auch selbständig die Smart Werte aus?
Was Windows da selbst ausliest, kann man getrost vergessen und sollte die S.M.A.R.T. Werte besser selbst im Auge behalten, z.B. mit CrystalDiskInfo. Windows warnt meist erst, wenn CDI da schon schecht schreiben und das ist meist zu spät, weil dann schon mindestens ein Aktueller Wert unter den Grenzwert gefallen ist und oft gehen die Platten schon vorher ganz kaputt. Bei SSDs kommt es obendrein oft vor, dass es gar keine Anhaltspunkte für einen Ausfall in den S.M.A.R.T. Werten gibt und wenn die P/E Zyklen verbraucht sind, verhält sich auch jede SSD bzgl. des aktuellen Wertes des MWI anders.

Hallo32 schrieb:
Die Daten bzw. Formel die hinter den MWI stecken kann man doch schön verschleiern, wenn z.B. die mittl. Blocklöschanzahl oder die Flash Writes nicht angegeben werden.
Daher sage ich, dass anständige SSDs sowas nicht machen, wobei die Flash Writes bei kaum einer SSD angezeigt werden und auch unwichtig sind, wenn man die Anzahl der Löschzyklen hat. Auch die Host Writes sagen wenig aus, da ja auch die Write Amplification eine wichtige Rolle spielt und die ändert sich nun einmal abhängig vom jeweiligen Zustand (Füllstand) und der Nutzung (Art und Zielt der Schreibzugriffe) für die gleiche SSD dauernd.

Kenneth Coldy schrieb:
Dafür hätte ich gerne einen Beleg.
Komische, warum fragst Du nach Belegen meiner Aussagen, aber bemühst Dich nicht einmal selbst Belege für das Gegenteil zu finden bzw. zu nennen? Die hast Du wahrscheinlich nicht und wärst bei der Suche danach vermutlich nur auf Belege für meine Aussage gestoßen, auch wenn sie Dir spontan vermutlich nicht richtig erscheint. Überdenke bitte Deine Herangehensweise, dann kommst Du im Leben weiter als wenn Du immer nur nach dem ersten Instinkt handelst.

Aber bitte:

Außerdem sieht man es am Verhalten der NAND Hersteller, so hat Micron sein 128Gigabit 20nm NAND mehr als ein Jahr nur für seine m500 verwendet und erst im April 2014 ist mit der AData SP920 eine SSDs eines anderen Hersteller damit erschienen, die obendrein noch ein 100%iges Micron Produkt ist, da wurde also auch nicht einfach nur das NAND verkauft:

Und Samsung bietet seine 3d-V-NANDs überhaupt nicht zum Verkauf an externe Hersteller an:
Kenneth Coldy schrieb:
2. die Preise der NANDs die verkauft werden, richten sich nach der Qualität
Wenn Dir nicht einleuchtet, dass die Qualität den Preis bestimmt, dann suche einfach mal Belege für das Gegenteil! Aber schau Dir mal die Begründung von Kingston für den Wechsel der NANDs in der V300 Baureihe an, dann dürfte Dir klar werden, dass es auch beim NAND keine Mercedes und Dacias um gleichen Preis gibt. :evillol:

Kenneth Coldy schrieb:
Es bedeutet das teurere SSD tendenziell eher mit den besseren NANDs bestückt werden. Und? Das dürfte bei RAM auch der Fall sein. Ich kann da nichts neues erkennen und vor allem nicht wieso das ein Argument für Deine Unterstellung sein soll.
Was ist der Unterschied zwischen den hoch- und weniger hochwertigen Chips bei NAND und RAM (oder auch CPUs / GPUs)? Ganz einfach: Bei NAND geht es vor allem um die Zyklenfestigkeit und die DRT, weniger um die Timings. Bei RAM und CPUs/GPUs aber eben um die Taktung und allenfalls noch die Spannung die man braucht um diese zu erreichen. Die besten RAMs vertragen mehr MHz bei scharfen Timming und die besten NANDs eben mehr P/E Zyklen bei längerer DRT. Hast Du billige, minderwertige RAMs gekauft, dann laufen die vielleicht nicht in jeder Einstellung mit der hochwertige Exemplare klarkommen würden, aber wenn die in Deinem Setup fehlerfrei laufen, dann kann das auch jahrelange problemlos funktionieren. Ähnlich bei CPUs / GPUs, die kannst du nicht so hoch übertakten, wenn die Fertigungsabläufe für den Chip nicht optimal waren oder brauchst eben höhere Spannungen, dann war das eben ein schlecht gehendes Exemplar und ein gutes Exemplar, als ein hochwertiger Chip bei dem die Abläufe alle optimal waren, kommt in der Frequenz höher.

Hast Du aber billige, minderwertige NANDs in einer SSD oder einem USB Stick, dann funktioniert das am Anfang genauso gut wie mit hochwertigen, vielleicht hat der Hersteller in der FW keine so aggressiven Timing verwendet, aber das merkt man ja mangels direktem Vergleich i.d.R. überhaupt nicht. Nur mit der Nutzung zeigt sich da mit der Zeit der Unterschied, denn die minderwertigen NANDs sind eben früher am Ende und halten die Daten vermutlich auch schon vorher nicht so lange.
 
Zuletzt bearbeitet:
Holt schrieb:
Richtig, aber was genau die Controller da wann machen, kann man auch bestenfalls erraten.

Solange die Daten erhalten bzw. korrigiert werden konnten, sollte es doch egal sein. ;)
Ich vermute, dass in den Bereich auf viel "geheimes" in den Controllern und Firmware steckt.
Bsp. Sandforce Shield
Nicht umsonst wurde dort so ein Aufwand getrieben.

Holt schrieb:
Was Windows da selbst ausliest, kann man getrost vergessen und sollte die S.M.A.R.T. Werte besser selbst im Auge behalten, z.B. mit CrystalDiskInfo. Windows warnt meist erst, wenn CDI da schon schecht schreiben und das ist meist zu spät, weil dann schon mindestens ein Aktueller Wert unter den Grenzwert gefallen ist und oft gehen die Platten schon vorher ganz kaputt. Bei SSDs kommt es obendrein oft vor, dass es gar keine Anhaltspunkte für einen Ausfall in den S.M.A.R.T. Werten gibt und wenn die P/E Zyklen verbraucht sind, verhält sich auch jede SSD bzgl. des aktuellen Wertes des MWI anders.

Bitte trenne die beiden Ursachen für die Ausfälle. Spontane Ausfälle und Ausfälle deren Risiko man abschätzen kann. ;)

Es gibt spontane Ausfälle die sich nicht ankündigen. Ausfall Controller, Firmware Bug, usw.
Es gibt aber auch Ausfälle, deren Wahrscheinlichkeit sich anhand der Smart Werte abschätzen lassen. Ausfall des Nands anhand hoher Anzahl an Fehlerkorrekturen, Lesefehler und Programmierfehler usw.

Das Unterschreiten eines Grenzwertes erzwingt keinen sofortigen Ausfall der SSD und lässt in (fast) allen Fällen mehr als genug Zeit die Daten zu sichern.
 
Zurück
Oben