Test Crucial M500 240 GB SSD im Test

Hallo32 schrieb:
Das Forum zeigt die Bilder für nicht angemeldete User nicht an.
Das Datenblatt der genannten SSD ist von Mai 2009. Ob man dieses alte Modelle mit den aktuellen Modellen noch vergleichen kann? Das bezweifle ich stark.
Das hängt halt von der jeweiligen SSD ab, wie diese auf das Fehlen von TRIM Befehlen reagiert. Es gibt Seiten die das beim Review auch testen, wie hier z.B. bei tweaktown. Da sieht man auch, dass das Verhalten bei den jeweiligen SSDs unterschiedlich ist.

Hallo32 schrieb:
Wenn 1GB sequentiell geschrieben werden, werden diese in der Praxis nicht zwangsweise auf LBAs mit aufsteigender Adresse geschrieben sondern auf die, die gerade frei sind, verteilt und somit sind es mehrere kleine Random Zugriffe. Von der Verwaltung des Filesystem sprechen wir noch nicht einmal.
Das ist dann der Effekte der Fragmentierung des Filesystems, aber den sollte man nicht als Normalfall ansehen und so extrem sollte er auch nicht werden, dass 1GB dann in lauter 4k Fragmente aufgeteilt werden muss. Wenn das der Fall ist, sollte auch eine SSD defragmentiert werden.

Hallo32 schrieb:
Und den physikalischen Verschleiß der einzelnen Bestandteile. (Nand)
Wie ich schon oft genug geschrieben haben, kommen normale Heimanwender bei SSDs mit hochwertigen NANDs, egal ob TLC oder MLC, da nicht so schnell an die Verschleißgrenze der NANDs, das dauert Jahre bis Jahrzehnte. Nur wenn man extrem viel schreibt und die SSD trotzdem sehr, sehr lange nutzen will, kommt man in diese Situation.

Staubwedel schrieb:
Warum verbreitest du solch falsche Informationen? Oder gehst du davon aus das keiner mehr als 3GB am Stück schreibt?
Wann schreibt ein normaler Heimanwender denn mal mehr als 3GB am Stück und das auch noch aus einer so schnellen Datenquelle, dass die Schreibrate ohne TurboWrite, die immer noch höher ist als die einer gleichgroßen m500, überschritten wird? Dazu reicht selbst bei einer 120GB Evo ein normales Gigabit Netzwerk nicht aus und so viele einzelne HDDs liefern die Daten auch nicht so viel schneller, die schnellsten HDDs kommen nur auf 100MB/s (innere Zylinder) bis 200MB/s auf den äußeren Zylindern. Da schreibt dann schon eine 250GB Evo schneller und die sollte man dann auch wohl eher als die 120er nehmen, wenn man wirklich so oft so viel auf die SSD schreibt, denn eine 120er ist ja mit Windows und Programmen schon recht voll.

Klar kann man immer Situationen und Anwendungen konstruieren, wo die Schreibrate der Evo zum Flaschenhals wird, aber dann muss man auch überlegen, ob das nun realistisch ist und wirklich so oft vorkommt, dass es sich lohnt mehr Geld für die SSD auszugeben um die zu vermeiden. Die Evo ist nicht die in allen Situationen perfekt passende SSD, das hat niemand behauptet und so eine SSD gibt es auch gar nicht. Ihr malt hier immer Szenarien an die Wand wo die Evo nicht optimal geeignet ist um sie dann als mies darzustellen, überseht aber, dass bei jeder SSD Kompromisse gemacht werden müssen.
Staubwedel schrieb:
Und TLC ist schlechter als MLC, langsamer und weniger haltbar. Selbst wenn andere Hersteller auf Billigspeicher umschwenken ändert das nichts an der Physik
Ersetze "schlechter" durch "weniger haltbar", dann könnte ich Dir zustimmen, muss aber trotzdem daran erinnern, dass die TLC eben immer noch ausreichend haltbar für mindestens 99% der Heimanwender ist und noch mehr Haltbarkeit eben einfach keinen Vorteil bringt.
 
Ich hab mit h2testw eine 100 GB Testfile auf meiner neuen Crucial M500 480 GB SSD (Firmware MU02) erstellt und öfter mal geprüft, wobei keine Fehler gefunden werden. Wenn aber der Prüfvorgang läuft kann ich zusehen, wie in CDI 6.1.1 der C3-Wert (Cumulative ECC Bit Correction Count) in die Höhe schnellt.
gif1tccxq.gif

Beim Schreiben erhöht sich der C3-Wert nur langsam.

In https://www.micron.com/~/media/Docu...Storage/tnfd21_m500-mu02_smart_attributes.pdf steht zwar:
This attribute provides data that is tracked by Micron engineering. It is not indicative of
SSD wear or of impending failure.
aber der sehr schnelle Anstieg beunruhigt mich. Ich hab auch schon wo gelesen, dass der Wert doch ein Zeichen für den Zustand des NANDs ist. Die "Raw Read Error Rate" hat sich auch schon um ca. 100 (dezimal) erhöht. SATA-Kabel hab ich schon gewechselt.
 
@Holt

Wir sollten anfangen die Aussage und die Kommentare zu zitieren. ;)

Holt schrieb:
Wie ich schon oft genug geschrieben haben, kommen normale Heimanwender bei SSDs mit hochwertigen NANDs, egal ob TLC oder MLC, da nicht so schnell an die Verschleißgrenze der NANDs, das dauert Jahre bis Jahrzehnte. Nur wenn man extrem viel schreibt und die SSD trotzdem sehr, sehr lange nutzen will, kommt man in diese Situation.

Das Ganze ging auf die Aussage zurück, dass ich die SSD aus den System entfernen würde, wenn ihre Haltbarkeit 0%, laut SMART, erreicht hätte.
 
oresh schrieb:
Ich hab mit h2testw eine 100 GB Testfile auf meiner neuen Crucial M500 480 GB SSD (Firmware MU02) erstellt und öfter mal geprüft, wobei keine Fehler gefunden werden.
Bitfehler passieren bei NANDs wie auch bei HDDs immer wieder, dafür gibt es ja die ECC um diese zu erkennen und möglichst zu korrigiere. Nach außen werden die Fehler erst sichtbar, wenn mehr Bits gekippt sind als die ECC korrigieren kann. Es ist also normal, dass zwar der interne ECC-Zähler steigt, aber die Daten trotzdem fehlerfei gelesen werden.
oresh schrieb:
Wenn aber der Prüfvorgang läuft kann ich zusehen, wie in CDI 6.1.1 der C3-Wert (Cumulative ECC Bit Correction Count) in die Höhe schnellt.
Möglicherweise ist das bei der m500 anders, oder die 20nm NANDs der m500 arbeiten anders als die 25nm NANDs der m4. bei allem meinen m4 ist der ECC Wert immer noch auf 0. Bei den meisten S.M.A.R.T. Werten von SSD die Du im Forum findest ist es ebenso auf 0, außer bei vielen Sandforce SSDs von Herstellern ohne eigenen NAND Fertigung aber bei denen muss man sowieso immer Zweifel an der Qualität der NANDs haben, vor allem wenn es Budget SSDs sind. Die SanDisk Extreme behält auch lange ECC 0 bei, es ist also auch bei den Sandforce durchaus normal, dass keine ECC benötigt wird, solange die NANDs gut sind.

oresh schrieb:
Beim Schreiben erhöht sich der C3-Wert nur langsam.
Dabei sollte er gar nicht steigen, aber es ja auch immer auch im Hintergrund lesend auf die SSD zugegriffen.

oresh schrieb:
aber der sehr schnelle Anstieg beunruhigt mich. Ich hab auch schon wo gelesen, dass der Wert doch ein Zeichen für den Zustand des NANDs ist. Die "Raw Read Error Rate" hat sich auch schon um ca. 100 (dezimal) erhöht. SATA-Kabel hab ich schon gewechselt.
Das hat mit dem SATA Kabel nichts zu tun, da gibt es nur das Attribut C7, das wird SATA Fehler, Ultra-DMA CDC Fehler oder so ähnlich genannt. Das sind die Fehler in der Kommunikation zwischen dem SATA Host Controller und dem Controller der Platte / SSD. Die "Raw Read Error Rate" ist dagegen im Prinzip das gleiche wie die ECC Bit Correction, bzw. die Differenz beide sind dann die Problemfälle, wo die ECC die Fehler nicht mehr korrigieren konnte.

Wie schon geschrieben: Ich kennen keine Endurance Test mit einer m500 und die darin verbauten NANDs sind in keiner anderen SSD zu finden, da Micron diese nicht verkauft sondern nur die mit 64Gigabit Diesize. Wie haltbar die NANDs also wirklich sind, weiß daher keiner genau, es wird hier immer nur etwas unterstellt was nicht belegt ist.

Hallo32 schrieb:
Das Ganze ging auf die Aussage zurück, dass ich die SSD aus den System entfernen würde, wenn ihre Haltbarkeit 0%, laut SMART, erreicht hätte.
Wie schon gesagt, dass wird bei normaler Anwendung wie es bei Heimanwendern üblich ist, viele Jahre bis Jahrzehnte dauern und wenn die SSD wie eine Enterprise SSD genutzt wird, also viel mehr als die üblichen GB/Tag für Heimanwender SSDs schreibt und es hochwertige NANDs sind, verschenkt man damit den Großteil der möglichen TBW. Das Beispiel der 840 Pro 128GB hatte ich doch schon gebracht, die hat am Ende rund 3PB geschafft, nach rund 500GB waren die garantierten P/E Zyklen verbraucht, aber bis etwa 1.5PB waren alle Werte noch super, erst dann fingen die Reallocated Block an zu steigen und erst ab so 2.5PB dann die ECC Fehler. So ist das typische Verhalten bei wirklich hochwertigen NANDs, die MLC der 840 Pro habane halt 3PB geschafft und die TLC der 840 bei xtremesystems.org 433TiB. Wer 1PB im Jahr schreibt, der wird sicher nicht zu einer SSD mit TLC greifen, das wäre totaler Unsinn, aber die 840 Pro müsste man auch alle halbe Jahr tauschen, obwohl sie wohl etwa 2.5 Jahre problemlos laufen würde. Ein PB pro Jahr würde dann aber auch bedeuten, dass eine 128GB SSD mehr als 21 mal am Tag überschrieben würde, was mit normaler Heimanwendernutzung schon gar nichts mehr zu tun hat und wenn man dann die SSD immer beim Erreichen der garantierten P/E Zyklen austauschen muss, wäre eine Enterprise SSD wie die Intel DC S3700 schon die passende und letztlich günstigere Wahl.
 
@oresh
Gibt es eine PDF von Microm/Crucial, das die Smart Werte beschreibt? Falls ja, den Link und einen aktuellen Screenshot von CDI, aber diesmal mit HEX Werte, posten. Evtl. wertet CDI die RAW Werte nur falsch aus.

CDI scheint es nicht zu unterstützen, wenn die ersten Bits der RAW Werte ignoriert werden sollen. (Zumindest habe ich es so im Kopf.)

@Holt
Dass ich mit den Verhalten ein Teil der Lebensdauer des NANDs verschenken würde, ist mir bekannt und die Entscheiden wird bewusst getroffen. Als Cache oder Swap SSD in einen anderen System dürfte die SSD auch noch weiterlaufen aber nicht als primäres Laufwerk auf welches ich angewiesen bin.
 
Hab mich jetzt auch noch mal ein bisschen mehr reingelesen. Die SMART-Werte werden hier beschrieben:

https://www.micron.com/~/media/Docu...Storage/tnfd21_m500-mu02_smart_attributes.pdf

c2123bmud8.png


Die C3-Werte sehe ich inzwischen doch nicht mehr so kritisch, da die ECC bei NANDs von SSDs eben so funktioniert. Andere Hersteller geben sie erst gar nicht direkt aus. Wahrscheinlich hat Crucial deshalb den Wert in der M03-Firmware entfernt.


rre1226ums.png


Die "Raw Read Error Rate" ergibt sich laut Datenblatt aus der Summe der korrigierbaren und nicht korrigierbaren ECC-Fehlerereignisse. Wie und ob sie mit C3(Cumulative ECC Bit Correction Count) zusammenhängen weiß ich nicht. Ich hab in den drei Tagen nur jeweils ein paar mal h2testw prüfen lassen (ohne Fehler)

Es könnte aber wirklich sein, dass da ein Rechenfehler vorliegt. Schließlich hat Crucial in der M03er Firmware Änderungen an den Smart-Einstellungen vorgenommen:

SMART fix to ensure zero at all attributes upon shipment
SMART counter improvements for better customer data

Im Moment hab ich noch die M02er Firmware.
 
Die M500 hat ein Splitting des RAW Values nur bei der Temperatur. Somit sollten die CDI Werte richtig sein.
 
So, ich habe jetzt die UEFI Installation auf meiner 240 GB mSATA M500 auf meinem Dell XPS 15 L521x gemacht - leider kein eDrive... Wo kann ich sehen woran es hapert? Ich finde noch nicht einemal meine UEFI Version raus, ich habe allerdings herausgefunden, dass 2.3.1 scheinbar die Voraussetzung ist...

Hat jemand eine Idee?

PS: Das war eigentlich der Grund für 8.1 und vor allem die M500
 
Mehr dazu findest Du hier bei Anandtech, aber Du hast ja mit der m500 nichts falsch gemacht, die bietet im Moment das besten P/L Verhältnis und ist ja nun wirklich keine schlechte SSD.
 
Danke

ich hatte die 240 GB Variante allerdings noch ganz am Anfang gekauft :) knapp doppelt so teuer
Den Artikel hatte ich auch schon vor einer weile gelesen und dachte, bei mir kommt kein "Ladebalken" zum verschlüsseln - er kan aber trotzdem...

Wo kann ich denn meine UEFI Version unter Windows auslesen, im BIOS direkt finde ich die ebenso wenig, wie auf den Dell Support Seiten. Vermutlich habe ich dann kein 2.3.1 oder höher... Der Rest sollte nämlich passen.

Ein Tool, ähnlich einem Alignment check für SSDs gibt es wohl nicht oder?

Grüße
 
MichaelH. schrieb:
Macht es sinn, wegen 35 Euro keine Samsung 840 Pro mit 5 Jahren Garantie zu kaufen?

Die M500 ist gegen plötzliche Stromausfälle gesichert (Power-Loss Protection) und nutzt eine Art Raid ähnlich der RAISE Technik von LSI/Sandforce die bei defekten Speicherchips schützt. Die Samsung kann ist einfach nur schneller beim schreiben.
Server Ähnliche SSD vs. reiner blender Platte. Der Preisvorteil der M500 ist da nur das Sahnehäubchen.
Im Ernstfall sind die Daten auf der M500 jedenfalls sicherer als auf der Samsung. Schon bei der nachträglich rein gepatchten Verschlüsselung sieht man doch wo Samsung seine Pro eigentlich ursprünglich angesiedelt hat.
 
ika2k schrieb:
Ein Tool, ähnlich einem Alignment check für SSDs gibt es wohl nicht oder?
Nimm den AS-SSD Benchmark, der zeigt in einem Kasten oben links in der untersten Zeile den Offset der ausgewählten Partition und wenn das Alignment stimmt, schreibt er OK und sonst BAD dahinter.

tobi14 schrieb:
Die M500 ist gegen plötzliche Stromausfälle gesichert (Power-Loss Protection)
Das ist bekannt, da sie auch die einzige aktuelle Consumer SSD die das macht, soweit ich weiß. Vorher hatte nur Intels 320er schon solche Stützkondensatoren, die man eigentlich nur in Enterprise SSDs findet.

tobi14 schrieb:
nutzt eine Art Raid ähnlich der RAISE Technik von LSI/Sandforce die bei defekten Speicherchips schützt.
Das wäre mir jetzt aber komplett neu, hast Du einen Beleg dafür? Eine ECC hat jede SSD und jede HDD, das alleine zählt also nciht.
tobi14 schrieb:
Im Ernstfall sind die Daten auf der M500 jedenfalls sicherer als auf der Samsung. Schon bei der nachträglich rein gepatchten Verschlüsselung sieht man doch wo Samsung seine Pro eigentlich ursprünglich angesiedelt hat.
Wieso? Nur weil Samsung ein Feature des Controller erst mit einer späteren FW aktiviert hat, ist es das keine reingepatchte Verschlüsselung und wo die Daten sicherer, kann auch keiner sagen. Bei SSDs können ausfallen und wenn SSDs ausfallen, dann meist spontan, ohne jede Vorwarnung und meist ohne jede Chance auf Datenrettung. Daher sind Daten auch immer nur sicher, wenn man eine Datensicherung anlegt, also ein Backup zieht und das auf einem Medium aufbewahrt, welches in einem anderen Gehäuse steckt. Das ist bei SSDs sehr wichtig und sollte regelmäßig gemacht werden, denn keine SSD ist 100%ig ausfallsicher.

Samsung hat aber bisher immer in der französischen Ausfallstatistik besser abgeschnitten als Crucial und alle anderen.
 
Holt schrieb:
Samsung hat aber bisher immer in der besser abgeschnitten als alle anderen.
Nee, das "immer" ist definitv falsch. Bis vor einiger Zeit hat sich Samsung in der Ausfallstatistik mehr oder weniger direkt vor OCZ eingeordnet. Und wo deren Werte standen, sollte ja mittlerweile allgemein bekannt sein. Es ist also hier wie (fast) immer: man muss sich einfach die zur eigenen Argumentation passende Statistik suchen. Intel ist wohl die einzige Firma, auf die diese Regel nicht zutrifft, da deren SSDs offensichtlich immer äußerst zuverlässig funktionierten.
 
Wie bitte?
In der vorherigen Ausgabe (8) vom
Da lag Intel sogar hinter Plextor, die in der aktuellen Statistik nicht mehr aufgeführt sind, weil wohl nicht genug Exemplare verkauft wurden.

In Ausgabe 7, die auch noch auf englisch verfügbar war, vom
Da ist Intel sogar minimal vor Samsung und davor war Samsung bei den SSDs in der Statistik nicht vertreten, da es ja auch lange keine Samsung SSDs auf dem Retail Markt gab, sondern nur für OEMs. Samsung ist einer der ältesten Hersteller von SSDs mit Flash-NANDs.

Schreib also nicht so einen Müll, der sich so leicht widerlegen lässt!
 
Zuletzt bearbeitet:
Holt schrieb:
Da lag Intel sogar hinter Plextor ... Da ist Intel sogar minimal vor Samsung
Was kommst Du mit Reihenfolgen? Schau Dir die absoluten Zahlen an und auch Du siehst (hoffentlich), dass es bei Intel eine Konstanz wie bei keinem anderen Hersteller gibt.

Holt schrieb:
und davor war Samsung bei den SSDs in der Statistik nicht vertreten, da es ja auch lange keine Samsung SSDs auf dem Retail Markt gab, sondern nur für OEMs. Samsung ist einer der ältesten Hersteller von SSDs mit Flash-NANDs.
Samsung hat also Deiner Meinung nach erst seit Ende 2012, also seit nicht mal anderthalb Jahren, SSDs für den Endkundenmarkt? Oder blendest Du nicht doch den Rest einfach aus, weil's nicht so recht in Dein Bild von Samsung passt? (470, PB22 und nicht zu vergessen, dass ein Teil der Serien von OCZ nicht viel mehr umverpackte Samsungs waren da von den Flashchips über den Cachespeicher bis hin zum Controller alles von Samsung kam).

Holt schrieb:
Schreib also nicht so einen Müll, der sich so leicht widerlegen lässt!
Na, das geb ich doch gern an Dich zurück, denn dem von Dir geschriebenen Müll wird wohl nicht mal Samsung selbst zustimmen. p.s. Es gab mal Zeiten, da schriebst Du "Sachlich bleiben ist einfach unerläßlich". Lang, lang ist's her...
 
Zuletzt bearbeitet:
Hallo,

ich (stinknormaler Konsuments), naja nicht ganz. Bin Student und arbeite für mein Studium viel mit CAD, 3D Visualisierungs- und 2D Bildbearbeitungsprogrammen. Nebenbei auch mal im Internet surfen und das war es auch schon mit meinen Anwendungen. Keine Spiele, Filme etc.
Wöchentlich wird ein Backup meiner wichtigsten Daten auf eine externe Festplatte (Transcend H3P USB3.0) gemacht. Mit wichtigsten Daten meine ich nun nicht komplett C: sondern nur die Projekte aus dem CAD Programm etc. und ist im Moment ca. 4 GB groß.

Nun die große Frage. Ich wollte mein Notebook (HP Envy 15) mit einer mSata SSD aufrüsten und zwar mit einer M500. Die Beiträge in diesem Thema verwirren mich jedoch etwas. Ich bin kein "Benchmarkfanatikerkellerkind" und lege auch nicht viel Wert auf ein einen Test bzgl. der Schreibrate großer Daten, welche im normalen gebraucht selten bis garnicht vorkommt. Die Samsung ist nun auch außen vor. Aber was hat es nun mit der Lebensdauer bei der M500 auf sich? Ständig lese ich was von Nands und ECC und kann damit nichts anfangen. Buuhhh, manche "Informatiker" oder welche die es gern sein wollen, lachen mich nun aus, aber ich interessiere mich nicht für den Aufbau einer SSD ;)
Ich möchte nur das die SSD Problemlos und auch schneller arbeitet als eine "normale" bzw. meine aktuelle Festplatte.


Ist nun die M500 für mich Normalo, von euch "Profis", zu empfehlenswert?
 
run.tun schrieb:
die SSD Problemlos ... arbeitet

Das ist bei SSDs genau das Problem. ;)
Computerteile müssen immer im Zusammenspiel mit anderen Teile und mit der Software gesehen werden, gerade bei Notebooks. Eine SSD kann in einem NB mit einem OS wunderbar laufen und mit einem andern OS oder in einem anderen NB tückische Fehler verursachen.

run.tun schrieb:
dmein Notebook (HP Envy 15)
Du solltest unbedingt direkt bei HP nachfragen.
 
Wenn Du nicht so viele Daten hast, kannst Du auch einfach die interne Festplatte gegen eine SSD im 2,5-Zoll-Format austauschen. Denn ob sich der mSata-Port in Deinem Notebook auch für etwas anderes als für einen SSD-Cache nutzen ließe, müsstest Du erst herausfinden. Problematisch wird wohl die Neuinstallation über die Recovery-Medien werden, da das Zielmedium (SSD) kleiner als das Originalmedium (Festplatte) sein wird. Evtl. klappt aber auch das Klonen der Platte mit einer Software, die (1.) Windows 8.x auf (2.) GPT-formatierten Datenträgern inklusive der (3.) Repartitionierung auf kleinere Datenträger beherrscht. Eine Neuinstallation mittels Windows-Installations-DVD sollte dagegen problemlos sein, ebenso wie das Klonen von Windows 7 von und auf einen MBR-formatierten Datenträger.
 
run.tun schrieb:
Ich möchte nur das die SSD Problemlos und auch schneller arbeitet als eine "normale" bzw. meine aktuelle Festplatte.

Alle SSDs von namenhaften Herstellern sind dafür gut genug. Nimm den Hersteller deines geringsten Misstrauens und fertig. Du wirst praktisch kaum einen Unterschied zwischen ner alten Intel G2 Postville und einer modernern Crucial/Intel/Samsung merken.

Sofern du die SSD nicht 10 Jahre verwenden musst, spielt die Lebensdauer für dich keine Rolle.

-aranax

p.s. das sind alles Verallgemeinerungen und in einzelnen Szenarios lässt sich sicherlich das Gegenteil beweisen.
 
Zuletzt bearbeitet:
Zurück
Oben