News Crucial verspricht Abhilfe für Blue-Screen-Problem der M4

Ja, genau, ein Monat Dauerstabilitätstest. Manche (wenige) machen das auch, z.b. au-ja.
Und wieso "nicht so lange zur Verfügung" ? In aller Regel werden Reviewsamples permanent überlassen.

Und ein BSOD der stündlich (!) auftaucht, ist für Leute, die den PC beruflich benötigen, wesentlich schädlicher für die Produktivität als ein sporadischer Datenverlust - sofern Backups regelmäßig erstellt werden.
 
Kung-Fu-Tse schrieb:
das gleiche Problem trat auch bei Corsair auf, Corsair Force GT Series & Corsair Force 3 Series.
Gab ein FW Update auf 1.3.3 und das Problem war behoben :)]
Die genannten Corsair haben ganz andere Fehler, denn die haben den Sandforce 2281 Controller und der ist noch immer nicht fehlerfrei. Mit älterer Hardware läuft er oft garnicht vernünftig, was auch bekannt ist:

Leider laufen die auch bei aktueller Hardware nicht immer problemlos und oft erst nach einigen Anpassungen der Systemeinstellungen, die sie Crucials oder Samsungs SSDs nicht benötigen:
Wenn Du ins Corsair Forum schaust, dann findest Du da noch immmer etliche Problemfälle, die sich dann teils nur Verwendung bestimmter Versionen bestimmter Treiber und besondere Systemeinstellungen beheben lassen oder auch nicht. Lies mal selbst, was für Rezepte zur Problemlösung dort dargereicht werden, von CMOS-Reset über Port aus extern stellen (dann hat man sein Systemlaufwerk in der "Hardware sicher entfernen und Medien auswerfen" Liste und eigentlich nur LPM deaktiviert, trotzdem soll dann noch LPM per Registry deaktiviert werden, ein Secure Erease ist zu machen und Windows komplett neu zu installieren, etc. pp.

Das kann man nun wirkich nicht mit dem Bug der m4 vergleichen, um den es hier geht.


morning666 schrieb:
hatte schon öfters Fälle, wo typische RAM-Bluescreens und -Fehlerbilder (Freeze, Speicherzugriffs-Bluescreens aller Coleur etc) durch die HDD zustande kamen, mit anschließendem Minidump... Stichwort Pagefile. Oder auch den Cache der Platte, wenn er defekt ist !
Bei HDDs kann das durchaus sein, wenn da Lesefehler unkorrigiert bleiben war es eben eben hinterher durchaus noch möglich ein Minidump zu schrieben und die Synthome entsprechen natürlich dann einem RAM Fehler, wenn das Pagefile betroffen war. Wenn SSDs Bluescreens auslösen, dann verschwinden sie i.d.R. komplett und Windows macht den Bluescreen, weil es eben garnicht mehr auf seine Systemplatte zugreifen kann (passiert auch, wenn Pagefiles auf anderen Platten liegen und diese Probleme machen, deshalb Pagefile auf die SSD! und ggf. eben dessen Größe beschränken). In diesem Fall ist dann das Schreiben eines Minidump auf eben diese ausgefallene Systemplatte halt kaum mehr möglich.

Das sind natürlich alles keien 100%igen Beweise sondern erstmal nur Anhaltpunkte für die Fehlersuche. Ein RAM Tests sollte bei einem Bluescreen auch immer gemacht werden, da gibt es heute zu viele fehlerhafte Riegel auf dem Markt.

Ameisenmann schrieb:
Auch nach gefühlten 5 Jahren SSD am Markt, sollte man die Dinger noch nicht verwenden... echte Bananenprodukte :mad:
Dann darfst Du Dir auch keine CPU und keinen Chipsatz kaufen, die haben alle Fehler und die sind auch alle dokumentiert, trotzdem laufen die Rechner überwiegend problemlos. Fehler passieren und wenn der bei der m4 eben nach 5000 Stunden auftritt, dann werden die jetzt wohl hoffentlich den Sourcecode auf mögliche ähnliche Fehler durchforsten und auch solche beseitigen, die nach 20.000 oder 50.00 Stunden auftreten würden. Solche Fehler stecken vielleicht in der FW andere SSDs oder auch anderer Geräte, nur dann sind die u.U. so alt, dass sich daran niemand mehr juckt, der Hersteller schon garnicht.
 
LinuxMcBook schrieb:
Genau, ein einfacher Bluescreen ist ja total mit Datenverlust vergleichbar...

Es kommt darauf an, wann der Bluescreen auftritt. Was wenn z.B. gerade ein Schreibvorgang auf deine Platte schiefgeht. Damit kann man auch ein komplettes NTFS-System lahmlegen.
 
5000 stunden hat noch nicht mal meine 3 jahre alte festplatte hinter sich, das können eigtl nur welche sein, die den rechner 24/7 anhaben...

meine crucial hat erst nen viertel...
 
Und wie würdest du das umsetzen? Die Stabilität und Langzeithaltbarkeit ist in einem Review nicht zu überprüfen. Dafür stehen die Laufwerke viel zu kurz zur Verfügung, geschweige denn von der Zeit, die dafür drauf gehen würde. Da Komponenten, wie SSDs, in der Regel recht zeitnah nach Markteinführung getestet werden, gibt es schlich keine Erfahrungswerte und keine bekannten Probleme (mal abgesehen von den Nachzüglern, die später ihre Produkte mit bereits bekanntem Chipsatz oder Design herausbringen).

Deine Position würde ja stimmen, wenn alle Tests direkt zum Produktlaunch oder kurz danach stattfinden würden. Das trifft aber auf viele garnet zu. Wie in dem von mir gequoteten Beitrag ging es ja sogar darum, dass Fehler schon bekannt sind, diese nur nicht genug gewürdigt werden.

Zudem werden oft ja auch neue SSDs veröffentlich, die aufgrund gleicher Bauteile o.ä. auch vom gleichen Fehler betroffen sind. Auch hier wird das immer nur mehr als kümmerlich angesprochen.

Desweiteren findet man in den Weiten des Netzes genug Tests von anderen Seiten oder Usern die SSDs auf ihre Haltbarkeit hin testen. Als z.B. hier der Test zur 830 erschien, wurde schon an anderer Stelle getestet, dass die SSDs unter Umständen weniger haltbar sind als andere.

Es geht ja auch net darum jede SSD die man testet (und die dann wie du schon sagst eventuell auch noch ganz neu am Markt ist) erstmal 5 Monate im Dauerschreibtest gequält wird bevor man nen Test veröffentlichen kann. Es geht vielmehr um den Umgang mit bekannten Fehlern und Anzeichen die auf Probleme hindeuten. Zudem kann man Revies im Laufe der Zeit auch updaten. Entweder weil man selbst noch einen Langzeittest gestartet hat oder sonstwo gröbere Fehler bekannt geworden sind. Und damit meine ich net, dass man 3 Zeilen irgendwo mitten ins Review schreibt, sondern auch mal das Fazit dann dementsprechend konsequent ändert. Zudem könnte man generell bei neuen SSDs darauf hinweisen, dass sie zwar schneller sind als ältere SSDs, die Zeit aber erst zeigen muss, ob die jeweiligen SSDs auch stabil sind und man sie wenn man auf Stabilität angewiesen ist daher kritischer betrachten sollte.

Und ein BSOD der stündlich (!) auftaucht, ist für Leute, die den PC beruflich benötigen, wesentlich schädlicher für die Produktivität als ein sporadischer Datenverlust - sofern Backups regelmäßig erstellt werden.

Das wage ich zu bezweifeln. Bei den Blue Screens muss das Laufwerk getauscht werden, man hat allerdings noch die Zeit/Möglichkeit auch die aktuellsten Sachen noch zu sichern.
Wenn die Daten plötzlich hopps sind oeder die SSD futsch, muss das Laufwerk auch getauscht werden, allerdigns ohne Möglichkeit sich ganz aktuelle Backups zu erstellen.
 
Die Samsung 830 und Intel 510 hatten noch keine Probleme oder?
Samsung 830; Intel 510; Intel Postville; und der 50nm Vorgänger haben eine weiße Weste soweit ich weis.

Bei der Samsung 830 muss aber erst mal Zeit vergehen, ca. 1 Jahr bevor man da ein Fazit ziehen kann. Man sieht ja hier wieder schön, wie lange es dauern kann bis so ein Fehler dann zum Vorschein tritt.
 
Lord Sethur schrieb:
Hm - also zumindest im Consumerbereich sind SSDs immer noch nicht wirklich so zuverlässig, wie man es sich wünschen würde.
Bin gespannt, ob sich die 830er Samsung vom Rest der bezüglich der Leistung in Frage kommenden Hersteller - Intel, OZC, Crucial - in puncto Zuverlässigkeit absetzen kann.

Wenn Du schon vergleichst, dann musst Du einezelne Produkte miteinander vergleichen. Nur die 830er vin Samsung mit allen Produkten vcon Intel, OZC, Crucial zu vergleichen wird Dir kein objektives Ergebnis bringen.

Ebenso könnte ich sagen, das die C-300 von Crucial die beste SSD im Vergleich zu Intel, Samsung und OZC ist. Auch wenn das derzeit zutrifft, ist es deshalb trotzdem nicht aussagekräftig.
Ergänzung ()

.mrv schrieb:
Wenn die Daten plötzlich hopps sind oeder die SSD futsch, muss das Laufwerk auch getauscht werden, allerdigns ohne Möglichkeit sich ganz aktuelle Backups zu erstellen.

Da stimme ich 100%ig zu. Allerdings sind die Foren voll von Leuten, die Backups für Weiberkram halten. Wenn es nur die Diddlekiste ist, ok. Alle anderen sind doch sehr, öhm ... schlicht.
 
PiPaPa schrieb:
Und das Automobil ist über ein Jahrhundert alt und es gibt weiterhin Probleme damit samt Rückrufkationen.
Man sollte die Dinger echt noch nicht verwenden, echte Bananenprodukte.

Meine Güte, dafür das die Technologie zumin auf dem Massenmarkt "so neu" ist, ist die Fehlerrate extrem gering. Hier wird ja von manchen so getan als ob man niemals eine SSD verwenden dürfte, weil generell alle Daten futsch sind.:freak:
Hauptsache maßlose Übertreibung anwenden. Und der FW Fehler von Crucial ist noch absolut harmlos und überhaupt kein Vergleich bei anderen SSD Produkten wo der ganze Controller und somit das Hirn auf hardwareseiten für den Allerwertesten ist.

Und wenn ich sehe was in den letzten 20 Jahren für normale HDDs auf den Markt geworfen wurden.... :rolleyes:

Was hat eine SSD mit einem Auto zu tun? :rolleyes: Als die 1TB Platten auf den Markt kamen hat man eben ein halbes Jahr gewartet und man konnte die Platten problemlos verwenden. Entweder verreckt das Teil dann gleich oder viel viel später, aber es läuft und es taucht auch nicht nach 5000 Stunden ein Bug auf. Festplatten sind deutlich zuverlässiger, deshalb findet man sie auch im Produktiveinsatz, eine SSD ist leider noch immer Beta.
Der Bug von Crucial ist nicht harmlos weil es ihn gibt und die meisten Nutzer nicht abstellen werden weil sie es nicht können oder wissen. Hier sollten sie eine Autoupdatefunktion anbieten, mein Schwiegervater wird kaum seine M4 updaten wenn er gerade mal Ebay oder Mobile.de aufrufen kann.
 
.mrv schrieb:
Finde das auch sehr schlecht gemacht in den meisten Tests. Ist ja schön, dass SSDs so schnell sind und tolle Benchwerte erzielen. Hier sollte man in den Tests Dingen wie Stabilität, Langzeithaltbarkeit und bekannten Problemen aber wesentlich mehr Aufmerksamkeit schenken.
Wie sollen die Tester das denn leisten? Die bekommen so ein Produkt ein paar Tage vor dem Launch Termin zugeschickt, testen die Benchmarks einmal durch, schrieben den Artikel und stellen ihn dann um 0:01 Uhr am Tag nach Ablauf des NDA ins Netz, damit sie nicht die letzten sind, die das bringen. Selbst wenn sie dabei Probleme haben, trauen sie sich dann i.d.R. nicht diese zu erwähnen, es könnte ja auch aufgrund eines eigenen Fehlers passiert sein und dann staht man dumm da.

.mrv schrieb:
Ich persönlich hab mir gestern ne 128 GB M4 bestellt und freue mich schon drauf. Sehe die Crucial SSDs trotzdem noch als welche der solidesten SSDs an. Zumindest bemüht sich Crucial immer sehr darum Fehler zeitnah zu beheben.
Eben, so ist es und da andere noch viel mehr Baustellen haben, wurden bei denen schon zahlreiche Update gebracht und die haben die Probleme trotzdem nicht vollständig behoben.
Man darf also mal gespannt sein, was da kommt wird.
zivilist schrieb:
Und genau das ist der Grund warum ich mir noch keine SSD hole: zu teuer und noch beta. Klar gibts auch bei normalen HDDs Firmwareupdates, die aber nicht so grobe Fehler beheben müssen.
Du brauchst Dir auch keine SSD zu holen, das raubt hier niemandem den Schlaf. :D Die Probleme einiger HDDs die etwa das Schreiben korrupter Daten wenn gerade die S.M.A.R.T. Werte ausgelesen werden, finde ich aber eigentlich noch fieser, denn die fallen oft lange überhaupt nicht auf und dann hat man kaputte Dateien und das letzte Backup der korrekten Datei schon lange damit überschriebeen.
bawde schrieb:
z.b. wenn ein hersteller(controller oder SSD) erstmal 100-200 tage testet, bevor man sie bringt.
Wann sollen sie dann mit den Produkten auf den Markt kommen? Indilinx oder Sandforce haben offenbar zu wenig getestet, die hohe Zahl der FW-Updates zeigt es ja. Obendrein, s.o. die Zeit die Intel da offenbar reinsteckt um die auf ihr gewohntes Qualitätsniveau zu bringen, denn bei Intel, Samsung und Crucial gibt es offenbar deutlich bessere Qualitätsstandarts und trotzdem kommen Fehler vor.

Marathon schrieb:
Das Problem kann auch weit vor den 5000 Stunden auftreten und die genaue Ursache wurde bislang nicht bekannt gegeben.
So ein Quatsch, es ist ein Fehler, der bei 5000 Stunden auftritt gefunden wurden und diesen hat man auch behoben, damit ist die Ursache ja wohl bekannt.
Marathon schrieb:
Es ist auch möglich, dass es zwei Bugs gibt, einer erzeugt den BSOD nach ca 5000 Stunden und der andere von Anfang an.
Es gibt immer defekte SSDs, wie bei allen technischen Geräten. Kein Hersteller schafft 0.0% Ausfallquote. Obendrein gibt es eine Menge anderer Fehlerquellen im Rechner und nicht jeder Bluescreen in einem Rechner mit einer SSD wird auch von der SSD verursacht. Die User haben dann oft auch das RAM aufgerüstet, neue Versionen der Treiber installiert (womöglich gleich die neueste Beta) und denken dann immer nur an die SSD als Ursache, weil das eben eine Neuigkeit für sie ist.
Marathon schrieb:
Laut Crucial-Support wird lediglich der 5000-Stunden-Bug behoben, der eventuelle andere aber nicht.
Welcher eventuelle andere? Nicht jeder Bluescreen in dem Thread liegt an der SSD, da bei einigen auch klar sichtbar ein Minidump geschrieben wurde, was bei einem Fehler der SSD eigentlich nicht passiert, wie ich in meinem Letzten Beitrag hier schon geschrieben habe.
morning666 schrieb:
Ja, genau, ein Monat Dauerstabilitätstest. Manche (wenige) machen das auch, z.b. au-ja.
Was nutzt ein Monat wenn ein fehler nach 5000 Stunden auftritt? Der beste "Langzeittest" ist immer noch der Dauerschreibtest auf xtremesystems.org, auch wenn gerade der Faktor Zeit dort zu kurz kommt und die Probleme wie "die SSD stieg plötzlich aus" muss man in den einzelen Posts zusammensuchen.

morning666 schrieb:
Und wieso "nicht so lange zur Verfügung" ? In aller Regel werden Reviewsamples permanent überlassen.
Und landen dann bei ebay? Ich will hier niemandem was unterstellen, aber die Nachtests bei neuen FW Versionen oder verändertem Testsystem wären oft sicher schneller erledigt, wenn die SSD dafür noch in der Schublade liegen würde.

morning666 schrieb:
Und ein BSOD der stündlich (!) auftaucht, ist für Leute, die den PC beruflich benötigen, wesentlich schädlicher für die Produktivität als ein sporadischer Datenverlust - sofern Backups regelmäßig erstellt werden.
Wieso das? In beiden Fällen muß man erstmal das Systemlaufwerk ersetzen, kann aber bei dem Fehler der Crucial noch die letzte Version der Daten an denen man gerade gearbeitet hat (sofern die nicht m Netz liegen) vorher noch kopieren. Bei einem Totalausfall sind diese dann verloren. Ärgerlich ist beides, keine Frage aber die m4 kann nach dem FW-Update dann weiter verwendet werden und man muss sie nicht erst ersetzen.
 
Zuletzt bearbeitet:
Ameisenmann schrieb:
Festplatten sind deutlich zuverlässiger, deshalb findet man sie auch im Produktiveinsatz, eine SSD ist leider noch immer Beta.

Das ist leider ein Irrglaube.
Die Zahl der Rückläufer bei Festplatten ist deutlich höher.
Quelle: c't.

Noch lustiger ist allerdings der Umstand, dass heute mit der Zuverlässigkeit der Festplatten gegenüber SSD's argumentiert wird, von der Festplatte aber kein Backup gemacht wird.
 
Wie einige User hier schon Beispiele nannten, aktuelle Autos bzw. die Automobile der heutigen Zeit, sind derart vollgepackt mit Elektronik, das es regelmäßig Probleme deswegen gibt.
Oder der P67 Chipsatz, welcher derart fehlerhaft gewesen ist, das eine Neuauflage auf den Markt gebracht werden musste.
Es gibt genügend Beispiele die belegen, das andere Produkte genauso gefährdet sind, was den Fehlerteufel angeht.

Seagate, Samsung, und IBM sind die besten Beispiele dafür, und IBM hat sich damals ganz schön rein geritten als deren Platten on mass das zeitliche segneten.
Seagate vor einigen Jahren auch mit der Firmwareproblematik.

Es gibt kein Produkt was auch nur annähernd fehlerfrei funktioniert, und wenn dann bleiben die Fehler je nach dem unbemerkt.

Der Vergleich zwischen HDD und SSD hinkt dermaßen total.
Bzw. die Technik einer HDD hat sich bis auf Platter und dem Lese/Schreibkopf nicht geändert.
Wogegen sich bei einer SSD von Serie zu Serie der Controller ändert bzw. neu konzipiert wird, Speicherchips die in anderen Strukturen gefertigt werden, usw.
Es ändert sich gewaltig mehr als bei einer HDD, was dann auch die große Problematik ist letztendlich.
Würde sich bei den SSD im Vergleich zur HDD wenig ändern, gäbe es sicherlich kaum Probleme.

Und Crucial muss ich echt in Schutz nehmen, die spielen mit offenen Karten, wo sich so manch ein Hersteller eine dicke Scheibe von abschneiden könnte!
Den Kauf meiner M4 mit 256Gig hab ich nicht bereut, und wenn schon, dann raucht mir die M4 nach 2-3 Jahren halt ab, oder früher oder später, dafür hab ich die Garantie um defekte Hardware tauschen zu könne.
Länger möchte ich die eh nicht nutzen, ist ja eh immer geil wie alle HDD Fetischisten ankommen und mit ihren 10 Jahre alten Magnetspeichern rumprahlen....und jetzt?
Einen Blumentopf gibt es dafür trotzdem nicht :rolleyes:
 
Zuletzt bearbeitet:
was, mit der m4 passiert das auch? Mich hat die Corsair F60 schon genervt mit BlueScreens und ich hatte gehofft dass sowas nun endlich ausgestanden ist. Zwar löblich dass der Hersteller dran arbeitet, aber angeblich hat Corsair damals auch die Probleme behoben - bei mir allerdings traten dann BlueScreens in anderen Situationen auf.

Da lobe ich nach wie vor meine X25 - die hat bisher keinen einzigsten aussetzer oder bug gehabt.
 
Kasmopaya schrieb:
Samsung 830; Intel 510; Intel Postville; und der 50nm Vorgänger haben eine weiße Weste soweit ich weis.
Wenn Du es nicht weisst, dann google doch erstmal oder schriebe nichts, denn die G2 hatte sogar anfangs einen ganz bösen data corruption Bug, wenn im BIOS ein ATA Passwort gesetzt wurde. Das Problem mit den ATA-Passwörtern ist darüber hinaus aber auch bei der 510er bekannt, nur ist nicht klar in wieweit die SSD selbst die Ursache ist oder ob der Fehler mehr beim Board/BIOS liegt. Ich würde jedenfalls im Zweifel bei allen Laufwerken auf die Verwendung eines ATA Passwortes verzichten. Obendrein ist der 8MB Bug zwar extrem selten, geht aber durch die ganze Linie seid der ersten X25-M Generation. Bei der G2 soll es mit der 02M3 Firmware behoben worden sein.
Ergänzung ()

Hier nochmal aus den Releasenotes, leider in Intels pdfs nicht mehr zu finden, aber in Foren:
Ergänzung ()

BeeHaa schrieb:
@Fisico
Das ist auch das Problem. Mit einer neuen SSD ist es nunmal so, daß man jedes Jahr mit einer komplett&völlig neuen Entwicklung zu tun hat.
Das ist ja garnicht mal das Problem, der Bug tritt ja bei der Vorgängerversion C300 überhaupt nicht auf und das war die erste SSD mit dem Marvell Controller und da die schon über ein Jahr länger am Markt ist, gibt es davon sicher einige mit mehr als 5000 Stunden. Ebenso ist bei Intels 320er der 8MB Bug erst massiv aufgetreten und die war auch nur eine Weiterentwicklung der G2. Auch wenn man ein produkt weiterentwickelt schützt das eben nicht vor Bugs, sonst müssten alle HDDs ja schon lange bugfrei sein.

DaZpoon, die Corsair F60 hat einen Sandforce Controller, Sandforce war ein kleines Startup Unternehmen und der SF-1222 deren erstes Produkt, eas erwartest Du da? Warum wohl braucht Intel so lange um den mal soweit bugfrei zu bekommen um ihn in eigenen SSDs einsetzen zu können? Das kann man mit dem Problme nach 5000 Betriebsstunden bei der m4 überhaupt nicht vergleichen.
 
Zuletzt bearbeitet:
Qarrr³ schrieb:
Die Samsung 830 und Intel 510 hatten noch keine Probleme oder?

Zumindest die 830 ist noch so neu dass es niemanden mit 5000 Betriebsstunden haben kann. Von der 510 hab ich noch nichts schlechtes gehört aber bei dem Preis würde ich doch trotzdem zur M4 oder 830 greifen da die 510 1,5 mal so viel kostet pro GB.
 
Ich werd trotzdem Windows neu auf ne 64 gb variante aufsetzen dann mit der 010 firmware.was die über die fwares an leistung zugelegt hat ist vorbildlich und bei der konkurrenz gabs genauso probleme.

Zu der 510 stand letztens iwas.Da hieß es grade die 510 die doch als so stabil galt.weiss nich mehr genau was aber da war was letztens erst.
 
@BeeHaa

Daher wird die SSD wohl lange noch was für die Enthusiasten sein, die mehr auf die Geschwindigkeit achten, als Wert auf Sicherheit und Zuverlässigkeit zu legen.

Was jetzt nicht heißt, dass SSD absolut unzuverlässig sind und nicht zu empfehlen.
Bugs treten nun mal halt auf, und gerade im Computerbereich ist eigentlich fast jeder User ein Betatester.
Weniger bei essentiellen Kernkomponenten wie Grafikkarten, Cpu's, Mainboards und vielleicht noch Arbeitsspeicher.

Ich persönlich hatte bisher Glück, meine Vertex 2 rennt nach wie vor, und meine M4 tut es auch noch, kommt das FW Update in 2 Wochen wird es aufgespielt, und hoffentlich ist dann auch Ruhe im Karton.
Missen will ich meine M4 nicht mehr, und trotz Sata II Anbindung rennt die M4 dennoch rasant!
 
Na, dann hoffe ich mal, dass ich innerhalb der nächsten 2477h einen Fix einspielen kann...

Ich kapiere immer noch nicht den Zusammenhang mit den 5000h. Wenn es ne gewisse Datenmenge oder Anzahl Schreibvorgängen wäre, könnte ich's ja noch halbwegs nachvollziehen.
Heißt das, die SSD weiß noch, was sie vor 5000 Stunden gemacht hat? Falls ja, wozu sollte sie das interessieren?
 
Zurück
Oben