[Sammelthread] HDD-Probleme, SMART-Analysen

Status
Für weitere Antworten geschlossen.
Hi ich habe in den letzten Tagen gemerkt, dass meine Hitachi E7K1000 bei der Lesefehlerrate extrem zugenommen hat. Hier ein Bild von CrystalDisk:
Hitachi.PNG

Ist das schlimm und muss ich damit rechnen, dass sich die HDD bald verabschiedet?

MfG dead_brain
 
Bin mir nicht sicher ob vll. meine Festplatte die Ursache ist das mein PC mitlerweile sehr langsam ist.

Habe in den Eingabeaufforderungen folgende Werte ermittelt:

Write: 80,21 MB/s

Read: 77,94 MB/s


Crystal Disk Screen:

1eb7edb42e68d0718f2d186b043d3ef8.jpg

Ist das So in Ordnung oder ist das der Flaschenhals der bremst?
 
@franklin88

Die HDD ist noch gut, aber klar sie bremst das System aus. --> SSD Einsetzen und die HDD als Datengrab für z.B. Daten (Bilder, Vids, etc.) verwenden.
 
Cool Master schrieb:
@franklin88

Die HDD ist noch gut, aber klar sie bremst das System aus. --> SSD Einsetzen und die HDD als Datengrab für z.B. Daten (Bilder, Vids, etc.) verwenden.

Habe ein ASRock N68c-.... das leider kein AHCI unterstützt (also keine SSD), es ist eine WD Caviar green mit 5400rpm, denkst du es würde was bringen eine andere Festplatte mit 7200 rpm zu kaufen?
 
Nein bringt nichts. Btw. Zitierregel beachten.
 
@dead_brain: 68 Lesefehler (letzte 16 Bit/4 Stellen des hex.Rohwertes), das hält sich noch in Grenzen.
 
@Franklin88:
SSD sind für Betriebssystempartitionen gut, aber als Datenspeicher nicht zu empfehlen. Deine Empfehlung ist also ok.
Die mittlerweile fast ausschließlich verwendeten MLC-EEPROMS (MLC-EEPROMS) halten max. 2000-3000 Schreibvorgänge aus, danach ist Schicht im Schacht. Ok, 3000x SSD vollschreiben dauert schon eine ganze Weile, aber wer sagt, daß Wear-Leveling und Fehlerkorrektur ordentlich implementiert sind? Seitdem ich mich intensiv mit dem Thema beschäftige, gehe ich mittlerweile davon aus, daß viele Produkte schnell und lieblos auf den Markt geworfen wurden, und nur selten dem Idealbild entsprechen.
 
pardon, das Zitat stammte von Cool Master, und war an Dich gerichtet.
Technisch ist Deine Platte völlig in Ordnung. Wenn sie Dir zu langsam erscheint, ggf. defragmentieren, oder durch ein schnelleres Exemplar (oder halt SSD) ersetzen.
 
1.PNG
2.PNG

Wie sieht das Fazit zu diesen beiden Platten aus?
Ich sorge mich aufgrund des Alters etwas um die 250 gb große Festplatte, die als Datengrab und Spiele-Platte verwendet wird (ca. 6,5 Jahre alt). Kann man davon ausgehen, dass die Platte weiterhin einen guten Dienst leistet wie bisher? Sollte in eine neue Platte investiert werden? (PC wurde gerade neu angeschafft - aufs Gaming ausgelegt, lohnt eine neue?)
Die SSD ist 2 Jahre alt und dient lediglich als System und Programmplatte.
Vielen dank im Voraus.
AHOI
 
Platte 1 (ST3250410AS):
0xBB (offline uncorrectable sectors) = 0x124 / 292. Auf deutsch: die S.M.A.R.T.-Fehlerkorrektur hat im Offline-Scan, der aller ca. 4h automatisch im Hintergrund ausgeführt wird, 292 schwache Sektoren gefunden. Dies wurde auch mit einer "1" auf einer Skala von 100 bis 1 bewertet. Leider hat es Seagate bis heute nicht geschafft, hier einen Schwellwert (Grenzwert) einzurichten.
-> bitte die Platte tauschen! Die tut's nicht mehr lange.

Platte 2 (SSD): 0x05 /0xC4: 7 Sektoren wurden durch Reservesektoren ersetzt. Das klingt nicht viel, allerdings bin ich bei FLASH-Speichern etwas skeptisch. Dort schlägt S.M.A.R.T. gewöhnlich erst Alarm, wenn die sektorinterne Fehlerkorrektur längst am Limit ist. Die Rohdaten-Lesefehlerrate (01) ist noch bei 92, das Limit liegt bei 50. Soll vermutlich heißen, daß 92% aller Sektoren noch ohne ECC-Korrektur ausgelesen werden können. Ob das wirklich so ist, wissen allerdings nur die Entwickler der Firmware.
Probier mal bitte, die Lesegeschwindigkeitskurve z.B. mit hdtune zu ermitteln. Sollte dort die Geschwindigkeit merklich einbrechen, ist das ein deutliches Indiz dafür, daß die ECC-Fehlerkorrektur kräftig werkelt.
-> Regelmäßig Sicherungen anfertigen, und abwarten.
 
Zuletzt bearbeitet:
Offline Uncorrectable Sectors ist aber ID198/C6.

ID187/0xBB Reported Uncorrectable Errors: Anzahl der Fehler die durch die Hardwarefehlerkorrektur
nicht korrigiert werden konnte, erfaßt werden hier auch mehrfache Versuche, über die dann
tatsächlichen Lesefehler sollte 01 Auskunft geben, hier 0.

Älter dürften die 5 Suchfehler und 2.817 CRC Fehler sein,
die 17 Datenadressierungsfehler scheinen hingegen aktuell zu sein,
daher bleibt das Fazit von TK bestehen: ersetzten.
 
Danke für Deinen scharfen Blick!

Seagate setzt 0xC5 immer gleich C6, obwohl das nicht korrekt ist. Dafür ist Seagate auch der einzige Hersteller, der 0xBB nutzt. Dort steigt die Zahl der Defekte oft schon stark an, obwohl bei C5 und C6 noch keine nennenswerten Einträge vorhanden sind. Daher geht ich davon aus, daß es sich hier um die Offline-Scan-Daten handelt.
Die Rohdaten-Lesefehlerrate (01) wie auch Hardware-ECC (0xC3) sind willkürlich gewählte Werte, die für den Anwender nicht vergleichbar sind. Andere Hersteller blenden sie gleich ganz aus..
 
franklin88, Du kannst eine SSD auch im IDE Modus betreiben, das bremst die SSD im Alltag nur wenig und sie bleibt immer noch viel, viel schneller als eine HDD.

_TK_ schrieb:
Die mittlerweile fast ausschließlich verwendeten MLC-EEPROMS (MLC-EEPROMS) halten max. 2000-3000 Schreibvorgänge aus, danach ist Schicht im Schacht. Ok, 3000x SSD vollschreiben dauert schon eine ganze Weile, aber wer sagt, daß Wear-Leveling und Fehlerkorrektur ordentlich implementiert sind? Seitdem ich mich intensiv mit dem Thema beschäftige, gehe ich mittlerweile davon aus, daß viele Produkte schnell und lieblos auf den Markt geworfen wurden, und nur selten dem Idealbild entsprechen.
Die Speicherbausteine heißen NANDs und die halten meist sogar viel mehr als 2000 bis 3000 P/E Zyklen aus, zumindest bei den guten SSD von renomierten Herstellern die diese NANDs entweder selbst herstellen oder die wirklich die hochwertigen NANDs der NAND Hersteller kaufen und verbauen und nicht selbst die Dies aus den Wafern binnen, verpacken und mit dem eigenen Logo versehen.

Schau mal in den Dauerschreibtest auf xtremesystems.org, da sieht Du wie viele 100TiB bis teils PB die SSD ausgehalten haben und nun schau mal in den S.M.A.R.T. Werten von SSD oder auch HDDs, die haben ja teilweise auch einen Zähler für die Anzahl der vom Host geschriebenen Sektoren (also Zählerstand * 512Byte) und dann sieht Du, wie viele Jahrzehnte bis Jahrhunderte man braucht um diese TiB selbst zu schreiben.

Wer sich an die Empfehlungen im Sammelthread hält, der kauft keine schlechte Platte bei der Wear-Leveling oder die Fehlerkorrektur nicht ordentlich gehen oder die Haltbarkeit ein Thema wäre, da solltest Du hier nicht längst als unbegründet erkannte Bedenken streuen!
 
Holt, da du dich hier gerade tummelst, eine Frage zu meiner Samsung 840 Basic 250GB:

Ich hab von der Postville 80GB das System (Win7 HP x64) auf die Basic mittels dem Samsung Tool migriert. Soweit wunderbar.
Ausnahme: Kurz nach dem Windows Boot friert das System überwiegend soweit ein, dass sich nur die Maus bewegen lässt. Beim ggf. bereits gestarteten Video/Audio läuft der Ton weiter, und nach 45 Sec - ca. 2 Min ist alles wider OK.

Schonmal von so einem Phänomen gehört?
 
Schau Dir doch mal die Vertex3 von Victarion an. "Die SSD ist 2 Jahre alt und" und hat gerade mal 3.5TB geschrieben, also keine 2TB im Jahr. Das ist obendrein eine OCZ, also eine SSD des SSD Hersteller mit der höchsten Ausfallrate der auch den letzten Dreck an NAND verbaut, weil er selbst keine Fertigung hat, was sich nun unter dem Dach von Toshiba wohl ändern dürfte.

_TK_ schrieb:
Platte 1 (ST3250410AS):
Platte 2 (SSD): 0x05 /0xC4: 7 Sektoren wurden durch Reservesektoren ersetzt. Das klingt nicht viel, allerdings bin ich bei FLASH-Speichern etwas skeptisch.
7 Blöcke, NANDs werden immer blockweise ausrangiert.

_TK_ schrieb:
Dort schlägt S.M.A.R.T. gewöhnlich erst Alarm, wenn die sektorinterne Fehlerkorrektur längst am Limit ist.
Die Sandforce SSD von OCZ haben alle RAISE aktiviert und zeigen alle hohe ECC Korrekturwerte, weil OCZ eben die Eigenschaft des Sandforce auch mit minderwertigen NANDs noch einigermaßen gut über die Runden zu kommen, bisher am intensivsten ausgenutzt hat. Nur deren Sandforce SSD haben auch das Life-Time Throtteling aktiviert und die habe im Dauerschreibtest auf xtremesystems.org alle lange vor dem Erreichen der in der FW hinterlegten Zyklen schlapp gemacht, eine sogar bei 85% verbleibender Zyklen. Die einzige Ausnahme war die zweite Vertex Turbo, die aber nicht aus dem Handel kam, sondern als Ersatz für die erste auf Vermittlung eines OCZ Mitarbeiters in dem Forum dort geliefert wurde.
_TK_ schrieb:
Probier mal bitte, die Lesegeschwindigkeitskurve z.B. mit hdtune zu ermitteln. Sollte dort die Geschwindigkeit merklich einbrechen, ist das ein deutliches Indiz dafür, daß die ECC-Fehlerkorrektur kräftig werkelt.
HD Tune ist für SSDs total ungeeignet, vor alle für die mit dem Sandforce Controller wie die Verrtex3, vergiss das Tool also für SSDs.

behardware hat dazu im Rahmen eines Tests auch mal geschrieben:
Between the compressible and incompressible readings then, there’s a big difference both between reads and writes on some SSDs. Let’s see what happens on some SSDs when we read the data. There are three distinct zones on these screenshots:

- A corresponds to the system image previously described
- B corresponds to a very compressible 4 GB file then an incompressible 4 GB file created via IOMeter
- C corresponds to the unused area of the SSD



On the unused part of the Corsair Force 3, a SandForce SSD with asynchronous memory, we’re at the theoretical maximum of close to 510 MB/s. But in practice on the partition with data we’re far below this at just 272.5 MB/s on average, with a minimum of 187 MB/s and a maximum of 509 MB/s, which corresponds among other things to the zone occupied by pagefile.sys. On the compressible test file we’re at around 425 MB/s and 190 MB/s on the incompressible one.

On a Corsair Force GT, this time with synchronous memory, the impact is much lower for reads as the average on the partition with data is 445.2 MB/s, with variations between 411 and 512 MB/s. Finally on the Crucial M4, which doesn’t use a compression algorithm, speeds barely vary at all: 490.6 MB/s on average on the partition with data, as against a maximum of 511.8 MB/s on the unused area.

To avoid becoming victim to the marketing speak of the SSD manufacturers using a SandForce controller, all the synthetic performance tests on the SSDs in this review will be carried out with imcompressible data.

_TK_ schrieb:
-> Regelmäßig Sicherungen anfertigen, und abwarten.
IMG0035929.png Erstmal die FW aktualisieren, die 2.15 ist schon recht alt und es wurden seidher noch viele Bug entfernt. Dann regelmäßig die Daten sichern, was man immer machen sollte und vor allem bei SSDs, da diese wenn, dann spontan und ohne jede Vorwarnung ausfallen und die Chancen auf Datenrettung minimal bis nicht existent sind.
Ergänzung ()

Heen, ja das kenne ich leider sogar persönlich. Meist ein Problem von Windows, also der Sidebar oder dem Aero, aber kaum der SSD selbst. Poste mal den Screen von CrystalDiskInfo, für die SSD und ggf. vorhandene HDDs im System, nicht dass da ein Problem mit dem SATA Kabel vorliegt, oder vielleicht mit einer anderen Platte, von der Windows auch was braucht, was nicht stimmt.
 
Sidebar könnte hinkommen. Kann irgendwie nicht auf das Multimeter Gadget verzichten, und auch ein Webradio startet in der Sidebar.
Außerdem nutze ich den Orico SATA Power Switch, ggf. sind beim Start/ im Betrieb die HDDs dann nur per Datenkabel mit dem MB verbunden.

Ich muss jedoch sagen, dass ich beides schon vor dem SSD-Wechsel ohne Mucken genutzt habe.
Anbei die CDI-Screens.
 

Anhänge

  • CDI_ST2.png
    CDI_ST2.png
    114,7 KB · Aufrufe: 456
  • CDI_WD.png
    CDI_WD.png
    101,4 KB · Aufrufe: 445
  • CDI_SSD.png
    CDI_SSD.png
    101,2 KB · Aufrufe: 470
  • CDI_ST1.png
    CDI_ST1.png
    111,1 KB · Aufrufe: 451
@Holt:
Es gibt NAND- und NOR-FLASH, das bezeichnet die Organisation der Bänke. NOR wird z.B. für serielle EEPROMS verwendet, NAND nahezu ausschließlich für Massenspeicher. Das sagt aber noch nichts über die Art der EEPROM-Speicherzelle aus! Der klassische Transistor mit Floating Gate kann ein Bit speichern, d.h. er ist entweder leitend oder nicht. Diese Art der FLASHs hält dank einfacher Bauart ca. 100000 Schreibvorgänge lang. Da der Transistor aber relativ viel Platz auf dem Silizium einnimmt, ging man dazu über, verschiedene Leitfähigkeitszustände zu verwenden, d.h. mehrere Bits in einem Transistor unterzubringen. Das spart Platz (= €), kostet aber Geschwindigkeit, und erhöht die Fehleranfälligkeit drastisch. Die Ausleseelektronik muß schließlich zwischen mehreren Leitfähigkeitsklassen unterscheiden, und nicht nur klassisch ein / aus. Diese Multi-Level-Cell-EEPROMS halten prinzipbedingt nur etwa 1/10 der Schreibzyklen bei klassischen SLC-Speichern. Mit zunehmender Miniaturisierung steigt die Empfindlichkeit weiter, d.h. die Haltbarkeit sinkt. Aktuell 3000-2000 Schreibvorgänge je Transistor. Bei "Endurance-MLC" etwas mehr.
Die meistens SSDs, die in freier Wildbahn existieren, sind leider keine Premium-Produkte. Fast alle Kunden schauen nun einmal auf den Preis, und dem müssen sich die Hersteller beugen.

Prinzipbedingt muß, auch wenn nur ein Bit geändert werden soll, ein gesamter Block ("Page") gelöscht werden, und wird erst dann neu geschrieben. Um die Geschwindigkeit der prizipiell recht lahmen MLC-FLASHs zu kaschieren, werden die Daten über mehrere Speicherchips bzw. Bänke verteilt, sprich man hat ein klassisches RAID-0 eingebaut. Also werden auch bei kleinsten Änderungen in einer Mini-Datei verhältnismäßig viele Sektoren neu geschrieben. Bei fragmentierten Daten steigt diese Anzahl weiter an, daher sollte man auch FLASH-Speicher gelegentlich defragmentieren. Es steigert die Haltbarkeit.

Ich glaube nur noch begrenzt den vollmundigen Werbeaussagen. Seitdem ich mich ernsthaft mit der Materie befasse, sehe ich anhand der Rohdaten aus den Speichern, wieviel die Hersteller kaschieren. Und wie oft das Wear Leveling, insb. bei günstigen USB-Sticks usw., noch nicht einmal ansatzweise existiert. Auch die besten Algorithmen können die Physik nicht überlisten. Tut mir leid, wenn ich hier manchmal etwas Pessimismus verbreite, aber ich sehe nur das, was in meiner Werkstatt landet. Und das ist oft sehr ernüchternd.

Die Zahl der Schreibzyklen je Speicherzelle (nicht auf den gesamten Speicher gerechnet!) stammt aus den offiziellen Datenblättern der Hersteller, z.B. Micron. Das deckt sich auch mit meinen Erfahrungen - gerade bei Profi-Fotografen sind teilweise bei weit über 90% der Sektoren schon Bits gekippt, d.h. die Daten nur noch per ECC-Fehlerkorrektur wiederherzustellen. Das kostet Rechenleistung, sprich Lesezeit. Daher werden die Speicher mit zunehmendem Verschleißgrad auch immer langsamer. Mag sein, daß das die Hersteller das als "Throttling" bezeichnen - absichtlich wird die Datenrate wohl nicht ausgebremst.

Der Test auf xtremesystems.org ist sehr interessant, die c't hatte ja auch mal so etwas gestartet. Diese Tests sind praxisorientiert und arbeiten mit verschieden großen Dateien, und schlecht komprimierbaren Zufallswerten. Das ist ok. Mir fehlen hier aber ein paar wichtige Aussagen:
- wurde der Cache im Betriebssystem ausgeschaltet?
- Wie groß ist der Cache im SSD-Controller? War dieser aktiv oder nicht?
Solange man relativ kleine Dateien nur oberhalb des eigentlichen FLASH-Speichers hin- und herschiebt, sind solche Tests nur bedingt aussagekräftig.

- Ach ja, Sandforce. Ein sehr ausgeklügeltes System. Man sollte aber immer ein aktuelles Backup parat haben, denn bei einen Defekt des Controllers sind die Daten nicht wiederherstellbar. Keine Chance.

- 7 Bänke anstatt 7 Sektoren: Korrekt. Mein Fehler.
 
_TK_ schrieb:
Es gibt NAND- und NOR-FLASH
SSD verwenden nur NAND Flash, also brauchen wir nicht auf Oberbegriffe auszuweichen.

_TK_ schrieb:
Diese Multi-Level-Cell-EEPROMS halten prinzipbedingt nur etwa 1/10 der Schreibzyklen bei klassischen SLC-Speichern.
Was ich für Propaganda halte, wenn ich mir einmal das Abschneiden der Intel X25-E und das der X25-V im Dauerschreibtest auf xtremesystems.org ansehe. Aber genaue Zahlen behandeln die NAND Hersteller wie Staatsgeheimnisse.

_TK_ schrieb:
Mit zunehmender Miniaturisierung steigt die Empfindlichkeit weiter, d.h. die Haltbarkeit sinkt. Aktuell 3000-2000 Schreibvorgänge je Transistor. Bei "Endurance-MLC" etwas mehr.
Wie viele Zyklen NAND konkret abkönnen, ist vor allem von der Qualitätsstufe abhängig, also davon wie präzise die Fertigung abgelaufen ist. Diese "Endurance-MLC" sind nichts anderes als die MLC der besten Qualitätsstufe und für die waren bei den 25nm von IMFT 30.000 Zyklen garantiert. Eine der m4 im Test hat sogar mehr geschafft, aber da hat man auch keine Rücksicht auf die JEDEC JESD 218 bzgl. Fehlerraten und Data Retention Tie genommen. Diese Anforderungen müssen bis zum Erreichen der garantierten P/E Zyklen eingehalten werden und das gerade die DRT mit steigender Zyklenzahl abfällt, ist das der Punkt an dem sich die NAND Hersteller bei der Bestimmung der garantierten Zyklenzahl vor allem orientieren müssen.

_TK_ schrieb:
Die meistens SSDs, die in freier Wildbahn existieren, sind leider keine Premium-Produkte. Fast alle Kunden schauen nun einmal auf den Preis, und dem müssen sich die Hersteller beugen.
Das hängt sehr vom Hersteller und auch vom Modell ab, wie französische Ausfallstatistik zeigt:
Wobei die schlimmsten SSD schon nicht mehr in der letzten Ausgabe der Statistik enthalten sind, die waren in der vorherigen Ausgabe:
Aber bei HDDs gibt es auch große Unterschiede, die kannst Du auf der Seite davor finden. Man musste also bei SSD von jeher sehr aufpassen, welche man sich kauft. Deshalb haben wir ja auch im SSD Unterforum einen [Sammelthread] Kaufberatung und Fragen zu SSD.

_TK_ schrieb:
Prinzipbedingt muß, auch wenn nur ein Bit geändert werden soll, ein gesamter Block ("Page") gelöscht werden, und wird erst dann neu geschrieben. Um die Geschwindigkeit der prizipiell recht lahmen MLC-FLASHs zu kaschieren, werden die Daten über mehrere Speicherchips bzw. Bänke verteilt, sprich man hat ein klassisches RAID-0 eingebaut. Also werden auch bei kleinsten Änderungen in einer Mini-Datei verhältnismäßig viele Sektoren neu geschrieben. Bei fragmentierten Daten steigt diese Anzahl weiter an, daher sollte man auch FLASH-Speicher gelegentlich defragmentieren. Es steigert die Haltbarkeit.
So war es vielleicht mal bei den ersten SSDs, deren Controller bessere USB Stick Controller waren. Wie es heute mit dem Wear-Leveling und dem Mapping auf immer andere Flash Adressen funktioniert, kannDu hier mal nachlesen, da wird nicht mehr viel gelöscht, nur weil die Daten einer Page geändert werden.

_TK_ schrieb:
Ich glaube nur noch begrenzt den vollmundigen Werbeaussagen.
Das ist sehr gut, aber die Erfahrungen von Tests die dem Dauerschreibtest zeigen schon sehr gut, dass die Haltbarkeit von guten SSDs mehr als ausreichend ist, denn so viel schreiben Heimanwender nicht, als dass man die NAND kaputt geschrieben bekommt, da geht vorher was anderes kaputt.
_TK_ schrieb:
Seitdem ich mich ernsthaft mit der Materie befasse, sehe ich anhand der Rohdaten aus den Speichern, wieviel die Hersteller kaschieren. Und wie oft das Wear Leveling, insb. bei günstigen USB-Sticks usw., noch nicht einmal ansatzweise existiert.
USB Controller wurden auch kaum weiterentwickelt, die SSD Controller sind dagegen ungleich weiter und arbeiten heute ganz anders als noch die SSD Controller der ersten Generation. Pass also auf, nicht auf alte Informationen reinzufallen, denn da hat sich sehr, sehr viel getan.
_TK_ schrieb:
Auch die besten Algorithmen können die Physik nicht überlisten. Tut mir leid, wenn ich hier manchmal etwas Pessimismus verbreite, aber ich sehe nur das, was in meiner Werkstatt landet. Und das ist oft sehr ernüchternd.
Was landet denn bei Euch in der Werkstatt? Das dürfte die alten SSDs sein, die alle noch mehr oder weniger gravierende Bug haben, wie der 8MB Bug bei Intel oder die ganzen Sandforce SSDs, die nie empfehlenswert waren, ebenso dürftet ihr da SSD mit dem Indilinx Barefoot bekommen, dessen aggressive Idle-GC die P/E Zyklen regelrecht auffresse und dessen Wear-Leveling unterirdisch schlecht ist.

Das sind aber eben nicht die SSD nach dem Stand der heutigen Technik, da gibt es bessere und schlechtere, aber die guten sind auch wirklich sehr gut, zuverlässig und haltbar. Man muss schon sehr genau differenzieren, was ja bei HDDs auch so ist, da gab es auch Serien mit hohen Ausfallraten und dummen Bugs, trotzdem verurteilt niemand HDDs pauschal als untauglich.

_TK_ schrieb:
Die Zahl der Schreibzyklen je Speicherzelle (nicht auf den gesamten Speicher gerechnet!) stammt aus den offiziellen Datenblättern der Hersteller, z.B. Micron.
Hast Du Links dazu? Bei den 34nm wurden noch 5000 P/E Zyklen angegeben, bei den 25nm dann 3000, wobei Intel die gleichen NAND mit 5000 angegeben hat und für die 20nm NANDs gibt es nur die Aussage, dass man die gleichen Zyklenfestigkeit der 25nm NAND anstrebt, aber ich habe noch kein Datenblatt mit der Information gesehen.
_TK_ schrieb:
Das deckt sich auch mit meinen Erfahrungen - gerade bei Profi-Fotografen sind teilweise bei weit über 90% der Sektoren schon Bits gekippt, d.h. die Daten nur noch per ECC-Fehlerkorrektur wiederherzustellen.
Gekippte Bits sind bei NAND ebenso normal wie bei HDD auch, weshalb es ja auch die ECC gibt. Dafür hat jedes NAND auch extra Byte pro Page um diese ECC Daten unterzubringen, hier z.B. 224 Byte pro 4k Page.

micronc.png

_TK_ schrieb:
Das kostet Rechenleistung, sprich Lesezeit. Daher werden die Speicher mit zunehmendem Verschleißgrad auch immer langsamer. Mag sein, daß das die Hersteller das als "Throttling" bezeichnen - absichtlich wird die Datenrate wohl nicht ausgebremst.
Das ist totaler Quatsch! Die ECC wird vom Controller so schnell durchgeführt, das es keine Performance kostet, zumal diese ab dem Neuzustand erfolgt.

Ob und warum SSD langsamer werden, hängt vom Modell und von verschiedenen Faktoren ab, da muss man schon die konkrete SSD nennen, um darauf eingehen zu können, aber gute SSD werden auch nicht langsamer, wenn sie getrimmt werden. Die Sandforce werden immer langsamer, was an der speziellen Funktionsweise des Controllers liegt, denn der lösche die Blöcke immer erst beim Schreiben und nie vorher in der Idle-GC, da räumt er nur einen Teil auf, der der werksseitigen OP entspricht.
_TK_ schrieb:
Der Test auf xtremesystems.org ist sehr interessant, die c't hatte ja auch mal so etwas gestartet. Diese Tests sind praxisorientiert und arbeiten mit verschieden großen Dateien, und schlecht komprimierbaren Zufallswerten. Das ist ok. Mir fehlen hier aber ein paar wichtige Aussagen:
- wurde der Cache im Betriebssystem ausgeschaltet?
- Wie groß ist der Cache im SSD-Controller? War dieser aktiv oder nicht?
Das obliegt bei dem Test von xs.org natürlich dem einzelnen Tester, aber die werden kaum den Cache auf der SSD ausgeschaltet haben, denn das ist unsinnig und geht gewaltig auf die Performance, wenn es nicht wie bei den Sandforce schlicht ignoriert wird. Den Cache von Windows sollte man auch nicht ausschalten, es genügt, wenn der wie folgt eingestellt wird:
Schreibcache.png

_TK_ schrieb:
Solange man relativ kleine Dateien nur oberhalb des eigentlichen FLASH-Speichers hin- und herschiebt, sind solche Tests nur bedingt aussagekräftig.
??? Bei xs.org wird ein von dem Anvil entwickeltes Programm dafür verwendet die SSD laufen zu beschreiben, wobei man selbst einstellen kann, wie komprimierbar die Daten sind. Da wurden also keine kleinen Dateien hin- und hergeschoben. Man kann aber wie immer, auch bei den Tests der Haltbarkeit von SSDs eine Menge falsch machen.

_TK_ schrieb:
- Ach ja, Sandforce. Ein sehr ausgeklügeltes System. Man sollte aber immer ein aktuelles Backup parat haben, denn bei einen Defekt des Controllers sind die Daten nicht wiederherstellbar. Keine Chance.
Findest Du? Dem Sandforce kann ich nichts abgewinnen, der hat für meinen Geschmack zu viele Nachteile und die Vorteile gibt es gerade bei dem nur in der Eigenwerbung.

Backups muss man sowieso immer machen, egal wo man die Daten lagert und bei allen SSD sollte man das besonders ernst nehmen, denn die fallen wenn, dann meist ohne jede Vorwarnung aus. Datenrettung ist vor allem bei SED-SSDs praktisch immer unmöglich und da nicht nur der Sandforce ein SED Controller ist, wird das bei anderen SED-SSDs nicht anders sein.
_TK_ schrieb:
- 7 Bänke anstatt 7 Sektoren: Korrekt. Mein Fehler.
Nicht Bänke, Blöcke! NAND ist in Blöcke und Pages unterteilt, die Bezeichnung sollte wir bitte auch beibehalten.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Zurück
Oben