Warum ist die Crucial M4 so beliebt ?

Status
Für weitere Antworten geschlossen.
BeeHaa schrieb:
Der Link nach OCZ Forum ist platt. So komm ich aus dem "null Peilung" Loch nicht raus ;)
"Gedrosselte" und "Performance" Firmwares? Wo kann man denn darüber etwas nachlesen
Bei mir geht er, versuche es noch mal, hier ein paar Ausschnitt aus demm ersten Posting.

Was leider nicht erwähnt wurde, ist die Drosselung der Schreibgeschwindigkeit
Der SF1200 Controller, genauso wie der SF1500, schützt sich aktiv selbst. Wenn innerhalb kurzer Zeit eine Menge auf die SSD geschrieben wird, limitiert der Controller die Schreibgeschwindigkeit um die Lebensdauer der Chips zu erhöhen.
Dabei misst der Controller den aufkommenden Traffic ziemlich genau, das geschieht in Stunden bzw Minuten.

Also, viele Tester Füllen die SSD mit (wie im Review oben) Daten und testen um wieviel diese langsamer wird. Hier ist TRIM nicht in der Lage die Geschwindigkeit Wiederherzustellen... was nicht beachtet wurde ist, das der Controller die Geschwindigkeit gedrosselt hat, weil innerhalb kürzester Zeit eine hohe Menge an Daten geschrieben wurde.

...
Da steht bei Performance and Power Optimization folgendes übersetzt: Die DuraClass Technology ermöglicht die Maximierung der Beständigkeit und gleichzeitig der Schreib-Performance für eine höhere Lebensdauer der SSDs mit Hochgeschwindigkeits- Flash-Chips.

Kurz: Drosselung für eine deutlich erhöhte Lebensdauer.
...
Power/Performance Drosselung

Lasst es mich deutlich machen, z.B.: Ihr kauft euch eine 60GB SSD und installiert Windows 7 darauf. Bei der Installation sind das in etwa 16-20Gb. Dann bencht ihr die SSD mit CDM oder AS-SSD, Programme, die mit unkomprimierbaren Daten Benchen.

Was passiert?

Erstens: All diese Daten gehen erst durch die OP area (= Over provisioned area; bereitgestellter Bereich der zwischenspeichert). Die 60Gb Variante hat etwa 8GB davon. Wenn der Benchmark jetzt mehr als 8Gb schreibt, werden vorher noch Daten-Blöcke darin gelöscht.

Zweitens: Das Laufwerk erkennt einen konstanten, hohen Traffic. Dann limitiert DuraClass die Schreib-Performance um eine Langlebigkeit der Chips zu garantieren. Der Controller macht das für einen bestimmten Zeitraum, es kann sich um Stunden oder Tage handeln. Dies kann man dann auch Recovery-Modus nennen.

Was die User jetzt nur sehen, ist ein Geschwindigkeitsverlust. Jedoch ist diese Funktion notwendig und für euch nur von Vorteil, da somit die Langlebigkeit eurer SSDs damit gesichert ist. Deshalb ist sie unvermeidbar.


Jetzt werfen wir einen Blick auf die OP Area

Die OP Area ist der Bereich, auf dem die Daten die ihr schreibt, zwischengespeichert werden. Wie gesagt, hat die 60Gb Varante etwa 8Gb davon extra (7%). Dieser wird immer wieder automatisch frei gemacht, damit darin immer reichlich Platz ist und man keine Geschwindigkeitseinbußen hat.

Wenn ihr jetzt von zwei DVDs zwei große RAR-Archive auf die SSD kopiert, kann dieser Bereich sehr schnell voll werden. Dann markiert TRIM nicht mehr gebrauchte Blöcke die dann gelöscht werden. Hier setzt dann auch wieder der Recovery-Modus ein, da es eine gewisse Zeit braucht um den Platz wieder verwenden zu können.

Lasst uns jetzt mal vorstellen, wir hätten eine SSD mit 28% OP Area:
Die SSD hätte mehr Speicher zum Zwischenspeichern und 2 DVDs würden diesen nicht Füllen. Jedoch würde das 'wiederaufbereiten' der OP mit 7% deutlich schneller gehen, als mit 28%.
Natürlich kann man hier dann bei kleineren SSDs schneller Geschwindigkeitseinbußen sehen.

Außerdem komprimieren die SF Controller während der Übertragung. Wenn 100% der Daten komprimierbar ist und man 100Gb auf eine 100Gb SSD schreibt, werden eventuell nur 50Gb auf den Chips gespeichert. Das ist der Vorteil, was für eine hohe Lebenserwartung der SSD ausschlaggebend ist.

Was ich nicht beantworten kann ist, wann genau (beim schreiben von unkomprimierbaren Daten) gedrosselt wird. Aber das einfache Füllen und Benchen wie in den meisten Reviews führt zur Drosselung. 3 Durchgänge mit CDM werden eine Drosselung zur Folge haben, vielleicht sogar schon 2 Durchgänge.
Das Argument mit der Lebensdauer der Chips muss man beim Lifetimethrotteling aus Sicht der SSD Herstellers sehen, denn der gibt ja i.d.R. eine Garantie über einen bestimmten Zeitraum, also z.B. 3 oder 5 Jahre und nur selten mit einer Einschränkung bzgl. der geschriebenen Datenmenge. Die Drosselung hat also nicht das Ziel, die möglichen P/E Zyklen zu erhöhen, sondern diese über die Garantiezeit zu bringen. Da gehen die Schreibrate dann bis auf einstellige MBs runter, wenn diese bei wirklich intensiver Nutzung zuschlägt.


Das ist aber wirklich nur bei intensiver Nutzung, die normal auftretenden Zustände sind hier noch mal erklärt:
1 ist der Neustand, bevor alle Flashpages erstmals (ggf. nach Secure Erease) benutzt sind.
2 ist der Normalzustand, je nach Controller / NAND etwas 25% bis 40% geringere seq. Schreibrate, weil hier in Wirklichkeit wohl schon Erease vor dem Write passiert, aber keine gültigen Daten mehr in den Blöcken stehen. Im Idle räumt der Sandforce einen Teild er Kapazität der die Größe des OP Bereichs hat auf, löscht ihn aber nicht.
3 ist das was oben als Recovery Mode bezeichnet wird, jetzt wird beim schreiben auch noch aufgeräumt (also noch gültige Daten werden woandershin kopiert), es wird gelöscht und erst dann geschrieben. Das passiert auch bei anderen SSDs, wenn sie nicht getrimmt werden und mehr Daten geschrieben werden, also in die schon vom Controller aufgeräumten Flashblöcke passen. Das ist bei anandtechs TRIM Tests z.B. schon zu sehen und man sieht auch, wie die Schreibrate in dem masse zunimmt, wir weniger Daten noch gülitg sind und daher kopiert werden müssen.

Bei Anandtechs Test der m4 mit der 009er FW sieht man genau das normale Verhalten einer SSD, wie es sein soll:

m4-0009-torture_575px.png


Die SSD wurde vollgeschrieben und eine Weile in Ruhe gelassen, der Controller hat den Freien Bereich (den Unterschied von etwa 7% zwischen den 256GiB installliertem NAND und den 256GB Nutzkapazität minus dem Platz für Verwaltungsdaten wie Mappingtabellen) aufgeräumt und kann dort schnell schreiben. Danach fällt die Schreibrate massiv ein, denn jetzt werden die Daten die vom Controller noch als gültig anzusehen sind (getrimmt wurde ja nicht, also nur die, deren LBAs noch nicht überschrieben wurden) erst woanders hin kopiert, dann wird gelöscht und danach kann erst geschrieben werden. Je mehr LBAs schon überschrieben wurden, umso weniger muss kopiert werden, umso schneller geht es und umso höher wird die Schreibrate.


So einen Effekt hat man aber in Systemen mit TRIM nur, wenn man wirklich großen Datenmenge direkt überschribt ohne die alten Dateien vorher zu löschen. Dann wird die Schreibrate für soviele GB hoch bleiben, wie die SSD an Platz frei hatte (plus dem freien Platz) und danach muss sie zwangsläufig auch einbrechen, bei jeder SSD.

Beim der Vertex4 sieht man ein ähnlichen Verlauf, aber der Abfall der Schreibrate erfolgt sofort, nicht erst nach einigen GB.

v4-256-aftertorture.jpg


Das ist ein optisch kleiner aber technisch gewaltiger Unterschied! Das zeigt nämlich, dass der Controller hier keine Aufräumarbeit geleistet hat und die Schreibrate sofort einbricht. Ohne TRIM hat man also sofort eine miese Schreibrate und nicht erst nach dem Schreiben einiger GB (bzw praktisch nie, wenn man immer nur wenige GB am Stück schreibt!).

Die Samsung 830 mit der ersten FW hat im Test übrigens ebenfalls einen sofortigen Einbruch der Schreibrate gezeigt und ist dann im Dauerschreibtest auf xtremesystems.org auch glatt bis unter 70MB/s Schreibrate abgefallen:

ssd830-aftertorture-60minssm.jpg


Das ist aber mit der neuen FW besser geworden und die Samsung 830 bei XS halten ihre Performance jetzt konstanter.

Die Plextor M3 ist übriegns auch keine SSD, die ich ohne TRIM verbauren würde:

HDtach%20superdirty_575px.PNG


Übrignes ist es bei Anandtech wie bei xtremesystems (und fast überall sonst auch), die Leute machen zwar interessante Tests, ziehen aber die falschen Schlüsse:
At the lowest, the performance is 35-40MB/s. That's still better than the Crucial m4,
besser im Sinn der minimalen Schreibrate aber keineswegs besser im Sinne des Verhaltens der SSD.

Bei den Sandforce SSDs macht er diesen Test so offenbar nicht mehr, denn die kann man mit den extrem kompimierbaren Daten von IOMeter nicht wirlich füllen und damit nicht foltern und wenn man unkomprimierbare Daten verwendet, dann drosselt der Controller sowieso total und man bekommt keine sinnvollen Ergebnisse. Beim Test der Intel 520 hat er deshalb nur eine Tabelle gebracht und das sind die Werte nach TRIM genauso gering wie unter Folter (klar, die war nicht gefolter und ist auch nach TRIM noch im Zustand 3), was bei allen anderen SSD die ich erwähnt habe, nicht so ist. Die kommen alle wieder auf den Neuzustand. Die Schreibrate der SF-2281 SSDs erholt sich aber auch wieder, nur eben nicht auf den Neuzustand sondern auf den Normalzustand, also 25% weniger als Neuzustand bei sync. NANDs.

BeeHaa schrieb:
Im Gründe hab ich rein garnichts gegen die M4. Auch mit meinem Link (der funktioniert), mit den "genutzten" SSDs und Trim.
Wie schon gesagt, diese genutzte Zustand bei den Tests von CB ist totaler Unsinn, da dort TRIM deaktiert wird und dann schreibt man die SSDs voll. Das genau darf man aber bei SSDs in Systemen ohne TRIM niemals machen vielmehr muss man einen Teil unpartitioniert lassen, damt der Controller mehr freien Platz hat. Die Erklärung steht ja oben und damit verschiebt sich eben gerade der Abfall der Schreibrate weiter nach links, eben genau um die nicht partitionierte Kapazität. Zumindest bei der m4 ist das so und auch deutlich aus den Linien der Foltertests ersehnbar und auch deshalb mag ich die und empfehle ich die so gerne.

BeeHaa schrieb:
Die XLR8 Express mag vielleichter eine Ausnahme-SSD sein, aber auch bei der HyperX sehe ich nicht den totalen Einbruch. Dagegen meint der Tester, daß die für mich weiterhin sehr schnelle M4, mit der Nutzung und Alter doch kleinwenig abgefallen sein soll.
Es gibt bei den SF-2281 keine Ausnahme SSDs, die haben alle den gleichen Controller, die gleiche FW (die Intel eine etwas andere, aber die Performance unterscheidet sich auch nicht großartig). Die ergebnisse unterscheiden sich wegen deren Eigenheiten ehr dadurch, wie der Test durchgeführt wird. Der eine Tester läßt alle Benchmarks direkt hintereiander durchlaufen, die SSD drosselt wegen der Schreibbelastung und der andere macht jeden Tag nur einen Benchmark und hat bessere Ergebnisse.

Die Cruical m4 bricht mit TRIM nicht ein, was man auch im Dauerschreibtest auf xtremesystems.org sieht. Als die ersten Crucial m4 64GB schon 91TiB geschrieben hatte, kam eine neue SW Version mit Geschwindigkeitsanzeige: Avg speed reported from anvils app is 88.37 MiB/s , nach 693TiB Avg speed 88.75 MiB/s

Die zweite m4 ist immer so im die 81MB/s gewesen und nach so 500TiB plötzlich abgefallen und hat seidher so 72MB/s. Nur sind gleichzeitig alle SSDs des Tester in der Performance abgefallen, es dürfte also ehr eine Änderung am Testrechner die Ursache gewesen sein, nur wurde darüber leider nicht berichtet.

Die force3 hat übrigens mit den zum etwa 50% komprimierbaren Daten so um 106MB/s gelegen, zumindest gegen Testende. Für eine 120GB SSD ist das auch nicht wirklich viel und wenn man sich die gesamte geschaffte Datenmenge der Sandforce SSDs beim Dauerschreibtest auf xtremesystems.org ansieht, dann haben die nicht wirklich gut abgeschnitten:

Endurance_failed_drives_20120128.png


Die Force 3 120GB hat zwar doppelt so viele TiB geschrieben wie die Muskin mit nur 60GB, aber das war wegen der doppelten Kapazität ja auch nicht anders zu erwarten, kommt so doch die gleiche Datenmenge pro GB und damit die gleiche Zyklenzahl für die NANDs zusammen. Teilst man also die geschrieben Daten durch die Kapazität der SSD, so ergibt sich das wirkliche Bild und da sind die SF SSDs dann nur Mittelmaß, obwohl die mit Daten beschrieben wurde, die um die Hälfte komprimierbar waren und der SF hat sie auf 70% bekommen, also 2/3 dessen ins NAND geschrieben was die anderen geschrieben haben.

Die alten Force40 sieht gegen die Kingston 40GB (eigentlich eine Intel X25-V) und die Intel 320 40GB sogar ganz alt aus, obwohl die die Drosselung der Sandforce doch angeblich dazu dient, dass die so viel länger halten sollen.

attachment.php

BeeHaa schrieb:
Es geht mir also nicht um die Güte der SSDs, aber die Andeutungen und Aussagen, daß die 2281 so stark absacken, daß sie dann nicht mehr konkurrenzfähig sind oder daß die M4 die "neuwertige" Geschwindigkeit behält, sind dabei nicht nachvollziehbar.
Es gibt auch einen Thread zum Sandforce Life Time Throttling auf xtremesystems.org und die das dir m4 ihre Neuperformance unter TRIM behält, bezweifelt keiner der eine hat.

BeeHaa schrieb:
Schöne Heavy und Light Workloads bei Anand zum Vertex4 launch.
Die Benchmarks von anandtech kenne ich nicht, aber die Octane hat dort so positiv abgeschnitten wie in keinen anderen Review, Test oder Benchmark. Daher weiß ich nicht, was und wie er testet denn er gibt ja nur die Verteilung der Zugriffsmuster an. Wichtig ist aber vor allem, ob er auch nur auf LBAs liest, die er vorher beschrieben hat, denn sonst sind denen keine Flashadressen zugeordnet und damit brauchen unnd können auch keine Daten aus dem Flash gelesen werden. Das ergibt total flasche Ergebnisse und ist bei Benchmarks leider sehr verbreitet, denn bei HDDs funktioniert das ja.

So recht es mir mir hier, jeder kann sich ja die SSD kaufen, die er haben möchte. Warum ich die m4 empfehle, habe ich ausführlich dargelegt und es hat sich auch noch keiner bei mir beschwert, der meiner Empfehlung gefolgt ist, im Gegenteil. Leistungsmäßig spürt man selbst auf schnellen Rechnern bei keiner normalen Anwendung wirklich einen Unterschied zwischen den Top SSD, da fallen nur die Billigteile negativ auf.
Ergänzung ()

miac schrieb:
Nöö, wenn Du hier im Forum mitliest, wirst Du bemerkt haben, das viele Leute PRobleme mit SSD's haben, und das insbesondere mit Crucidal und OCZ und das mittlerweile viele SSD's eingetauscht wurden oder etliche Firmwareupdates durchgeführt werden mußten.
OCZ und Crucial da in einen Top zu werfen ist absolut praxisfremd. Für die Crucial m4 gibt es ganze 4 FW Versionen, die 0001 kurz zu Anfang, die 0002, die 0009 die einen gewaltigen Performanceschub für alle User kostenlos gebracht hat und die 0309, die den Bug mit den Betriebsstunden behebt. Da werden sicher noich einige Probllee hochkommen, weil User nicht auf die 0309 upgedatet haben und die kritischen Betreibsstunden erreichen, aber dann kann man immer noch update und gut ist.

Die letzt Fehler die hier als Probleme mit der m4 berichtet wurden, waren einmal aufgrund von defekten RAM und einmal aufgrund einer defekten SATA Kabels. Beides also nicht schud der SSD und jede andere SSD oder HDD hätte genauso betroffen sein können.

Komplettausfälle sind aber hier nur von den OCZ und da vor allem von den Vertex2 oft berichtet. Erst sind die Leute total begeistert und schreiben, "meune läuft jetzt seid Montaten tadellos, kann ich nru empfehlen" und dann kommt plötzlich mal ein Post "heute morgen keine Bootmedium, Vertex2 wird auch in einem anderen Rechner nicht mehre erkannt". Das ist eben so, es kann jeden treffen, jeden Tag.

BeeHaa schrieb:
Bei der XLR8 Express - also sch.. was auf die SSD, aber 2281 nunmal - weiß ich schonmal, daß Luxx sie in den Servern fährt und damit ausgesprochen zufrieden ist ;)

Serverbetrieb bei Luxx. Damit wäre der Chip selbst genug geprüft.
Ja ne, ist klar. :freak:

Aber erstaunlicherweise sind die Sandforce in Servern wirklich weniger gefährdet als in normalen Desktoprechner oder gar Notebooks. Deren Problem ist der Wechsel von Powerstates und das Ein- und Ausschalten und da Server gewöhnlich 7/24 laufen, kommen die damit besser klar.

Ansonsten hier aber auch noch mal eine Meinnung von jemandem, der auch ein paar mehr SSDs hat und mit der Vertex2 sogar ganz zufrieden war:
 
Zuletzt bearbeitet:
Was soll das denn? SF1200 und 1500? Und mit "genutzt" war auf Anand und Luxx gemeint und nicht CB.

es dürfte also ehr eine Änderung am Testrechner die Ursache gewesen sein, nur wurde darüber leider nicht berichtet.
Aber erstaunlicherweise sind die Sandforce in Servern wirklich weniger gefährdet als in normalen Desktoprechner oder gar Notebooks. Deren Problem ist der Wechsel von Powerstates und das Ein- und Ausschalten und da Server gewöhnlich 7/24 laufen, kommen die damit besser klar.
Alter... Was sind das denn für märchenhaften Annahmen? Man kann doch nicht dauernd einfach mal so irgendwas als Behauptung in nen Thread pressen. Ist das schwach.
 
BeeHaa schrieb:
Was soll das denn? SF1200 und 1500?
Das ist bei der zweiten SF Generation aber nicht anders, deshalb dafür auch nicht mehr extra beschrieben. Das musst Du aber nicht glauben und darfst es auch für ein Märchen halten. Ich haben keine Lust dafür auch noch Belege herauszusuchen.

BeeHaa schrieb:
Und mit "genutzt" war auf Anand und Luxx gemeint und nicht CB.
Und wie machen die den "genutzt" Zustand?



BeeHaa schrieb:
Alter... Was sind das denn für märchenhaften Annahmen?
Alter ist keine passende Anrede. Glaub was Du willst. Du hast eine sehr komische Einstellung, was Du nicht glauben willst ist ein Märchen, nur lernst Du so nichts dazu.

BeeHaa schrieb:
Man kann doch nicht dauernd einfach mal so irgendwas als Behauptung in nen Thread pressen. Ist das schwach.
Damit jeder sieth, dass es nicht einfach irgendwelche Behauptungen sind, hier zum letzten mal hier ein Zitat als Antwort auf Deine Aussagen, auch wenn ich das schon oft hier im Forum gepostet habe:
 
miac schrieb:
Nöö, wenn Du hier im Forum mitliest, wirst Du bemerkt haben, das viele Leute PRobleme mit SSD's haben, und das insbesondere mit Crucidal und OCZ und das mittlerweile viele SSD's eingetauscht wurden oder etliche Firmwareupdates durchgeführt werden mußten.

Ich lese hier eigentlich sehr viel, ausserdem habe ich sebst zwei Crucial SSDs und verfolge deshalb jede News zu Crucial besonders aufmerksam.
Bisher habe ich bei der C300 einmal ein Firmwareupdate gemacht, bei der m4 zwei Mal. Wirklich nötig war aber nur das eine bei der m4 (auf Version 0309) das einen echten Bug beseitigt.
Die anderen Updates waren für mich im Prinzip nicht notwendig, aber ich mache normalerweise bei allen Geräten immer die aktuellsten FW Updates, deshalb auch bei meinen SSDs.

Dass z.B. Vertex II reihenweise ausfallen, habe ich hier mitbekommen (ich bin gespannt, denn ich habe auch noch eine davon...) aber zu Crucial ist mir nichts aufgefallen. Ausser wie gesagt mal ein vereinzelter Bericht hier oder dort, dass eine Crucial defekt ist, oder Probleme macht - im ganz normalen Rahmen für ein Hardware-Forum.

Oft gibt es ja auch Threads, die den Titel "m4 kaputt" (oder andere Marke, ganz egal) tragen, aber am Schluss stellt sich raus, dass z.B. ein RAM Riegel kaputt war. Also auch nicht jeder Thread-Titel ist verlässlich, da muss man schon den ganzen Thread durchlesen.

Das gilt natürlich im Prinzip für Vertex II's genau so - aber bei diesen hat sich doch eine regelmäßige Häufigkeit des Ablebens der Laufwerke eingestellt.
 
@Holt
Jungen :) das ist nicht grad die richtige Einstellung, einfach alles SO zu glauben was du behauptest. Du haust die Klamotten aus deiner PR-Mappe nur so raus.
Gefühltes 1/4 ist auch einleuchtend. Gefühlte 3/4 davon sind "glaub was du willst". Und wenn man dir nicht glaubt, ist man nicht informiert. Nochmal: Was ist das denn bitte?
 
Zuletzt bearbeitet:
BeeHaa schrieb:
Du haust die Klamotten aus deiner PR-Mappe nur so raus.
Ich habe keine PR-Mappe, ich mache das hier als Hobby und arbeite auch für keine SSD oder SSD-Controllerhersteller oder bekommen irgendein Honorar von denen. Brauche ich auch nicht, ich kann es mir leisten meine SSDs selbst zu kaufen.

BeeHaa schrieb:
Gefühltes 1/4 ist auch einleuchtend. Gefühlte 3/4 davon sind "glaub was du willst".
Ich verlinkte hier haufenweise die Quellen und erleutere meine Schlussfolgerungen bzw. erkläre was die Werte bedeuten, was willst Du denn noch? Lies Dich doch mal in die Materie ein, dann verstehst Du mehr als nur 1/4.
BeeHaa schrieb:
Und wenn man dir nicht glaubt, ist man nicht informiert. Nochmal: Was ist das denn bitte?
Was ist das denn bitte, wenn man sich nicht informieren möchte und dann eben einfach nicht glaubt, was man vorher noch nie gehört oder gelesen hat? Wenn Du so auch durch die Schule gegangen bist, hast Du da sicher einen Berg Probleme gehabt.

Das man nicht alles auf Anhieb versteht ist schon klar, da muss man sich schon tief einarbeiten und die Zusammenhänge selbt begreifen, denn es wird viel Unsinn geschrieben. Entweder weil es aus der PR-Mappe eines Herstellers kommt oder weil die Leute schlicht keine Ahnung haben und das komplexe Thema SSD einfach nicht verstehen.

Als Einstieg zum Verständnis sollte man sich den entscheidensten Unterschied zwischen HDDs und SSDs verstehen. Die HDDs rechnen die logischen Adressen (LBAs) einfach auf Kopf, Zylinfer und Sektor um und fahren diesen an (Ausnahme: defekte Sektoren die durch Reservesektoren ersetzt wurden). Bevor die Adressierung über LBAs eingeführt wurden, wurden die Sektoren vom Rechner sogar genauso adressiert. Die einzelnen Sektoren kann man beliebt oft lesen oder schreiben, egal ob da schon was stand oder nicht.

Bei SSDs sind ide Flash NANDs in Pages und Blöcke unterteilt. Pages sind heute üblicherwiese 4k oder 8k groß, Blöcke 512k, 1M oder auch 1.5MB. Pages sind die kleinste adressierbare Einheit die gelesen bzw. geschrieben wird, Blöcke die kleinste löschbare Einheit. Wenn eine Page beschrieben werden soll, dann muß vorher der ganze Block gelöscht werden, also 256 oder 512 Pages! Wird alos eine Datei überschrieben, so muss der neue Inhalt an einer anderen Adresse im Flash geschrieben werden. Obendrein weiß der Controller nun, dass der Inhalt an der Flashadressse wo die alten Daten standen, jetzt ungültig ist, denn das Filesystem überschreibt die Dateien gewöhnlich an die gleiche LBA.

Gleichzeitig muss der Controller eine Tabelle führen, welche Daten (für welchen LBA) an welcher Flashadresse steht, die Mappingtabelle. Mit jedem Überschreiben von Daten steht für die LBA eine andere Flashadresse in der Mappingtabelle und die wird auch üblicherweise im Cache RAM gehalten (weshalb die meißten SSDs mit steigender Kapaziität auch größere Caches haben, denn weil da mehr LBAs zu Verfügung stehen, wird die Tabelle auch größer), muss aber gleichzeitig auch ständig aktuell im Flash stehen, falls der Strom ausfällt. Die Panik LED des SF leuchtet offenbar immer dann, wenn das mal nicht der Fall war und dann sind eben gleich alle Daten verloren und die SSD ist unbrauchbar (Panikmode).

Irgendwann geht dem Controller natürlich der Platz aus und er muss Blöcke löschen, sonst könnte man ja nur einmal die Kapazitä beschrieben und es wäre Schluss. Dies nennt man Garbage Collection (GC) und ist zwangsläufig bei jeder SSD und sogar bei jedem USB Stick und jeder SD Karte vorhanden, auch wenn man was anderes schreiben. Diese Leute verwechseln die Idle-GC mit der normalen Garbage Collection, aber dazu später.

Die P/E Zyklen der NANDs sind limitiert und sollten möglichst gleichmäßig aufgebraucht werden, obwohl einige Adressen (z.B. von Log Dateien) viel öfter beschrieben als andere. Wie gleichmäßig die Zyklen der einzelnen NAND Blöcke verbraucht werden, bezwichnet man als Wear-Leveling. Das ist keine besondere Fuktion, auch wenn manche Marketingabteilungen das so darstellen, sondern das Ergebnis des Algorithmus, der entscheidet welche Blöcke gelöscht werden. Der muss aber auch darauf achten, die Write Amplification (WA) gering zu halten. Die WA ist das Verhältnis zwischen den Daten die intern ins NAND geschrieben werden und denen, die der Host (Computer) auf die Platte schreibt.

Wenn ein Block (also z.B. 256 oder 512 Pages) gelöscht wird, dann können in einigen der Pages noch gültige Daten stehen, die müssen natürlich vorher an eine andere Adresse kopiert werden und erzeugen dadurch die WA. Gültig sind Daten für einen SSD Controller immer dann, wenn der Computer an eine bestimmte Adresse (LBA) geschrieben wurde. Ungültig werden sie, wenn diese LBA überschrieben oder getrimmt wird. TRIM ist nur ein SATA Befehl der den Controller mitteilt, welche LBAs jetzt keine gültigen Daten mehr enthalten und spielt der GC zu bzw. löst ggf die Idle-GC aus, aber es ist kein eigener Algorithmus der FW wie manche es darstellen.

Der Algorithmus der GC muß also den Zielkonflikt zwischen einer geringen WA und einer gleichmäßigen Abnutzung der P/E Zyklen, also einem guten Wear Leveling lösen. Wann die GC auslöst, hängt vom jeweiligen Controler bzw. dessen FW ab, spätestens aber, wenn die gelöschten Blöcke fast aufgebraucht sind. Einige Controller machen auch eine GC, wenn sie Idle sind um schaffen so schon einmal freie Blöcke für den nächsten Schreibvorgang, das ist dann die Idle-GC. Ist diese Idle-GC sehr agressiv, so werden dabei sehr viele noch gültige Daten umkopiert und die WA ist sehr hoch, ist dsie sehr milde oder schlägt die GC gleich zu Beginn der Schreibvorgänge an, so bricht die Schreibraten (zumindest wenn sie SSD nicht getrimmt wird) sehr schnell stark ein. Dann nutzt es für die Performance auch nichts, einen Teil der Kapazität unpartitioniert zu lassen.

Der Sandforce ist in mancher Hinsicht anders. Einmal kmprimiert er die Daten weshalb die Performance von der Komprimierbarkeit der Daten abhängt, was sonst keine HDD oder SSD macht. Da ältere Programme sowas nicht vorgesehen haben und prüfen die Performance in bestimmten Situationen nur aufgrund der typischen Zugriffsmuster, also Random, seq. und über bestimmte Längen aber eben nur mit einfachen Nullen als Testdaten, die extrem komprimierbar sind. Dazu führen einige noch Lesezugriffe auf LBAs aus, an denen keine Daten stehen und auf die also bei einer SSD keine Daten gemappt sind. Eine HDDs weiß das nicht, die positioniert die Köpfe einfach auf die richtige Position und liest, egal was da steht.

HD Tune und HD Tach sind solche Tools, die einfach nur lesen und es kommt dann genau so ein Müll heraus wie bei diesem Test einer Intel X-25V bei awardfabrik.de:

hd_tach_8mb.png


bzw.

hd_tune_bench_read.png


Die getestete SSD kann gar keine 200MB/s oder gar mehr lesen, die Kurven zeigen nur da die reale Geschwindigkeit halbwegs richtig an, wo der Speicher auch wirklich belegt ist. So schnell kann die lesen, wenn man auch wirklich Daten zum Lesen hineingeschrieben hat:

crystal_disk.png


Man muss also bei allen Benchmarks in Reviews sehr gut aufpassen, nicht immer sagen die Ergebnisse das gleiche aus, was der

Dann kommmt noch was beimm Sandforce hinzu, die IOPS hängen vom Adressbereich ab, über den gemessen wird. Man sieht das z.B. in den Fußnoten im Datenblatt der Agility3 bei den IOPS über 8GB und über 85% der Kapazität. Da der Sandforce ja kein externes RAM für Cache unterstützt und obendrein für die Datenkompression auch noch mehr von dem internen RAM braucht als andere, dürfte bei ihm die Mappingtabelle nicht immmer vollständig im RAM stehen (Vorsicht, das ist jetzt meine eigenen Überlegung). Das könnte auch erklären, warum die SF-2281 mit mehr als 240GB weniger Performance als eine mit 240GB bietet. Immerhin sagen Anandtechs Überlegungen zur 3. Generation des Sandforce Controller auch einiges darüber aus, wo bei der aktuelllen Generation der Schuh klemmt:

Die geringe Rechenleistung des Controllers deckt sich auch mit Hinweisen, die ich schon mal in einem anderen Forum gefunden habe, die ich jetzt aber nicht mehr finde, wonach die Einbrüche der Schreibleistung schlicht aufgrund fehlernder Prozessorleistung entstehen und der Controller eben nur deswegen erst im Idle die Datenstrukten wieder aufräumt (über einen Bereich der der OP Area entspricht). Wegen der Datenkompression ist ja die Datenverwaltung bei dem Sandforce auch noch viel aufwendiger als bei anderen Controllern, denn der SF muss ja auch noch die Länge der Daten nach der Kompression berücksichtigen. Die Ermittlung welche Pages eines Blocks wirklich noch gültige Daten enthalten, dürfte damit auch beim SF deutlich aufwendiger sein.

Das der Sandforce so viel im Idle nacharbeitet, erklärt auch gut die Probleme mit dem Wechsel der Powerstates.
 
Da meint aber Anand im gleichen Artikel, mit 3rd SF wäre das Zeug so schnell, daß statt SATA3 langsam PCIe Disks Sinn machen würden (lach)
Sonst, schöner Hobbytext... :freaky:

Was mir da noch im Allgemeinen fehlt, da das nur eine SF-Dresche ist, sind die Kabel. Die SF-22xx und auch Samsungs 830 fahren SATA3 schon so aus, daß man am 6G reale Probleme mit crappigen SATA-Kabeln, Einschubsystemen oder Verlängerungen (!) bekommen kann. Diese Probleme sind relativ real. In gleichem Atemzug wird dabei von dem runden 6G Kabel von DeLoc gewarnt...
Das gleiche gilt für AMD-Boards VOR 870/890.

Da du um Vermutungen und Annahmen nie verlegen bist, vermute ich genau solches Problem bei dem BSOD von Anand.
 
Zuletzt bearbeitet:
Du schmeisst hier einfach Behauptungen in den Raum, die Kabel machen Probleme, vor diesem und jenem wird gewarnt.... das ist dann sicher Schuld..schöner Hobbytext. Anandtech hat sicher ein Kabelproblem, denn Du weißt es besser als Anand.

Eine Diskussion ist für mich was anderes, also lassen wir es.
 
Danke für die zahlreichen Meinungen. Also halte ich mal kurz fest. Wenn die Samsung 830 in 1-2 Monaten ebenfalls ohne nennenswerte Ausfallraten zu beklagen ist und die User diese Empfehlen ist wahrscheinlich diese SSD vorzuziehen ?

Die Schreibrate bei der Samsung ist ja fast doppelt so hoch, im Vergleich zur M4.

Grüße
Pitman
 
Falls man sich nicht auf SF einlassen möchte - bei welchem ich eh nur die XLR8 Express für würdig halte - scheint mir die 830 in der Tat der einzige competitor für die M4 zu sein. Und da im Gegensatz zum Lesen, Schreiben eigentlich zu allermeist sequentiell abläuft, garkein schlechter :)
 
Die meißten Zugriffe auf Systemlaufwerke sind nicht sequentiell sondern random und wenn man schon den SF-2281 haben will, dann besser die Intel 520, deren FW exclusiv ist und offenbar weniger Probleme macht als die Standard-FW die alle anderen SF-2281 verwenden.
 
Wenn ich heute eine SSD kaufen würde, würde ich die M4 nehmen.
Diese ist schon etwas "älter" und hat somit die Kinderkrankheiten hinter sich. Beim einbauen nur noch kurz sicherstellen, dass die aktuelle Firmware drauf ist und das wars.
Gerade wenn die SSD als Systemplatte herhalten soll, möchte ich da etwas haben, was "stable" ist.
Und bei den Übertragungsraten, welche heutige SSDs haben, interessieren mich sequentielle Werte nicht mehr.
Random IO ist mir viel wichtiger. Und da ist die M4 nach wie vor top.
Und abgesehen vom technischen Aspekt ist sie auch noch (relativ) günstig.
 
Dagegen gibts ja auch nichts zu sagen. Der deal zwischen Crucial und Micron erscheint auch mir einmalig... ;)

Die 830 ist noch bisschen zu neu um jetzt schon ihre Kinderkrankheiten zu offenbaren. Falls sie denn welche hat. Will man aber keine SSD schon diese Woche kaufen, ist sie auf jeden Fall einer weiteren Beobachtung wert und auf dem Weg eine mehr als nur gleichwertige Alternative zur M4 zu werden.
 
Zuletzt bearbeitet:
Satsujin, eben, Crucial ist eine Marke von Micron aber BeeHaa hat keine Ahnung, informiert sich nicht und schreibt daher eben nur Müll. Er belegt ihn deshalb auch nicht, aber erwartet auch noch Belege wenn man ihm das dann antwortet. Da mache ich aber nicht mehr mit.
 
Ihr habt den Gag ja voll verstanden :D Hauptsache Holt dürfte seinen "hat keine Ahnung" Textbaustein einfügen :)

Was mich jetzt wieder zu dem "Gag" zurückkommen läßt, da er doch wie geplant aufgegriffen wurde. Die wirklich außergewöhnlich guten SSDs scheinen mir weitgehend von den Flashproduzenten selbst zu kommen. Intel, Samsung nun voll mit im Boot, Micron. Irgendwie...
Wäre klar, wenn die für die eigenen Brocken immer schön den 1/3 aus der Mitte des Waffers in den SSDs ausfahren, dann haben alle anderen das Nachsehen.

Ichw eiß nur nicht, bo das dem SSD-MArkt so gut tut. Solange sie die PReise drücken, ok, aber wenn sich der Rest immer schlechter verkauft... Nochmal, hmm...
 
Zuletzt bearbeitet:
Wieder ein Beweis, dass Du keine Ahnung hast. Intel ist nur Juniorpartner beim Joint-Venture IMFT mit Micron und hat gerade erst wieder seinen Anteil reduziert. Das sind die NAND Hersteller:

nand_market_2011q2-png.269560


Aber immerhin hast Du endlich gemerkt, dass die guten SSDs von denen kommen.
 
BeeHaa schrieb:
Ihr habt den Gag ja voll verstanden :D

th_093.gif



Holt: Die Klimastörung ist mir bekannt. In diesem Unterforum habe ich vermutlich noch nie so oft den Kopf geschüttelt, wie in den letzten Tagen.

Mal schauen ob jetzt auch ein Satz beginnend mit "Jungen..." für mich kommt.
f529a952.gif
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben