Ihr tut ja gerade so, was würden HDD ewig halten, aber auch die unterliegen einem Verschleiß. Da ist es nicht das Medium, sondern die Mechanik, vor allem die zur Bewegung der Köpf, aber auch der Antrieb und der Verschleiß passiert bei Lese- wie bei Schreibzugriffen. Auch bei HDDs gibt es Qualitäts- und Preisunterschiede, denn Consumer-HDDs halten weniger lange durch als die teureren Enterprise HDDs. Trotzdem reichen die Consumerplatten für die meisnten Heimanwender lange genug und kaum jemand vermisst die deutlich bessere Haltbarkeit der Enterpriselaufwerke.
So ist auch TLC nicht für intensiv genutzte Enterprise- sondern für Consumer SSD gedacht, eben um diese günstiger zu machen.
andr_gin schrieb:
1.) Also ich sehe das mit der Lebensdauer schon sehr kritisch. ... Das Problem ist, dass besonders im Firmenumfeld eine Katastrophe ist
Dafür sind die aber auch nicht gedacht, bzw. gibt es nur ein Modell für den Enterprise Einsatz von Samsung, welches mit TLC ausgerüstet ist, aber das ist eben nicht für schreibintensive Anwendungen gedacht.
andr_gin schrieb:
Besonders als Systemplatte gibt es sehr viele Schreibzugriffe auf die selben Datenbereiche und wenn die Platte schon ziemlich voll ist, dann kann die Firmware auch nicht mehr viel verteilen, weil selten so viel Reservebereiche vorhanden sind.
Auf welche logischen Adressen der SSD die Schreibzugriffe stattfinden, ist bei einer guten SSD wie der 840er total egal, deren Wear-Leveling arbeitet so gut, dass die Zellen trotzdem nicht zu ungleichmäßig abgenutzt werden.
andr_gin schrieb:
Man darf hier ja nicht die geschriebenen Daten zählen. Alleine bei einem Lesezugriff auf einen Ordner/Datei wird meistens schon von Windows der Dateizugriffstempel aktualisiert.
Das kann man deaktivieren, es ist sowieso sinnlos, denn einmal war es für die Defragmentierungsprogramme gedacht und dann machen die Virenfinder das ganze auch noch zunichte. Daher ist es bei Win7 und Win8 auch per default deaktiviert.
andr_gin schrieb:
Das bedeutet dann, dass ein ganzer Block (und die Größe liegt hier um die 512KB) gelöscht und neu beschrieben werden muss. Da hat man 1GB beisammen, so schnell kann man gar nicht schauen.
Das glaubst nur Du und zum Glück schreibst Du keine FW für SSDs
Es wäre nicht nur für die Write Amplification eine Katastrophe, wenn es so gemacht werden würde wie Du schreibt und dann auch für die Performance. NANDs haben i.d.R. 256 bzw 512 Pages pro Block und man müssten dann alle Pages kopieren, in denen noch gültige (aus Sicht des Controllers, also solche deren LBAs noch nicht überschrieben oder getrimmt wurden) Daten stehen jeweils lesen, deren Daten im Cache speichern, den Block löschen und dann alles wieder zurückschreiben. Man kann wenn, dann allenfalls heute noch bei billigen USB Sticks unterstellen, dass da wirklich so ein Unsinn betrieben wird und es könnte auch bei den allerersten SSD Controllern durchaus der Fall gewesen sein.
Aktuellle SSDs schreiben Daten immer auf andere Flash Adressen, mappen den LBA auf diese um und markieren die alten Daten als ungültig. Wenn dann mal wieder ein Block gelöscht werden soll, wird eben einer ausgewählt der entweder bisher noch relativ wenig P/E Zyklen hinter sich hat oder eben viele solche Pages mit ungültigen Daten enthält.
andr_gin schrieb:
2.) Eine SSD als Datengrab mit weniger Schreibzugriffen ist bei weitem noch nicht rentabel.
Es kommt doch nicht auf die Häufigkeit der Schreibzugriffe an, sondern auf die der gesamten Zugriffe, ob es sich lohnt. Gerade wenn die Lesezugriffe sehr häufig sind und schnell gehen sollen, aber nicht so viele Schreibzugriffe erfolgen, dann sollte man eine SSD einsetzen und damit es sich wirtschaftlich nicht so weh tut, ist TLC genau die Lösung dafür.
andr_gin schrieb:
Die Preise liegen immer noch über dem 10fachen pro GB gegenüber Festplatten, die zwar langsamer bei random reads sind, aber sich unendlich oft beschreiben lassen.
Eben ging es noch um Daten, die nicht oft geschrieben werden und nun ist es plötzlich wichtig, dass die sich bei einer HDD unendlich oft überschrieben lassen, was ja auch nicht stimmt, denn die Mechanik macht auch igrendwann schlapp, s.o.!
andr_gin schrieb:
Für die typische Filmsammlung dürfte das jedoch ziemlich egal sein.
Da kommt es ja auch nicht auf Performance an und zumindest so lange nicht zu viele User auf einmal auf die gleiche Platte zugreifen, schafft das auch jede HDD.
andr_gin schrieb:
mit mehr Bits pro Zelle auch nicht viel herausholen kann (ein viertes erhöht die Kapazität auch nur mehr um 30%),
Dafür braucht man aber eine noch aufwendigere Logik zur Unterscheidung der 16 Ladungszustände, weshalb sich das zumindest derzeit noch nicht lohnt ein weiteres Bit in einer Zelle zu speichern.
andr_gin schrieb:
während die Festplatten wahrscheinlich auch noch etwas geshrinkt werden können, schätze ich, dass wir in 10-20 Jahren immer noch in der Situation sein werden, dass Festplatten noch mindestens um den Faktor 3-5 billiger sein werden.
Das Problem bei den HDDs ist aber die Performance. Wenn die Datendichte um den Faktor 4 steigt, erhöht sich die seq. Transferrate nur um den Faktor 2, weil eben die doppelt so viele Sektoren auf einen Zylinder passen und doppelt so viele Zylinder auf den Plattern, die aber die Performance nicht steigern, sondern im Gegenteil die Zugriffszeiten eher noch erhöhen, weil es eben aufwendiger wird, die Köpfe auf die immer schmaleren Zylinder zu positionieren.
andr_gin schrieb:
3.) In einem Serverumfeld sind im Normalfall gar keine SSDs verbaut, sondern normale Festplatten.
In euren Servern vielleicht nicht, aber Firmen wie FusionIO machen seid Jahren schon mehr als 100 Millionen USD Umsatz mit genau solche SSDs und aus der Serverwelt sind SSDs überhaupt erst in die Heimrechner gekommen. In dem Segment gibt es Firmen die SSD anbieten von denen Du offensichtlich noch nie gehört hast.
andr_gin schrieb:
Bei einem typischen Datenbanksystemen liegen die Daten sowieso größtenteils im RAM als Cache und auch die Zuverlässigkeit von SSDs ist nicht wirklich gegeben. Abgesehen davon gibt es afaik auch noch gar keine RAID Controller, die mit einer SSD auch vernünftig umgehen können und Sache wie TRIM unterstützen.
Bei bei Datenbanken oder anderen typischen Serveranwendungen? Falls Du keine DB kennst, da wird nichts gelöscht sondern die Datenfiles werden dauernd nur überschrieben und nur beim Löschen von Dateien wird TRIM überhaupt aktiv, aber das Du keine Ahnung von SSDs hast, hast Du ja schon reichlich in diesem Posting bewiesen.
andr_gin schrieb:
4.) Die Preise der 830 waren deshalb so niedrig, weil die 840er einfach schon da war und man die Lager von den alten Modellen befreien wollte. Würden die jetzt noch produziert werden, dann würden die deutlich mehr kosten.
Das stimmt mal, denn alleine die Fertigung der NANDs in 27nm ist natürlich teurer als die in 21nm.
andr_gin schrieb:
5.) Das Problem ist, dass die meisten SSD Hersteller einfach nur Schrott produzieren (siehe OCZ)
Deshalb empfehle ich ja auch nur SSDs von Herstellern mit eigener NAND Fertigung, denn da hat man einmal die Sicherheit, dass die NANDs aus eigenem Hause sind und die haben sich bisher auch als seriös genug erwiesen ihre SSD Modelle beim Wechsel auf NANDs mit anderen Fertigungsstrukturen umzubenennen. Nur die können ja auch gewährleisten, dass sie genug NANDs einer Art haben, solange sie die entsprechende SSD produzieren. Corsair hat seine Neutron GTX von 24nm auf 19nm Toshiba Toggle NAND umgestellt, aber findet man einen Review von dem neuen Modell?
andr_gin schrieb:
und auch die seriösen Hersteller wie Intel manchmal ganz schön daneben greifen mit ihrer Firmware. Hier sind auch oft grundsätzliche Konzeptprobleme vorhanden, wenn bei einem Stromausfall die Sicherheit der Daten nicht garantiert ist.
Das muss aber auch ordentlich implementiert sein und wenn Du schon Intel erwähnst, dann war das bei der 320er Reihe eben offenbar nicht der Fall. Hoffen wir mal, das Crucial es bei der M500 besser gemacht hat.
andr_gin schrieb:
Weiters setzt sich auch immer mehr der Trend zum Wegwerfprodukt ein. Das fängt bei langsamer werdenden SSDs an
Das SSD langsamer werden, wenn sie voller werden ist technisch kaum vermeiden und wenn, dann auf Kosten der Haltbarkeit. Ansonsten werden gute SSDs aber kaum langsamer, wenn sie eben nicht auch voller werden, aus Sicht des Controllers, also mit TRIM oder durch Overprovisioning.
fuyuhasugu schrieb:
Und das alte Billigmodell von Intel, die X25-V, in seiner Kleinstversion von 40GB, d.h. mit nur einem Drittel der Zellen überhaupt, hat mittlerweile das 3-fache weggeschrieben und läuft imer noch fehlerfrei.
Das ist ja auch keine Billig-SSD im eigentlichen Sinne, die hat einfach nur weniger NANDs und war dadurch günstiger und eben auch langsamer, weil eben nur die Hälfte der Kanäle des Controller bestückt sind. Vom Controller und der Qualität der NANDs her entspricht die aber voll den Postville Modell
fuyuhasugu schrieb:
Samsung mit dem Teuerschrott von OCZ zu vergleichen, um auf deren "Qualität" hinzuweisen, mag im Forum von Computerbild funktionieren, hier aber nicht. Selbst Crucials 64GB-kleine m4 hat fast die 5-fache Schreibleistung überstanden.
Toll, was nutzt das? Die Dinger sind inzwischen für fast jede sinnvolle Anwendung zu klein, was dann zu solchen Threads führt
Sinnvoller Einsatzzweck für 2x 40GB Intel X25-V SSD's ?
Heute sind 40GB oder auch schon 64GB einfach zu wenig, morgen geht es mit 120GB nicht anders und in ein paar Jahren wird man sich fragen müssen, wie man eine 256GB SSD noch sinnvoll nutzen kann. So lange brauchen SSD also nicht zu halten und man wird sie doch ausrangieren, lange bevor auch nur die 1000 P/E Zyklen der TLC NANDs der 840er verbraucht sind. Wer wirklich mehr schreibt, kauft sowieso keine TLC NAND SSD.
fuyuhasugu schrieb:
Die alten "Extrem"-Laufwerke von Intel liegen mit dem eigentlich nicht vergleichbaren SLC noch einmal wenigstens um den Faktor 10 höher.
Das glaube ich nicht, die X25-E oder hat schon sehr früh immer mehr ausrangierte Blöcke gezeigt und leider gibt es schon länger keinen Statusbericht mehr von der, aber diesen oft genannten Faktor 10 für SLC halte ich persönlich für ein Märchen der Werbeabteilungen.
fuyuhasugu schrieb:
Man kann eben doch pauschal sagen, dass die Haltbarkeit von SLC über MLC zu TLC abnimmt.
Bei der gleichen Fertigungstechnologie und Qualitätsstufe ja, aber da die Signalverarbeitung die Ladungen immer besser unterscheiden kann und man die Alterung der Zellen immer besser kompensieren kann, stimmt das im Einzelfall auch nicht immer so, von den Fortschritten der Controller und dem Problem beim Einsatz minderwertiger Qualitäten mal ganz abgesehen. Der Test zeigt ja auch, dass hochwertige TLC NANDs mit dem guten Controller welches Samsung der 840 eben in der Haltbarkeit die minderwertigen MLC wie sie OCZ offenbar einsetzt oder den miesen Controller der Partiot Torqx 2 im Ergebnis schlägt.
fuyuhasugu schrieb:
Dass die Qualität der Speicherzellen einen Einfluss auf die jeweilige Lebensdauer des Einzelproduktes hat, ist dabei vollkommen klar, ändert aber gar nichts an den technologiebegründeten Unterschieden der Haltbarkeit.
Das stimmt, aber wenn man nicht weiß, welche Qualität der Hersteller einer alternativen SSD mit MLC verbaut, hat man von der Haltbarkeit her u.U. sogar weniger als bei einer mit TLC bestückten SSD eines Hersteller mit guter Qualität.
fuyuhasugu schrieb:
Jetzt scheint sich Samsung mit der 840 lt. deren Ergebnissen auf xtremesystems und auch mit der neuen Produktankündigung aus dem Artikel auf den gleichen gefährlichen Weg wie OCZ zu begeben.
Das ist doch Unsinn, denn diese 10nm Class NANDs kommen doch nicht schon in SSDs zum Einsatz und wenn die Fertigung so weit ist, dass dies möglich wird, dann wird Samsung die in einer anderen Serie als der 840er verbauen. Dann kommt wohl eine 850er auf den Markt, so wie es eine 470er und dann eine 830er gab, die jeweils einen Shrink der Strukturen begleitet haben. Bei Intel und Micron/Crucial war es nicht anders, da hat man auch für jede neue NAND eine neue SSD Generation gebracht. Micron hat übrigens schon Ende 2011 begonnen seine 20nm zu fertigen und erst dieser Tage ist die SSD damit, die M500, auf den Markt gekommen, fast 1 1/2 Jahre später. In etwa einem Jahr kommt also eine Samsung 850 (oder welche Nummer man dann wählen wird) mit den NANDs aus dieser News, vorher nicht.
Samsung mit OCZ gleichzustellen ist schon eine echt freche Defamierung! Aber andr_gin hat ja schon über Android Smartphone hergezogen und daher weht auch bei euch der Wind, nur hat das mit den SSD von Samsung nichts zu tun, aber auch gar nichts. Und deshalb gehört das auch nicht hier ins SSD Unterforum!
fuyuhasugu schrieb:
Andererseits sind zu groß, um unterzugehen, so können sie im Niedrigpreissegment den Ahnungslosen Billigprodukte andrehen
So ein Unsinn, die TLC SSDs werden sich durchsetzen und die 840er hält viel mehr als von Samsung versprochen, das ist für die allermeisten genug und die brauchen daher auch nicht für etwas bezahlen, was sie nicht nutzen werden. Steht irgendwo in der News, dass diese NAND in der 840er eingesetzt werden? NEIN, da steht "Aktuell findet sich TLC-Speicher beispielsweise in den SSDs der 840-Serie" und das sagt nur, dass in der 840er TLC NAND verbaut ist und zwar das mit 21nm Strukturbreite und nicht das der 10nm Klasse. Wer lesen kann, ist klar im Vorteil!