News Samsung fertigt 128-Gbit-TLC-NAND-Flash der „10-nm-Klasse“

Staubwedel schrieb:
Eigentlich kaufe ich größere HDDs/SSDs um deren Platz zu nutzen.

ja und? meine 2TB sind auch voll, das heißt aber nicht das ich die Festplatte jeden Tag neu voll schreibe..
 
Holt schrieb:
andererseits brauchen die allerwenigsten Heimanwender so eine hohe Lebensdauer auch nur annähernd und wollen andererseits aber günstige SSDs. Würdest Du ein Auto kaufen, welche sonst identisch aber doppelt so teuer ist, weil der Hersteller die Komponenten eben auf 1 Millionen km statt der üblichen 200tkm bis 250tkm ausgelegt hat? Da Du mit dem Auto wohl nicht einmal diese 200tkm unterwegs sein wirst, doch wohl eher nicht.

Wenn mir ein Autohersteller Garantie für 1.000.000 Km bietet, also für Langzeitqualität bürgt, würde ich für den Neuwagen mindestens das Doppelte zahlen.

Mir ist Daten-Crashsicherheit lieber als die letzten freigesetzten Prozente in Punkto Übertragungsgeschwindigkeit, die der Endanwender sowieso nicht registriert.
 
Chris007 schrieb:
ja und? meine 2TB sind auch voll, das heißt aber nicht das ich die Festplatte jeden Tag neu voll schreibe..

Sicherlich nicht, aber es wird nun mal mehr geschrieben. Oder kaufst du dir was Großes um es erst in 5 Jahren zu füllen?
 
hat sich MLC so sehr etabliert und SLC komplett verdrängt?
am anfang gab es doch nur SLC SSD laufwerke wenn ich mich nicht irre?
doch für den massenmarkt waren diese schlicht zu teuer.
andererseits waren diese SLC chips denen von MLC überlegen.
wir als home bzw. semi pro user würden den unterschied wohl nur im portomonaie bemerken.

mir soll es recht sein.Samsung dominiert mit der 840 non pro mit dem günstigsten preis.
wenn die weiter am ball bleiben, gibt es bald 500GB in 10nm für 150€.
 
SLC ist eben deutlich teurer und man bekommt nicht so viel Kapazität auf gleicher Fläche

Samsung will einfach Konkurrenten mit Kampfpreisen ausstechen, wenn der Markt bereinigt ist dürfen wir uns weniger auf gute Preise freuen

Aber es ist noch nicht klar in welcher Preislage die Konkurrenz mit TLC spielt
 
Helli85 schrieb:
wenn dann muste schon 830 mit 840pro (MLC) vergleichen den die normale 840er hat (TLC) speicher deswegen is die nonPro auch viel günstiger und langsamer und in der haltbarkeit schlechter

Ich kenne jetzt nicht deine Definition von viel, aber zum Ende konnte man die 830 für unter 150€ in der 256gb Version kaufen. Die 840 non-pro kostet 6 Monate später 141€. Für mich ist das überhaupt nicht viel günstiger.
 
zett0, der Vergleich hinkt aber. Erstens gibt es noch keine Konkurrenz zur Samsung 840 mit TLC-Speicher, also kann man nur vermuten, wie viel Spielraum da noch übrig ist. Ich denke jedenfalls, dass Samsung über einen niedrigeren Preis ihren Marktanteil halten/erhöhen wird, sobald die Konkurrenz (zB Plextor im Juni) nachzieht. Zweitens war die Samsung 830 damals (ca 6 Monate nach Markteinführung) noch auf einem ähnlichen Preisniveau, wie es heute die 840 Pro ist (siehe geizhals.at Preisentwicklung). Der großen Preisnachlass der 830 ist zumindest teilweise mit dem Abverkauf zu erklären, weil der Nachfolger ja schon vor der Tür stand.
 
Plextor spielt leider keine große Rolle bei SSD-Verkäufen, zumindest hierzulande. Unwissenheit der Käufer und Samsung-Hype lassen grüßen.

Die 830 wurde schon einige Zeit vor Abverkauf deutlich günstiger, da hat man die M4 als Vorbild genommen. Doch letztere ist derzeit auf einen erstaunlich hohen Preisniveau
 
1.) Also ich sehe das mit der Lebensdauer schon sehr kritisch. Es geht hier gar nicht so darum, dass man sich irgendwann eine neue kaufen muss. Das Geld für einen Systemdatenträger war immer schon sekundär. Das Problem ist, dass besonders im Firmenumfeld eine Katastrophe ist, wenn nach 2-3 Jahren auf einmal die PCs wahllos mit Performanceproblemen, Abstürzen etc. zu kämpfen haben und vielleicht auch noch Daten verloren gehen, die der Anwender eben einmal schnell nur am Desktop abgelegt hat. Besonders bei Notebooks liegt hier meistens relativ lokal herum.
Besonders als Systemplatte gibt es sehr viele Schreibzugriffe auf die selben Datenbereiche und wenn die Platte schon ziemlich voll ist, dann kann die Firmware auch nicht mehr viel verteilen, weil selten so viel Reservebereiche vorhanden sind. Man darf hier ja nicht die geschriebenen Daten zählen. Alleine bei einem Lesezugriff auf einen Ordner/Datei wird meistens schon von Windows der Dateizugriffstempel aktualisiert. Das bedeutet dann, dass ein ganzer Block (und die Größe liegt hier um die 512KB) gelöscht und neu beschrieben werden muss. Da hat man 1GB beisammen, so schnell kann man gar nicht schauen.

2.) Eine SSD als Datengrab mit weniger Schreibzugriffen ist bei weitem noch nicht rentabel. Die Preise liegen immer noch über dem 10fachen pro GB gegenüber Festplatten, die zwar langsamer bei random reads sind, aber sich unendlich oft beschreiben lassen. Für die typische Filmsammlung dürfte das jedoch ziemlich egal sein. Dabei ist der Flashpreis gerade im Keller und die Festplattenpreise sind nach der Thailandkrise erst wieder auf das Niveau von vor 2 Jahren gesunken.
Da abzusehen ist, dass wir bald das physikalische Minimum der Strukturgröße erreicht haben und man mit mehr Bits pro Zelle auch nicht viel herausholen kann (ein viertes erhöht die Kapazität auch nur mehr um 30%), während die Festplatten wahrscheinlich auch noch etwas geshrinkt werden können, schätze ich, dass wir in 10-20 Jahren immer noch in der Situation sein werden, dass Festplatten noch mindestens um den Faktor 3-5 billiger sein werden.

3.) In einem Serverumfeld sind im Normalfall gar keine SSDs verbaut, sondern normale Festplatten. Bei einem typischen Datenbanksystemen liegen die Daten sowieso größtenteils im RAM als Cache und auch die Zuverlässigkeit von SSDs ist nicht wirklich gegeben. Abgesehen davon gibt es afaik auch noch gar keine RAID Controller, die mit einer SSD auch vernünftig umgehen können und Sache wie TRIM unterstützen.
Wenn, dann wird auch höchstens SLC Speicher eingesetzt und das ist auch schon sehr sehr selten für einige Sonderanwendungen, wo es wirklich nur um die Performance geht und die Daten nicht wichtig sind.

4.) Die Preise der 830 waren deshalb so niedrig, weil die 840er einfach schon da war und man die Lager von den alten Modellen befreien wollte. Würden die jetzt noch produziert werden, dann würden die deutlich mehr kosten.

5.) Das Problem ist, dass die meisten SSD Hersteller einfach nur Schrott produzieren (siehe OCZ) und auch die seriösen Hersteller wie Intel manchmal ganz schön daneben greifen mit ihrer Firmware. Hier sind auch oft grundsätzliche Konzeptprobleme vorhanden, wenn bei einem Stromausfall die Sicherheit der Daten nicht garantiert ist.
Weiters setzt sich auch immer mehr der Trend zum Wegwerfprodukt ein. Das fängt bei langsamer werdenden SSDs an und hört beim Einsatz von irgendwelchen Cloud Diensten auf, die dann auch gerne eingestellt werden und man wieder wechseln muss. Bei den Smartphones kommt man nach 1 Jahr mit der veralteten Android Version meistens schon nicht mehr viel weiter. Abgesehen davon wird der interne Speicher meistens künstlich so beschränkt (4GB verbaut, 1GB nutzbar, nichts auf Speicherkarte verschiebbar ohne Root Zugriff), dass man möglichst schnell ein neues Ding braucht, auf dem wieder nur gerade so viel Speicher verbaut ist, dass man momentan gerade noch auskommt.
 
Holt schrieb:
Und das alte Billigmodell von Intel, die X25-V, in seiner Kleinstversion von 40GB, d.h. mit nur einem Drittel der Zellen überhaupt, hat mittlerweile das 3-fache weggeschrieben und läuft imer noch fehlerfrei. Samsung mit dem Teuerschrott von OCZ zu vergleichen, um auf deren "Qualität" hinzuweisen, mag im Forum von Computerbild funktionieren, hier aber nicht. Selbst Crucials 64GB-kleine m4 hat fast die 5-fache Schreibleistung überstanden.

Die alten "Extrem"-Laufwerke von Intel liegen mit dem eigentlich nicht vergleichbaren SLC noch einmal wenigstens um den Faktor 10 höher. Man kann eben doch pauschal sagen, dass die Haltbarkeit von SLC über MLC zu TLC abnimmt. Dass die Qualität der Speicherzellen einen Einfluss auf die jeweilige Lebensdauer des Einzelproduktes hat, ist dabei vollkommen klar, ändert aber gar nichts an den technologiebegründeten Unterschieden der Haltbarkeit.

Bisher hat nur OCZ versucht, deutlich bessere Qualität vorzugaukeln als zu verbauen. Jetzt scheint sich Samsung mit der 840 lt. deren Ergebnissen auf xtremesystems und auch mit der neuen Produktankündigung aus dem Artikel auf den gleichen gefährlichen Weg wie OCZ zu begeben. Andererseits sind zu groß, um unterzugehen, so können sie im Niedrigpreissegment den Ahnungslosen Billigprodukte andrehen und andere Anbieter verdrängen und parallel gute aber deutlich teurere Produkte am oberen Marlktende anbieten und auch dort durch Quersubventionierung den Markt bereinigen. Der Kunde wird es ihnen in 3-5 Jahren zu danken wissen.
 
Zuletzt bearbeitet:
andr_gin schrieb:
Also ich sehe das mit der Lebensdauer schon sehr kritisch.
Die maximale Lebensdauer ist bei einer SSD ja nicht statisch. Als Privatanwender reicht es schon, wenn man sich ein SSD-fähiges Tool zum Auslesen der SMART-Werte nimmt und nachsieht, wie viel der totalen Schreibkapazität noch übrig bleibt. Darüber hinaus kann man aber auch die Anzahl der defekten Sektoren überwachen; wenn diese zu wachsen beginnen, dann ist ein baldiger Wechsel ratsam.

Davon ganz abgesehen lassen sich die beiden Speichertechnologien nur sehr schwer miteinander vergleichen. Eine HDD kann man sich kaufen und diese so lange strapazieren, bis sie irgendwann mit einem Defekt ausfällt. Manchmal ist das vorhersehbar, weil man es klackern hört oder weil der Anwender die SMART-Daten lesen kann. Eine SSD hingegen kauft man (oder zumindest jeder intelligente Mensch) mit dem Bewusstsein, dass diese nicht unendlich nutzbar sein wird und irgendwann die maximale Schreibkapazität erschöpft ist.

Ich finde das sogar positiv, weil man bei Produkten mit technisch begrenzter Lebensdauer sofort an Datensicherheit denkt. Man kann auf der einen Seite lesen, dass man mit einem Modell zum Beispiel "x" Jahre lang jeden Tag "y" GB auf die SSD schreiben könnte und trotzdem noch deutlich innerhalb der empfohlenen Grenzwerte bleibt. Dann hört man von Erfahrungsberichten anderer Nutzer und weiß, dass fast alle PC-Nutzer eigentlich viel weniger als das verbrauchen. (Als kleine Info: in einigen Office-PCs, die 10 bis 12 Stunden täglich und bis zu 6 Tage die Woche laufen, werden nur etwas mehr als 5GB/Tag verbraucht; ein Bekannter hat seine SSD in seinem Spiele-PC, der nebenbei 24/7 mit manchen aktiven Hintergrundprogrammen aktiv ist und er kommt auf ~13GB/Tag). Selbst wenn man sich mit der Materie nicht so gut auskennt, diese einfache Mathematik kann jeder lernen.

andr_gin schrieb:
Das Problem ist, dass besonders im Firmenumfeld eine Katastrophe ist, wenn nach 2-3 Jahren auf einmal die PCs wahllos mit Performanceproblemen, Abstürzen etc. zu kämpfen haben und vielleicht auch noch Daten verloren gehen, die der Anwender eben einmal schnell nur am Desktop abgelegt hat.
Wie in den letzten Absätzen bereits geschrieben, bieten SSDs eigentlich eine bessere Möglichkeit, um das mögliche Lebensende des Datenträgers vorherzusagen. Weil in einer SSD keine beweglichen Teile verbaut sind, ist eine große Fehlerquelle für den plötzlichen Totalausfall gar nicht erst vorhanden. Schließlich kann der SSD aber genau das selbe passieren, wie der HDD auch, wenn zum Beispiel an der Platine ein Fehler auftritt.

Weil man genau dagegen aber nichts machen kann, sind Backups anzuraten, ebal ob im privaten oder geschäftlichen Bereich! Ich kann nicht verstehen, wieso man sich auf die Ausfallsicherheit eines Datenspeichers, egal ob nun HDD oder SSD, verlassen sollte. Ebenso kann ich keinesfalls erkennen, dass SSDs so deutlich öfter ausfallen würden als HDDs. Wenn Daten- und Ausfallsicherheit sehr wichtig sind, muss man nur von den nicht bewährten Modellen Abstand nehmen und schon wurde den meisten der Kinderkrankheiten, die SSDs (mancher Hersteller) leider noch haben, aus dem Weg gegangen. In diesem Punkt habe ich in meinem Bekannten- und Verwandtenkreis in den letzten Jahren einige Erfahrung gesammelt und musste feststellen, dass herkömmliche Festplatten besonders in den ersten 6 Monaten viel häufiger ausfallen als Flash-Speicher.

andr_gin schrieb:
Besonders als Systemplatte gibt es sehr viele Schreibzugriffe auf die selben Datenbereiche und wenn die Platte schon ziemlich voll ist, dann kann die Firmware auch nicht mehr viel verteilen, weil selten so viel Reservebereiche vorhanden sind.
Das stimmt so nur halb. Es ist natürlich richtig, dass eine (fast) komplett mit Daten gefüllte Festplatte bei einer SSD einen Nachteil bedeutet, aber das sogenannte wear-leveling funktioniert auch dann noch.

Es ist doch so, dass sich jeder Käufer einer SSD bereits vor dem Kauf über die zu erwartende Lebensdauer informieren kann. Wenn man also besonders viele Schreibzugriffe erwartet, dann gibt es mehrere Möglichkeiten, um den Effekt zu lindern, eine kürzere Lebensdauer und einen Ersatz wird man aber nicht gänzlich abwenden können. Die einfachste Lösung ist, eine größere als die geplante SSD zu kaufen, denn dann besitzt man mehr Flash-Zellen, auf die sich die Schreibzugriffe verteilen können. Alternativ kann man auch zu einer SSD mit bekannt hochwertigem Speicher oder vielleicht sogar einer Enterprise SSD mit zum Beispiel SLC-Flash-Speicher greifen. Wenn man es sich ganz einfach machen will, lässt man einen (kleinen) Bereich der SSD unpartitioniert, den Rest macht die Firmware dann von alleine.


Mein Fazit: wäre ein genereller Trend hin zu TLC-Speicher (und mehr) zu erwarten, dann könnte ich deine Besorgnis teilen. Die Sache sehe ich jedenfalls anders, denn mit SLC/MLC/TLC werden lediglich unterschiedliche Markt-Segmente abgedeckt und das beweist auch eine News, die es kürzlich auf CB zu lesen gab (IBM investiert in Flash-Speicher). Man kann auch heute noch SSDs mit SLC-Speicher kaufen, aber wer will das bei den Preisen schon? Auch bin ich überzeugt davon, dass besonders im Einstiegsbereich noch genug Luft nach unten möglich ist, sobald Samsung ernsthafte Konkurrenz zu ihren 840 (Basic/Non-Pro) Modellen erhält.
 
Ihr tut ja gerade so, was würden HDD ewig halten, aber auch die unterliegen einem Verschleiß. Da ist es nicht das Medium, sondern die Mechanik, vor allem die zur Bewegung der Köpf, aber auch der Antrieb und der Verschleiß passiert bei Lese- wie bei Schreibzugriffen. Auch bei HDDs gibt es Qualitäts- und Preisunterschiede, denn Consumer-HDDs halten weniger lange durch als die teureren Enterprise HDDs. Trotzdem reichen die Consumerplatten für die meisnten Heimanwender lange genug und kaum jemand vermisst die deutlich bessere Haltbarkeit der Enterpriselaufwerke.

So ist auch TLC nicht für intensiv genutzte Enterprise- sondern für Consumer SSD gedacht, eben um diese günstiger zu machen.

andr_gin schrieb:
1.) Also ich sehe das mit der Lebensdauer schon sehr kritisch. ... Das Problem ist, dass besonders im Firmenumfeld eine Katastrophe ist
Dafür sind die aber auch nicht gedacht, bzw. gibt es nur ein Modell für den Enterprise Einsatz von Samsung, welches mit TLC ausgerüstet ist, aber das ist eben nicht für schreibintensive Anwendungen gedacht.

andr_gin schrieb:
Besonders als Systemplatte gibt es sehr viele Schreibzugriffe auf die selben Datenbereiche und wenn die Platte schon ziemlich voll ist, dann kann die Firmware auch nicht mehr viel verteilen, weil selten so viel Reservebereiche vorhanden sind.
Auf welche logischen Adressen der SSD die Schreibzugriffe stattfinden, ist bei einer guten SSD wie der 840er total egal, deren Wear-Leveling arbeitet so gut, dass die Zellen trotzdem nicht zu ungleichmäßig abgenutzt werden.

andr_gin schrieb:
Man darf hier ja nicht die geschriebenen Daten zählen. Alleine bei einem Lesezugriff auf einen Ordner/Datei wird meistens schon von Windows der Dateizugriffstempel aktualisiert.
Das kann man deaktivieren, es ist sowieso sinnlos, denn einmal war es für die Defragmentierungsprogramme gedacht und dann machen die Virenfinder das ganze auch noch zunichte. Daher ist es bei Win7 und Win8 auch per default deaktiviert.

andr_gin schrieb:
Das bedeutet dann, dass ein ganzer Block (und die Größe liegt hier um die 512KB) gelöscht und neu beschrieben werden muss. Da hat man 1GB beisammen, so schnell kann man gar nicht schauen.
Das glaubst nur Du und zum Glück schreibst Du keine FW für SSDs :freak:

Es wäre nicht nur für die Write Amplification eine Katastrophe, wenn es so gemacht werden würde wie Du schreibt und dann auch für die Performance. NANDs haben i.d.R. 256 bzw 512 Pages pro Block und man müssten dann alle Pages kopieren, in denen noch gültige (aus Sicht des Controllers, also solche deren LBAs noch nicht überschrieben oder getrimmt wurden) Daten stehen jeweils lesen, deren Daten im Cache speichern, den Block löschen und dann alles wieder zurückschreiben. Man kann wenn, dann allenfalls heute noch bei billigen USB Sticks unterstellen, dass da wirklich so ein Unsinn betrieben wird und es könnte auch bei den allerersten SSD Controllern durchaus der Fall gewesen sein.

Aktuellle SSDs schreiben Daten immer auf andere Flash Adressen, mappen den LBA auf diese um und markieren die alten Daten als ungültig. Wenn dann mal wieder ein Block gelöscht werden soll, wird eben einer ausgewählt der entweder bisher noch relativ wenig P/E Zyklen hinter sich hat oder eben viele solche Pages mit ungültigen Daten enthält.
andr_gin schrieb:
2.) Eine SSD als Datengrab mit weniger Schreibzugriffen ist bei weitem noch nicht rentabel.
Es kommt doch nicht auf die Häufigkeit der Schreibzugriffe an, sondern auf die der gesamten Zugriffe, ob es sich lohnt. Gerade wenn die Lesezugriffe sehr häufig sind und schnell gehen sollen, aber nicht so viele Schreibzugriffe erfolgen, dann sollte man eine SSD einsetzen und damit es sich wirtschaftlich nicht so weh tut, ist TLC genau die Lösung dafür.
andr_gin schrieb:
Die Preise liegen immer noch über dem 10fachen pro GB gegenüber Festplatten, die zwar langsamer bei random reads sind, aber sich unendlich oft beschreiben lassen.
Eben ging es noch um Daten, die nicht oft geschrieben werden und nun ist es plötzlich wichtig, dass die sich bei einer HDD unendlich oft überschrieben lassen, was ja auch nicht stimmt, denn die Mechanik macht auch igrendwann schlapp, s.o.!
andr_gin schrieb:
Für die typische Filmsammlung dürfte das jedoch ziemlich egal sein.
Da kommt es ja auch nicht auf Performance an und zumindest so lange nicht zu viele User auf einmal auf die gleiche Platte zugreifen, schafft das auch jede HDD.
andr_gin schrieb:
mit mehr Bits pro Zelle auch nicht viel herausholen kann (ein viertes erhöht die Kapazität auch nur mehr um 30%),
Dafür braucht man aber eine noch aufwendigere Logik zur Unterscheidung der 16 Ladungszustände, weshalb sich das zumindest derzeit noch nicht lohnt ein weiteres Bit in einer Zelle zu speichern.
andr_gin schrieb:
während die Festplatten wahrscheinlich auch noch etwas geshrinkt werden können, schätze ich, dass wir in 10-20 Jahren immer noch in der Situation sein werden, dass Festplatten noch mindestens um den Faktor 3-5 billiger sein werden.
Das Problem bei den HDDs ist aber die Performance. Wenn die Datendichte um den Faktor 4 steigt, erhöht sich die seq. Transferrate nur um den Faktor 2, weil eben die doppelt so viele Sektoren auf einen Zylinder passen und doppelt so viele Zylinder auf den Plattern, die aber die Performance nicht steigern, sondern im Gegenteil die Zugriffszeiten eher noch erhöhen, weil es eben aufwendiger wird, die Köpfe auf die immer schmaleren Zylinder zu positionieren.
andr_gin schrieb:
3.) In einem Serverumfeld sind im Normalfall gar keine SSDs verbaut, sondern normale Festplatten.
In euren Servern vielleicht nicht, aber Firmen wie FusionIO machen seid Jahren schon mehr als 100 Millionen USD Umsatz mit genau solche SSDs und aus der Serverwelt sind SSDs überhaupt erst in die Heimrechner gekommen. In dem Segment gibt es Firmen die SSD anbieten von denen Du offensichtlich noch nie gehört hast.
andr_gin schrieb:
Bei einem typischen Datenbanksystemen liegen die Daten sowieso größtenteils im RAM als Cache und auch die Zuverlässigkeit von SSDs ist nicht wirklich gegeben. Abgesehen davon gibt es afaik auch noch gar keine RAID Controller, die mit einer SSD auch vernünftig umgehen können und Sache wie TRIM unterstützen.
Bei bei Datenbanken oder anderen typischen Serveranwendungen? Falls Du keine DB kennst, da wird nichts gelöscht sondern die Datenfiles werden dauernd nur überschrieben und nur beim Löschen von Dateien wird TRIM überhaupt aktiv, aber das Du keine Ahnung von SSDs hast, hast Du ja schon reichlich in diesem Posting bewiesen.

andr_gin schrieb:
4.) Die Preise der 830 waren deshalb so niedrig, weil die 840er einfach schon da war und man die Lager von den alten Modellen befreien wollte. Würden die jetzt noch produziert werden, dann würden die deutlich mehr kosten.
Das stimmt mal, denn alleine die Fertigung der NANDs in 27nm ist natürlich teurer als die in 21nm.
andr_gin schrieb:
5.) Das Problem ist, dass die meisten SSD Hersteller einfach nur Schrott produzieren (siehe OCZ)
Deshalb empfehle ich ja auch nur SSDs von Herstellern mit eigener NAND Fertigung, denn da hat man einmal die Sicherheit, dass die NANDs aus eigenem Hause sind und die haben sich bisher auch als seriös genug erwiesen ihre SSD Modelle beim Wechsel auf NANDs mit anderen Fertigungsstrukturen umzubenennen. Nur die können ja auch gewährleisten, dass sie genug NANDs einer Art haben, solange sie die entsprechende SSD produzieren. Corsair hat seine Neutron GTX von 24nm auf 19nm Toshiba Toggle NAND umgestellt, aber findet man einen Review von dem neuen Modell?
andr_gin schrieb:
und auch die seriösen Hersteller wie Intel manchmal ganz schön daneben greifen mit ihrer Firmware. Hier sind auch oft grundsätzliche Konzeptprobleme vorhanden, wenn bei einem Stromausfall die Sicherheit der Daten nicht garantiert ist.
Das muss aber auch ordentlich implementiert sein und wenn Du schon Intel erwähnst, dann war das bei der 320er Reihe eben offenbar nicht der Fall. Hoffen wir mal, das Crucial es bei der M500 besser gemacht hat.
andr_gin schrieb:
Weiters setzt sich auch immer mehr der Trend zum Wegwerfprodukt ein. Das fängt bei langsamer werdenden SSDs an
Das SSD langsamer werden, wenn sie voller werden ist technisch kaum vermeiden und wenn, dann auf Kosten der Haltbarkeit. Ansonsten werden gute SSDs aber kaum langsamer, wenn sie eben nicht auch voller werden, aus Sicht des Controllers, also mit TRIM oder durch Overprovisioning.

fuyuhasugu schrieb:
Und das alte Billigmodell von Intel, die X25-V, in seiner Kleinstversion von 40GB, d.h. mit nur einem Drittel der Zellen überhaupt, hat mittlerweile das 3-fache weggeschrieben und läuft imer noch fehlerfrei.
Das ist ja auch keine Billig-SSD im eigentlichen Sinne, die hat einfach nur weniger NANDs und war dadurch günstiger und eben auch langsamer, weil eben nur die Hälfte der Kanäle des Controller bestückt sind. Vom Controller und der Qualität der NANDs her entspricht die aber voll den Postville Modell
fuyuhasugu schrieb:
Samsung mit dem Teuerschrott von OCZ zu vergleichen, um auf deren "Qualität" hinzuweisen, mag im Forum von Computerbild funktionieren, hier aber nicht. Selbst Crucials 64GB-kleine m4 hat fast die 5-fache Schreibleistung überstanden.
Toll, was nutzt das? Die Dinger sind inzwischen für fast jede sinnvolle Anwendung zu klein, was dann zu solchen Threads führt Sinnvoller Einsatzzweck für 2x 40GB Intel X25-V SSD's ?

Heute sind 40GB oder auch schon 64GB einfach zu wenig, morgen geht es mit 120GB nicht anders und in ein paar Jahren wird man sich fragen müssen, wie man eine 256GB SSD noch sinnvoll nutzen kann. So lange brauchen SSD also nicht zu halten und man wird sie doch ausrangieren, lange bevor auch nur die 1000 P/E Zyklen der TLC NANDs der 840er verbraucht sind. Wer wirklich mehr schreibt, kauft sowieso keine TLC NAND SSD.
fuyuhasugu schrieb:
Die alten "Extrem"-Laufwerke von Intel liegen mit dem eigentlich nicht vergleichbaren SLC noch einmal wenigstens um den Faktor 10 höher.
Das glaube ich nicht, die X25-E oder hat schon sehr früh immer mehr ausrangierte Blöcke gezeigt und leider gibt es schon länger keinen Statusbericht mehr von der, aber diesen oft genannten Faktor 10 für SLC halte ich persönlich für ein Märchen der Werbeabteilungen.
fuyuhasugu schrieb:
Man kann eben doch pauschal sagen, dass die Haltbarkeit von SLC über MLC zu TLC abnimmt.
Bei der gleichen Fertigungstechnologie und Qualitätsstufe ja, aber da die Signalverarbeitung die Ladungen immer besser unterscheiden kann und man die Alterung der Zellen immer besser kompensieren kann, stimmt das im Einzelfall auch nicht immer so, von den Fortschritten der Controller und dem Problem beim Einsatz minderwertiger Qualitäten mal ganz abgesehen. Der Test zeigt ja auch, dass hochwertige TLC NANDs mit dem guten Controller welches Samsung der 840 eben in der Haltbarkeit die minderwertigen MLC wie sie OCZ offenbar einsetzt oder den miesen Controller der Partiot Torqx 2 im Ergebnis schlägt.
fuyuhasugu schrieb:
Dass die Qualität der Speicherzellen einen Einfluss auf die jeweilige Lebensdauer des Einzelproduktes hat, ist dabei vollkommen klar, ändert aber gar nichts an den technologiebegründeten Unterschieden der Haltbarkeit.
Das stimmt, aber wenn man nicht weiß, welche Qualität der Hersteller einer alternativen SSD mit MLC verbaut, hat man von der Haltbarkeit her u.U. sogar weniger als bei einer mit TLC bestückten SSD eines Hersteller mit guter Qualität.
fuyuhasugu schrieb:
Jetzt scheint sich Samsung mit der 840 lt. deren Ergebnissen auf xtremesystems und auch mit der neuen Produktankündigung aus dem Artikel auf den gleichen gefährlichen Weg wie OCZ zu begeben.
Das ist doch Unsinn, denn diese 10nm Class NANDs kommen doch nicht schon in SSDs zum Einsatz und wenn die Fertigung so weit ist, dass dies möglich wird, dann wird Samsung die in einer anderen Serie als der 840er verbauen. Dann kommt wohl eine 850er auf den Markt, so wie es eine 470er und dann eine 830er gab, die jeweils einen Shrink der Strukturen begleitet haben. Bei Intel und Micron/Crucial war es nicht anders, da hat man auch für jede neue NAND eine neue SSD Generation gebracht. Micron hat übrigens schon Ende 2011 begonnen seine 20nm zu fertigen und erst dieser Tage ist die SSD damit, die M500, auf den Markt gekommen, fast 1 1/2 Jahre später. In etwa einem Jahr kommt also eine Samsung 850 (oder welche Nummer man dann wählen wird) mit den NANDs aus dieser News, vorher nicht.

Samsung mit OCZ gleichzustellen ist schon eine echt freche Defamierung! Aber andr_gin hat ja schon über Android Smartphone hergezogen und daher weht auch bei euch der Wind, nur hat das mit den SSD von Samsung nichts zu tun, aber auch gar nichts. Und deshalb gehört das auch nicht hier ins SSD Unterforum!
fuyuhasugu schrieb:
Andererseits sind zu groß, um unterzugehen, so können sie im Niedrigpreissegment den Ahnungslosen Billigprodukte andrehen
So ein Unsinn, die TLC SSDs werden sich durchsetzen und die 840er hält viel mehr als von Samsung versprochen, das ist für die allermeisten genug und die brauchen daher auch nicht für etwas bezahlen, was sie nicht nutzen werden. Steht irgendwo in der News, dass diese NAND in der 840er eingesetzt werden? NEIN, da steht "Aktuell findet sich TLC-Speicher beispielsweise in den SSDs der 840-Serie" und das sagt nur, dass in der 840er TLC NAND verbaut ist und zwar das mit 21nm Strukturbreite und nicht das der 10nm Klasse. Wer lesen kann, ist klar im Vorteil!
 
Holt schrieb:
Das glaube ich nicht, die X25-E oder hat schon sehr früh immer mehr ausrangierte Blöcke gezeigt und leider gibt es schon länger keinen Statusbericht mehr von der, aber diesen oft genannten Faktor 10 für SLC halte ich persönlich für ein Märchen der Werbeabteilungen.
Na dann frag mal jemanden, der sich damit auskennt, also Enterprise-SSDs einsetzt oder einfach mal gründlich den von Dir verlinkten Thread auf xtremesystems durchlesen.

Holt schrieb:
Samsung mit OCZ gleichzustellen ist schon eine echt freche Defamierung! Aber andr_gin hat ja schon über Android Smartphone hergezogen und daher weht auch bei euch der Wind, nur hat das mit den SSD von Samsung nichts zu tun, aber auch gar nichts.
Den Vergleich mit OCZ hast übrigens Du selbst gebracht. Aber wahrscheinlich sind solche Vergleiche Deiner Meinung nach nur gerechtfertigt, wenn sie nur die Aspekte berücksichtigen, die Deiner Intention entsprechend, Samsung in einem besseren Lichte erscheinen lassen. Solch einseitige Darstellungen sind aber nur auf den Webseiten der Firma selbst erfolgreich, in einem offenen und unabhängigen Forum musst Du damit leben, dass andere Deine einseitigen Posts relativierende Darstellungen veröffentlichen.
 
fuyuhasugu schrieb:
Aber wahrscheinlich sind solche Vergleiche Deiner Meinung nach nur gerechtfertigt, wenn sie nur die Aspekte berücksichtigen, die Deiner Intention entsprechend, Samsung in einem besseren Lichte erscheinen lassen.

Da muß ich zustimmen.

Und seine endlosen, teils sehr nervigen Samsung-regiert-die-Welt-Beiträge führen wohl dazu das er auf meiner recht leeren Ignorieren-Liste landet. Ich kann es einfach nicht mehr sehen das eine Forenseite hier zu 80% vom Beitrag eines einzelnen Users stammt der sich ständig wiederholt.

Vielleicht sollte er mal ein bißchen in das Real-Life schnuppern :)
 
fuyuhasugu schrieb:
Und das alte Billigmodell von Intel, die X25-V, in seiner Kleinstversion von 40GB, d.h. mit nur einem Drittel der Zellen überhaupt, hat mittlerweile das 3-fache weggeschrieben und läuft imer noch fehlerfrei. Samsung mit dem Teuerschrott von OCZ zu vergleichen, um auf deren "Qualität" hinzuweisen, mag im Forum von Computerbild funktionieren, hier aber nicht. Selbst Crucials 64GB-kleine m4 hat fast die 5-fache Schreibleistung überstanden.
Mh? Und jetzt? Er wollte sicher nicht zeigen, dass die 840 die beste Lebensdauer hat. Sondern einfach nur zeigen, dass sie für Anwendungen im Consumerbereich eine locker ausreichende Lebensdauer hat. Was hast du von der 5-fachen Lebensdauer wenn du die einfache nichtmal ausreizt?

Mach mal ne Umfrage hier im Forum wieviele PE-Zyklen die Nutzer in einem Jahr verbraten haben. Was meinste was da raus kommt?
 
bensen schrieb:
Mh? Und jetzt? Er wollte sicher nicht zeigen, dass die 840 die beste Lebensdauer hat. Sondern einfach nur zeigen, dass sie für Anwendungen im Consumerbereich eine locker ausreichende Lebensdauer hat. Was hast du von der 5-fachen Lebensdauer wenn du die einfache nichtmal ausreizt?

Mach mal ne Umfrage hier im Forum wieviele PE-Zyklen die Nutzer in einem Jahr verbraten haben. Was meinste was da raus kommt?

5 Monate => 30 Zyklen bei einer 256GB SSD.
 
fuyuhasugu schrieb:
Na dann frag mal jemanden, der sich damit auskennt, also Enterprise-SSDs einsetzt oder einfach mal gründlich den von Dir verlinkten Thread auf xtremesystems durchlesen.
Lies mal selbst, ich haben den gelesen und wenn man nach den S.M.A.R.T. Werten geht, dann kann man diesen Faktor 10 von MLC zu SLC kaum glauben, denn die Intel X25-E 64GB hatte beim letzten Posting gerade erst 1.58 PiB geschrieben, aber da die doppelt so viel NAND (80GiB) wie die X25-V (40GiB) enthält, die ähnlich viele Daten geschrieben hat, dürfte somit doppelt so viele P/E Zyklen haben. Vergleicht man die S.M.A.R.T. Werte, so scheint das MLC der V sogar noch besser da zu stehen:

X25-E:

Bei 1.58PiB auf 80GiB NAND, was gerade mal so dem 20.000 fachen der NAND Kapazität entspricht und damit etwa 20.000 Zyklen, denn da die Schreiblast im wesentlichen seq. ist, wird dabei i.d.R. keine hohe WA erzeugt. Bei gerade einem Fünftel der garantierten Zyklen dürfte die SSD noch überhaupt keine Fehler haben, die 840 Basic mit TLC hatte selbst nach dem mehr als 2.6 fachen der garantierten P/E Zyklen noch keinen Fehler.

X25-V:

Wer da keine Zweifel hat, ob das SLC wirklich 10mal so viele P/E Zyklen wie das MLC verträgt, dem ist nicht zu helfen. Es hat eben schon seinen Grund, warum die Hersteller von SLC zu MLC wechseln.

fuyuhasugu schrieb:
Den Vergleich mit OCZ hast übrigens Du selbst gebracht.
Den habe ich gemacht um zu zeigen, dass die TLC nicht automatisch weniger lange halten als MLC NANDs. Die unsinnige Unterstellung Samsung würde ich OCZ einfach die NANDs bestehender Serien tauschen, kam von Dir. Verdrehe also bitte nicht die Fakten.
 
Zuletzt bearbeitet:
Staubwedel schrieb:
Plextor spielt leider keine große Rolle bei SSD-Verkäufen, zumindest hierzulande. Unwissenheit der Käufer und Samsung-Hype lassen grüßen.

Wenn ein Hersteller gute Qualität zu einem niedrigen Preis anbietet, dann wird das Produkt eben viel gekauft, das hat mit Hype nichts zu tun. Die beiden alten Modelle Samsung 470 und 830 haben eben über lange Zeit gezeigt, dass sie keine Probleme machen, und der Preis war, gerade seit der 830er, unschlagbar günstig. Das "hyped" sich von ganz alleine!

Plextor produziert auch sehr gute Qualität, aber das spiegelt sich auch im Preis wieder - deshalb nicht die Verkaufszahlen von Samsung.
 
Holt schrieb:
... brauchen die allerwenigsten Heimanwender so eine hohe Lebensdauer auch nur annähernd und wollen andererseits aber günstige SSDs.

Du hast vollkommen Recht. Für die Heimanwender und ihre nutzlosen, albernen Spielereien sind 3-Bit-Zellen noch viel zu gut. Bei MLC zahlt Samsung jeden Tag Millionen drauf. ;)
Ergänzung ()

etheReal schrieb:
Wenn ein Hersteller gute Qualität zu einem niedrigen Preis anbietet, dann wird das Produkt eben viel gekauft, das hat mit Hype nichts zu tun. Die beiden alten Modelle Samsung 470 und 830 haben eben über lange Zeit gezeigt, dass sie keine Probleme machen, und der Preis war, gerade seit der 830er, unschlagbar günstig. Das "hyped" sich von ganz alleine!

Plextor produziert auch sehr gute Qualität, aber das spiegelt sich auch im Preis wieder - deshalb nicht die Verkaufszahlen von Samsung.

Das ist alles reine Mund-zu Mund-Propaganda begeisterter Kunden und Samsung ist ein Wohltätigkeitsverein und zahlt keinen Cent für Werbung und Werber im Internet.
 
Zurück
Oben