News Nochmals günstigere SF-2200-SSD von OCZ

Na, wenn man sich den Link von Chaosmayhemsoap auf den Anandtech Test der Vertex 2 mal verinnerlicht - speziell die Korrespondenz mit OCZ -, drängt sich mir der Verdacht auf, dass OCZ jetzt die Produktlinien nach den verbauten NAND (Prozess-Node und Hersteller) ausrichtet.

Sollte dies nun so sein, dann Gratulation an OCZ! So wollen wir das haben!
 
und hört doch bitte auf wie wild die Lebensdauer des Flash anhand der maximalen Lösch-Schreibzyklen zu berechnen oder die MTBF ernst zu nehmen. WeltalsWille hat einige Variablen in bezug auf die Flashabnutzung gennant, welche es schwierig machen zu einem eindeutigen und bestenfalls theoretischem Ergebnis zu kommen. Die MTBF ist ein Witz, und wer denkt, dass 1 Mio. Stunden MTBF bedeutet, dass seine Festplatte so lange lebt, wird sich wundern, wenn diese nach vielleicht gerade mal 5 Jahren abraucht. Wer weiß, denn überhaupt, wie die MTBF Zustande kommt? Wüsste man das, würde man nicht daherkommen und denken, dass diese Zahl irgendetwas mit der realistischen Lebenserwartung eines Datenträgerlaufwerks zutun hat.

1 Millionen Stunden MTBF hindert die OCZ SSDs auch nicht davon die höchste Rücklaufquote zuhaben, genauso wenig tut das die On-the-fly-Kompression der Sandforce SSDs welche OCZ verkauft, obwohl der Flash doch weniger als bei traditionellen belastet wird, da z.B. die Daten einer Windows Paritition auf ungefähr die Hälfte reduziert werden können, was also bedeutet, dass nur die Hälfte an Daten geschrieben werden müssen, wie bei den anderen SSD-Controllern wie z.B. von Intel & Marvell.

@WeltalsWille

die 20GB/Tag gelten für die X18-M / X25-M 34nm Serie. (Postville G2)

Minimal Useful Life
The drive will have a minimum of 5 years of useful life under typical client workloads with up to 20 GB of host writes per day.

solche Aussagen der Hersteller sind imho die einzig brauchbaren Informationen zur Einschätzung der Lebensdauer. Dass eine SSD nach 2 Wochen abrauchen kann, genauso wie eine Festplatte schließt das natürlich nicht aus. Genauso wenig das Gegenteil, dass die SSD noch etliche Jahre länger hält bzw. viel mehr Schreiblast verträgt als garantiert.

http://www.google.com/url?sa=t&source=web&cd=4&ved=0CDkQFjAD&url=http%3A%2F%2Fdownload.intel.com%2Fnewsroom%2Fkits%2Fssd%2Fpdfs%2FX25-M_34nm_DataSheet.pdf&rct=j&q=Intel%C2%AEX25-M%20SSD%2034nm%20Product%20Line&ei=NAfITY7ECIGA-wa9kODWAQ&usg=AFQjCNHu1NE_4-Rincv8BW3pCLBRs890wg&sig2=hOx8q4-5WHIncNYvg_TguQ
 
Zuletzt bearbeitet:
WeltAlsWille:

Das ist nicht ganz richtig. Du hast zwar anfangs richtig gedacht, aber nicht alles stimmt. 1. legt Intel eine Schreibleistung von 20 GB/Tag für 5 Jahre zu Grunde. Dann dürfte dein SSD kaputtgeschrieben sein. 2. - es gilt aber nach wie vor, dass die meisten SSDs vorher kaputtgehen, nämlich dann, wenn der Controller zuviele RandomWrites hinter sich hatte! Und da gilt für die Intel Postville G2 z.b. 7,5 TB Schreiblastung (Random Writes) bzw. 15 TB für die 160 GB Variante. Für die neuere Generation wurden diese Werte verdoppelt (also 30 /60 TB). Setzt man also die SSD als Systemlaufwerk ein, muss man zwecks Langlebigkeit auf die "Random-Durability" schauen. Setzt man die SSD aber für z.b. Spiele ein, oder Storagezwecke, sollte man darauf achten, dass man nicht mehr als 10 GB/Tag schreibt, ansonsten könnte es sein, dass die SSD schon nach 5-10 Jahren die Grätsche macht.
SLC-SSDs vertragen übrigens wesentlich mehr Random-Writes. Warum aber geht eine SSD bei Random-Writes kaputt? Das ist einfach zu erklären. Weil ein Controller eben auch nicht perfekt ist, und nur für eine bestimmte Lebensdauer (MTBF in Stunden) vorgesehen ist und weil natürlich die Zellen viel schneller "verbraucht" werden (weil viel Write Amplifikation anfällt) als wenn man nur Daten am Stück (sequentiell) schreibt. Irgendwann gibt es aber sowieso Fehler und der Controller geht kaputt. Besonders schön kann man erkennen, dass zur Zeit vor allem Indilinx-SSDs schnell kaputtgehen (wegen eines Fehlers im Wear-Leveling der dafür sorgt, dass die Schreibvorgänge nicht gut auf alle Zellen verteilt werden). Auch alte SSDs mit Jmicron-Controller sind aus genau dem Grund eigentlich nicht als System-SSD geeignet, und das, wenn man mal davon absieht, dass sie noch keinen Cache hatten damals und ziemlich langsam sind! Glück hat man allerdings, wenn man ein gutes Exemplar erwischt, welches noch 10000 Zyklen mitmacht (mit Toshiba-Flash = 50nm) ;)

Wir fassen also noch mal zusammen:

Die Haltbarkeit/Langlebigkeit einer SSD ergibt sich aus folgenden Punkten:

a) Random-Writes-Durability (Angaben in TB), Beispiele siehe oben
b) Controller-MTBF (jegliche MTBF-Angaben bei SSDs sind Controllerbezogen und ein Max-Wert!)
c) Art der Nutzung des Wear-Leveling. Einfaches Wearleveling z.b. haben schon USB-Sticks. Aber komplexes haben nur SSDs. Dann gibts eben die schlechten Wear-Leveling-Verfahren (Indilinx, Jmicron und ein paar andere bllige Controller), sowie richtig gute (Sandforce, Intel, Marvell-Controller). Die Firmware und dessen Integration ist hier entscheidend. Meist sind selbst gute Controller nicht das beste, weil viele Firmen ihre Firmwares entscheidend optimieren, um die Write-Amplifikation z.b. noch niedriger anzusetzen..
d) Write-Amplifikation (Eben der Wert, der festlegt, wieviel tatsächlich auf das SSD geschrieben wird, gute SSDs schaffen unter 5x oder sogar 1x oder noch weniger (Sandforce => Komprimierung der Daten)
e) Größe des Spare-Area. Also der Ersatzspeicherplatz, wenn man so will. Wobei dies nicht so viel Einfluss hat wie z.b. der Controller selbst! Ne riesige Sparearea bringt nix, wenn der Controller Mist ist. Ne große Spare-Area macht aber die SSD in der Regel vor allem bei 4k-Random-Reads/Writes schneller.
f) Ja, es gibt noch etwas. Und zwar das individuelle Userverhalten!
Es ist entscheidend, wie man eine SSD benutzt. Da gibts welche, die machen sie zu 80% voll (relativ schlecht für die Lebensdauer, weil das Wearleveling ständig Daten schaufeln muss was Zyklen kostet) und wundern sich dann, dass es langsamer wird (wenn auch nur wenig).

Und es gibt welche, die belegen gar immer nur 5 GB von 60 oder eben nur 10% der Gesamtkapazität (Natürlich optimal für die Lebensdauer, aber man hat dann auch nicht viel von der SSD). Und es gibt welche, die belegen die Hälfte (ein idealer Wert, gerade bei kleineren SSDs bis 64 GB). Und dann gibts noch die Extremen, welche 99% des Platzes ausnutzen (ganz schlecht, Lebensdauer extrem verkürzt auf Dauer). Die Art der Nutzung entscheidet meist darüber, wie aggressiv ein Wearleveling eingreift und vor allem darüber, wieviele Zyklen zusätzlich verbraucht werden, ohne dass man auch nur irgendwas auf die SSD schreibt. Das Wear-Leveling ist nämlich grundsätzlich immer aktiv (sofern es überhaupt vorhanden ist), und je nachdem, wie voll die SSD ist, greift es ein, weil z.b. zighunderte Bilder gespeichert wurden und da lange Zeit nichtmehr geschrieben wurde - oder eben nicht. Muss es nicht eingreifen, weil genug freier Platz ist, oder weil einfach sehr wenig auf der SSD ist, schont es die Zellen, weil nichts umgelagert werden muss, was Zyklen verbraucht.

"Daß der Flash für sich genommen event. weniger Schreibzyklen erträgt als Vorgängergenerationen, bedeutet nicht automatisch, dass ein damit ausgestattetes SSD weniger haltbar ist."

Dieses Argument dürfte somit hinfällig sein. Doch, es ist tatsächlich so - je älter ein SSD und je größer deren Fertigungsstrukturen, desto länger wird es - vorausgesetzt bei gleichem Umgang und gleicher Größe! - durchhalten. Also nehmen wir mal ein Beispiel:

Jemand hat 2 Intel SSDs (80 GB). Und er hat 2 völlig identische Rechner. Jetzt hat er einmal Generation 1, die noch in 50 nm gefertigt wurden, und einmal Generation 3, brandneu und gerade erst frisch auf den Markt gekommen. Die 3.Generation-SSD ist aber in 25nm gefertigt.

Hat dieser User also jetzt eine völlig gleichmäßige Nutzung als System-SSD bei beiden Laufwerken, ist davon auszugehen, dass der SSD aus der 3. Generation früher das Licht ausgeht als der Generation 1. Ganz einfach aus dem simplen Grund, weil 50nm SSDs eben min. 10000 Zyklen aushalten. Und 25nm SSDs eben nur 5000 Zyklen, wobei man eher bei 3000 Zyklen liegt. Genau findet man es nur in den Datenblättern. Die Random-Write-Durability gilt natürlich auch hier und somit wird man wohl nie die SSD völlig totschreiben, aber in der Regel ist der Random-Write Wert selbst mit 7,5 TB (was immerhin 7500 GB entspricht) sehr hoch. Und da kommt es eben wieder auf den Nutzer an. Wenn man die SSD aber gleichmäßig für Spiele nutzt, wird auch die Generation 1 viel länger halten (30-50 Jahre ungefähr, 10 Jahre sind es für ne 80 GB Postville G2 als System-Platte, PRAXISWERT!), der Generation 3 wird schon nach 20-25 Jahren die Puste ausgehen und die Zellen abrauchen.
 
Zuletzt bearbeitet: (Habs nochmal überarbeitet)
Ja aber da auch die höchste Rücklaufquote nur 3,5% beträgt bei OCZ juckt es mich als User wenig das Intel z.b. eben nur 1% hat, die Wahrscheinlichkeit das ich betroffen sein werde ist bei beiden so gering das es mir am Ar*** vorbeigeht. Ähnlich als würde mit jemand sagen ich kann bei ihm eine höhere Lotto chance haben aber zahle dafür statt 1€ pro Tipp 3€ pro Tipp und komme dafür statt auf 0,01% auf 0,02% Gewinnchance, das würde doch auch keiner machen. (Zahlen natürlich alle frei erfunden!)

Ich habe mir im Winter damals die OCZ Vertex 2E mit 25nm Flash gekauft und obwohl ich sie zurück schicken könnte habe ich es nicht getan und werde es auch nicht tun ausser sie bekommt einen Defekt. Der Grund ist einfach der das sich für mich nichts ändert duch den Flash, ob ich jetzt 160mb/s oder 80mb/s read habe oder ob die eine Rücklaufquote von 3,5% im gegensatz zu 1% bei Intel haben interessiert mich als Kunden überhaupt nicht. Was die Rücklaufquote angeht habe ich ja schon was zu gepostet was den speed angeht folgendes, von einer HDD auf eine SSD ist der Speed Gewinn deutlich spürbar und meßbar aber von einer Intel G2 Postville z.b. auf eine OCZ Vertex 3 oder Intel 510 ist nur noch ein meß- aber kein fühlbarer Unterschied mehr und ähnlich verhält es sich zwischen Vertex 2 "alt" und Vertex 2 "neu" man fühlt keinen Unterschied im alltäglichen gebrauch. Dafür die SSD ausbauen das System neu auf der HDD aufsetzten und dann Wochen zu warten bis die zurück kommt nur um dann wieder neu auf zu setzten (ja ich weiß Acronis aber trotzdem nervig) steht einfach in überhaupt keinem Verhältnis für mich.

Für mich gilt atm folgende einfache Regel beim SSD Kauf:
Kauf die billigste in der für dich angemessenen Größe!*PUNKT*
 
uNrEL2K schrieb:
1 Millionen Stunden MTBF hindert die OCZ SSDs auch nicht davon die höchste Rücklaufquote zuhaben, genauso wenig tut das die On-the-fly-Kompression der Sandforce SSDs welche OCZ verkauft, obwohl der Flash doch weniger als bei traditionellen belastet wird, ... wie bei den anderen SSD-Controllern wie z.B. von Intel & Marvell.

Ich hoffe du beziehst diese Feststellung nicht aus der letzten Statistik von behardware.fr. Diese basiert nämlich auf Verkaufszahlen aus dem ca. ersten Quartal von 2010. Ergo sind dort weder Sandforce-SSD noch m.E. besonders fehleranfällige SSD mit Marvellcontroller, wie die C300, berücksichtigt.

uNrEL2K schrieb:
@WeltalsWille
die 20GB/Tag gelten für die X18-M / X25-M 34nm Serie. (Postville G2)

In mir bekannten Artikeln führt intel für diese SSD-Generation mehr Schreibbudget an.

http://www.electroiq.com/index/disp.../08/intels-take-on-the-hdd-vs-ssd-debate.html
 
Zuletzt bearbeitet:
WeltalsWille schrieb:
Ich hoffe du beziehst diese Feststellung nicht aus der letzten Statistik von behardware.fr. Diese basiert nämlich auf Verkaufszahlen aus dem ca. ersten Quartal von 2010.

Es gibt eine neue Statistik.

In mir bekannten Artikeln führt intel für diese SSD-Generation mehr Schreibbudget an.

http://www.electroiq.com/index/disp.../08/intels-take-on-the-hdd-vs-ssd-debate.html

Der ist auch aus 2008 ;)
Edit: sind ja die selben SSD wie aus meinem PDF xD
Our MLC SSD can allow a user to write 100GB/day every day for five years without wearing out the drive

Garantiert wird nichts ;)
 
Zuletzt bearbeitet:
uNrEL2K schrieb:

Danke. Interessant; C300-Besitzer sind offensichlich leidensfähiger.

uNrEL2K schrieb:
Der ist auch aus 2008
Edit: sind ja die selben SSD wie aus meinem PDF xD
Garantiert wird nichts ;)

Eventuell ist in meiner Quelle die Generation 1 (G1) gemeint. Daraus läßt sich aber nicht die Differenz zwischen 20GB/d und 100GB/d erklären.
 
C300-Besitzer sind offensichlich leidensfähiger.

ja? :P

es sind schon die X25-M etc. mit 34nm Nand gemeint, da der Artikel auf diese verlinkt. Man muss aber auf die genaue Formulierung achten.
Im PDF ist von Minimum 20 GB / day, sprich, garantierter Datenmenge die Rede, der Artikel von dir sagt nur, dass es möglich ist 100GB täglich zu schreiben.... wenn 20 GB täglich garantiert sind, reicht das imho ;)
 
Die Nachteile der kleineren Chips find ich auch heftig (--> Lebenssauer). Aber wie schon gesagt wurde, kommt es immer auf die Relation an. Bin mit meiner Oldschool-Vertex 2E jedenfalls sehr zufrieden, nur leider zu klein :/
 
Durch meine Intel G2 80Gb habe ich bis jetzt 4,7 Tb gejagt. Die hat laut Intel-Tool eine Gesundheit von 100% und funktioniert wie am ersten Tag.
 
uNrEL2K schrieb:
Die MTBF ist ein Witz
Nur wenn man sie nicht versteht. "Mean Time Between Failures" sagt doch schon alles aus. Das ist der Erwartungswert des Zeitraums zwischen zwei Ausfällen eines Geräts. Die MTBF als Zeiteinheit zu betrachten ist natürlich falsch. Das liegt einfach daran, dass sie nur theoretisch bestimmt werden kann. Niemand hat die Zeit oder das Geld, einige hundert Exemplare eines Produkts über so lange Zeiträume zu betreiben, um die durchschnittliche Lebensdauer tatsächlich fest zu stellen. Stattdessen wird sie über die Ausfallrate nach kürzeren Zeiträumen und ggf. erschwerten Testbedingungen berechnet. Und hier gibt es nunmal eine große Anzahl von Geräten, die während des betrachteten Zeitraums bzw. der veranschlagten Nutzungsdauer nicht kaputt gehen und deshalb zu einer - statistisch gesehen - sehr hohen Lebensdauer führen.
 
Zuletzt bearbeitet:
Joshua2go:

Und welche Firmware nutzt du für die? Und wieviele "wiederzugewiesene Sektoren" hast du? Findest alles im Intel-Tool. Bei mir sinds schon 3 Sektoren, wobei das mit 2,8 TB noch wenige sind. Hab auch die 80er, und steig jetzt auf ne 160er um, weil mir die 25nm nicht gefallen. Ich erwarte von meiner 160er dann ne zigfach höhere Lebensdauer, weil bei mir nichtmal 50% voll ist. In 5-10 Jahren kann man dann ja wieder ne neue kaufen. Dann lohnt es sich auch.
 
eVolutionplayer schrieb:
weiß jemand ungefair wie lange eine SSD hält wenn diese 24h am tag genutzt wird und ständig schreib und Lesezugriffe ausgesetzt ist ? länger als eine normale HDD ?
Das hängt von der Geschriebenen Datenmenge und der Art der Schreibzugriffe ab, denn seq. Schreiben großer Dateien belastet weniger als kleine Randomzugriffe. Der Rest sollte in der Diskussion schon halbwegs klar geworden sein.

Apocaliptica schrieb:
Kann dir keiner wirklich beantworten, da die MTBF nicht von einer, sondern von mehreren Zig/Hundert Platten ermittelt und das arithmetische Mittel genommen wird.
Vor allem ist es so, dass technische Geräte zuert eine sehr hohe Ausfallrate haben die dann auch sehr bald stark abfällt um dann eine Weile recht konstant zu bleiben. Gegen Ende der Lebensdauer steigt die Ausfalrate dann wieder zunehmend an und von dieser Badwannenfunktion wird nur der mittlere Teil mit der geringsten Ausfallrate für die Berechnung der MTBF herangezogen. Dann nutzt die Angaben alleine nichts, ohne die Testbedingungen zu kennen, also z.B. die Temperatur, Luftfeuchtigkeit, etc., denn die Angaben beziehen sich nur auf diese Bedingungen. Enthalten die etwa eine Temperatur von genau 25°C, so kann man das in seinem Rechner schon mal kaum sicherstellen und damit ist eine höhrere Ausfallrate durch wahrscheinlich. Außerdem prüft keine neutraler Aufseher, wie ein Hersteller die MTBF ermittelt, auch weil die eben bei neuen Geräte mehr errechnet als getestet wird, wann kämen die dann sonst endlich mal auf den Markt? Wollte man 2 Millionen Stunden experiementell belegen, dann müsste man schon mindesten 20.000 SSD für durch die Einlaufphase (1 bis 2 Monate) bringen und dann mindestens 1000 Stunden arbeiten lassen, was nachmal 42 Tage sind. Dann dürften nur 10 Ausfallen vorkommen. Davor mußt Du die 20.000 noch erst in Serie produzieren, braucht einen klimatisierten Raum und ein Testsystem für 20.000 SSDs, die sollen ja auch was tun und nicht nur eingeschaltet sein und Fehler muss man ja auch bemerken können. Glaubt hier einer wirklich, OCZ betreibt so einen Aufwand und kann trotzdem als erster mit SF 2200 SSDs auf dem Markt sein?

Oktanius schrieb:
Zum Vergleich, eine normale HDD mit einer MTBF von 3 Jahren kann in etwa 10 Mrd. Schreibzyklen ausführen.
Bei HDDs kann man meines Wissens die magnetische Ausrichtung des Mediums unbegrenzt oft ändern, alleine die Mechhanik dafür ist der begrenzende Faktor.
Oktanius schrieb:
Nehmen wir noch als Beispiel eine VelociRaptor. Diese hat eine MTBF von 1.4 Mio. Stunden. Da das Jahr 8760 Std. hat, wäre die MTBF nach 139 Jahren erreicht. :freak: Das schon früher mechanische Probleme auftreten können ist klar.
Man kann eine MTBF nicht in Jahr Lebenserwartung umrechnen!!
Oktanius schrieb:
Ich behaupte immer noch das eine Raptor als Systemplatte länger im 24/7 Betrieb hält als eine MLC SSD
Wenn man viel schreibt, JA, liest man die Daten nur, dann NEIN.
Oktanius schrieb:
Lebensdauer von SSD Chips (Quelle Wikipedia)

3.000 (MLC in 25-nm-Fertigung)
5.000 (MLC in 34-nm-Fertigung)
10.000 (MLC in 50-nm-Fertigung)
100.000 (SLC in 50-nm-Fertigung)
bis zu 5 Mio. (selektierte SLC-Chips)
Wobei den frühen MLC NANDs in 25nm sogar nur 1000 Zyklen nachgesagt werden, welshalb sich auch Intel sein Postville Refresh (320er) nicht im Dezember 2010 gebracht hat und Crucial m4 auch erst jetzt auf den Markt gekommen ist. OCZ hat diese NANDs dennoch verbaut, die haben ja schon im Dezember 2010 auf 25nm umgestellt. Durawrite senkt dann eben die Schreibrate, sollte die Zyklen zu schnell aufgebraucht werden.
el-mujo schrieb:
Intel zeigt dabei eine besondere Qualitätsleistung: 0,6% Rückläuferquote, das toppt sogar Enterprise-Spindelplatten.
Wenn du also auf Nummer sicher gehen willst, kauf eine Intel.
Nach aktuellen Zahlen nur noch 0.3%, aber Intel hat ja auch alles in einer Hand, die fertigen NANDs, Controller und wohl auch das Board selbst, immerhin verkaufen sie als einziger SSD Hersteller auch Mainbaords, die ja nochmal deutlich komplexer aufgebaut sind als die Platine einer SSD. Da ist Qualität dann leichter zu erreichen als wenn man sich irgendeinen günstigen Lohnlöter in China damit beauftragt, denn man kaum kennt.
el-mujo schrieb:
Die demnächst aufkommende wahrscheinich letzte Generation, die den alten Controller verwendet, wird noch zusätzlich Stützkondensatoren auf dem Board haben, die die Platte bei Spannungsabfall geordnet herunterfahren lässt, damit die Datenintegrität erhalten bleibt, ein Feature aus dem Server-Segment.
Ich denke aber auch die Crucial-Dinger haben eine sehr gute Qualität, da steckt schließlich Micron dahinter wenn ich mich nicht irre.
Richtig, Crucial ist der Markenname von Micron für den Cosumerbereich.


Zapp_Brannigan schrieb:
tage? stunden? jahre? sekunden? äpfel? birnen? osterhasen? ohne einheit nutz die aussage garnichts.
Lebensdauer von NAND wird in PE Zyklen angegeben.
Maertsch schrieb:
eine Intel X25-M hat eine MTBF von 1.2mio Stunden. Was umgerechnet 136 Jahre wären.
S.o., man kann die MTBF nicht in Jahr umrechnen.

Zapp_Brannigan schrieb:
sind wohl aber doch die schreibzyklen gemeint, denn 3000 stunden wäre recht wenig für eine zelle.
Natürlich sind das PE Zyklen, alles andere wäre auch totaler Unsinn.

Cempeg schrieb:
Frage: Warum wird die Fertigungstechnik immer weiter verkleinert,
wenn doch dadurch die Lebensdauer verkürzt wird?

Damit meine ich z.B.:
10.000 (MLC in 50-nm-Fertigung)
3.000 (MLC in 25-nm-Fertigung)
Das stimmt so auch nicht, Intels 25nm NAND gibt es auch spezifiziert mit 5000 Zyklen. Microns wird mit 3000 spezifiziert. Öffentliche Quellen dazu sind aber seltens und meißt ungenau, da die Hersteller die Datenblätter nicht veröffentlichen.
Cempeg schrieb:
Sind die 25nm Versionen doppelt so schnell? Aber eher passt dann mehr in eine SSD rein
Was ist der Vorteil der 25-nm-Fertigung die die gedrittelte Lebensdauer rechtfertigt?
Die sinf schneller, was aber nicht an der Struktur liegt sondern am Interface und Organisation. Hauptvorteil sind der Preis und die Kapazität. Kostet sie nur ein Viertel und hält dafür ein Drittel so lange, dann ist das doch ein Vorteil. Du könntest Du 4 SSD fürs gleiche Geld kaufen, die halten dann nur 1/3 der Zeit, aber wenn die 50nm am Ende wäre, hättest Du noch eine neue 25nm über.
Onkelhitman schrieb:
Fraglich auch warum die so einen Quatsch überhaupt machen. SSD beschneiden um die Preise zu erniedrigen um damit die Preise der "schnelleren" zu rechtfertigen? Das würde doch im Umkehrschluss bedeuten, da wahrscheinlich die selben Bauteile verwendet werden, dass die SSD generell schon zu teuer verkauft wird. Immerhin macht man mit den Langsamen ja immer noch Gewinn sonst würde man sie nicht verkaufen, oder nur für OEMs...
Du gehst von der Annahme aus, das die identisch mit einer Vertex3 sind, aber ich würde ehr vermuten, dass da auch andere, günstigere NANDs drinne verbaut sind.

Dies NANDs dürften weniger hochwertig sein und weniger lange halten, aber man spricht mit dem Produkt ja dann nicht die Zielgruppe an, die das maximale haben will und hofft darauf, dass die angesprochene Zielgruppe die SSD auch weniger intensiv nutzt. Dann halt die auch mit den schlechten NANDs lange genug durch um den Preisvorteil nicht wieder nur für Garantiekosten draufgehen zu lassen.

uNrEL2K schrieb:
das bedeutet wohl eher bestenfalls gleichwertig, potenziell schlechter. Da man nichts genaueres von Anand's Aussagen ableiten kann bleibt weiterhin ein mulmiges Gefühl im Magen bei Spectek. "Billig-NAND" wird wohl auch zurecht billiger verkauft.
Spectek ist die Resteverwertung von Micon und bewirbt auf seine Hompage die NAND nicht für die Verwendung in SSDs. Warum wohl? Die guten NANDs mit hoher Lebenserwartung werden von Micron unter eigenem Namen teuerer verkauft und was denen für eine SSD zu minderwertig ist, dass verramscht Spectek für minderwertige Anwendungen. Es ist ja halt ein Unterschied ob ich 16 NANDs in eine SSD verlöte und die anderen 15 zusammen mit einem teuren SSD Controller wegwerfen muß, wenn ein NAND kaputt geht oder ich zwei NANDs in einem USB Stick für den Wühltisch verbaue (wo der Kunde den vermutlich nicht mal umtauscht wenn er erst nach ein paar Wochen kaputt geht).

Da der SF Controller den Ausfall eiens Die ausgleichen kann (deswegen braucht er ja auch immmer ein Die für seine Fehlerkorrektur RAISE), sieht die Rechnung für OCZ halt anders aus. Die SSD ist erst Schrott, wenn 2 der 16NANDs ausgefallen sind.

Trotzdem bleiben Spectek NANDs minderwertige NANDs und niemand wird denen die 3000 Zyklen der üblichen Micron NANDs garantieren, auch wenn Anand das so nicht schreibt, aber der kuschelt ja im Moment sowieso mit OCZ. Beim TRIM Test der Vertex3 war diese eindeutlich nicht gefoltert, denn 20 min. 4k Random Writes rechen eben nicht aus die Kapazität doppelt zu füllen.
WeltalsWille schrieb:
Woher stammt dieser Wert? In einigen recht seriösen Artikeln wurde kolportiert, dass intel-SSD eine Writeamplifikation von ca. 1,1 erreichen.
Vergiss mal alle Aussagen über die Writeamplification, die ist je nach Art der Schreibzugriffe (bei SF auch der Daten) sehr unterschiedlich. SF wird auch niemal 0.5 oder 0.6 schaffen, wenn da nur RAR Archive und H264 kodierte Video drauf abgelegt werden.

In den teschnischen Daten der X25-M gibt Intel für die G1 und G2 an, dass diese 5 Jahre halen, wenn die täglich mit 20GB normaler Workload beschrieben werden. Bei nur Random 4k Zugriffen z.B. wird da deutlich weniger angegeben. Das heißt auch nicht, dass die dann am nächten Tag platt wäre.

SmartSirius schrieb:
WeltAlsWille:

Das ist nicht ganz richtig. Du hast zwar anfangs richtig gedacht, aber nicht alles stimmt. 1. legt Intel eine Schreibleistung von 20 GB/Tag für 5 Jahre zu Grunde. Dann dürfte dein SSD kaputtgeschrieben sein.
NEIN, das ist doch keine Anleitung zum "Wie schreibe ich meine SSD tod", das ist eine Aussage, dass die SSD unter der Belastung mindestens 5 Jahre halten wird.
SmartSirius schrieb:
2. - es gilt aber nach wie vor, dass die meisten SSDs vorher kaputtgehen,
Unsinn, wie kommst Du darauf? Die SSDs sind doch noch keine 5 Jahr am Markt und die ersten hatten ganz andere Controller und NANDs. Wenn überhaupt, dann sterben jetzt die ersten SSD mit dem Indilinx Barefoot nach so 2 Jahren intensiver Nutzung. Der hat aber auch ein sehr aggressives GC und anfangs kein TRIM.
SmartSirius schrieb:
nämlich dann, wenn der Controller zuviele RandomWrites hinter sich hatte! Und da gilt für die Intel Postville G2 z.b. 7,5 TB Schreiblastung (Random Writes) bzw. 15 TB für die 160 GB Variante. Für die neuere Generation wurden diese Werte verdoppelt (also 30 /60 TB). Setzt man also die SSD als Systemlaufwerk ein, muss man zwecks Langlebigkeit auf die "Random-Durability" schauen. Setzt man die SSD aber für z.b. Spiele ein, oder Storagezwecke, sollte man darauf achten, dass man nicht mehr als 10 GB/Tag schreibt, ansonsten könnte es sein, dass die SSD schon nach 5-10 Jahren die Grätsche macht.
Die 20GB/Tag von Intel beziehen sich auf den normalen Einsatz als Systemlaufwerk und da kommen ja nun sehr gemsichte Schreibzugriffe vor.
SmartSirius schrieb:
SLC-SSDs vertragen übrigens wesentlich mehr Random-Writes.
Aber nur, weil die einfach mehr Schreibzyklen vertragen, ob Random oder nicht.
SmartSirius schrieb:
Warum aber geht eine SSD bei Random-Writes kaputt? Das ist einfach zu erklären. Weil ein Controller eben auch nicht perfekt ist, und nur für eine bestimmte Lebensdauer (MTBF in Stunden) vorgesehen ist
Zuerst dachte ich noch , Du hättest Ahnung aber bei dem Unsinn in diesem Satz ist es damit auch vorbei. Die MTBF habe ich oben schon erklärt und ich möchte mal den Halbleiter sehen, der in 100 Jahren noch funktioniert. Das dürfte wegen der chemischen Prozesse darin kein aktueller Halbleiter überleben, nicht bei den geringen Strukturbreiten heute.
SmartSirius schrieb:
und weil natürlich die Zellen viel schneller "verbraucht" werden (weil viel Write Amplifikation anfällt) als wenn man nur Daten am Stück (sequentiell) schreibt.
Richtig und aber hier kann man Dein Post auch so stehen lassen.
 
Also, wenn "wiederzugewiesene Sektoren"="Re-allocated Sector Count " sind, steht bei mir da 46 . Firmware 03M2 .
 
Zuletzt bearbeitet:
riDDi schrieb:
Nur wenn man sie nicht versteht. "Mean Time Between Failures" sagt doch schon alles aus.
Das sagt eben genau nicht das aus, was man da liest. Es ist ein statistischer Wert, der nicht mehr aussagt als dass ein 2 Millionen Geräten im Einsatz jede Stunde eines ausfallen dürfte, sofern sie nicht am Anfang oder Ende des Lebenszyklusses stehen und nach genau definierten Bedingungen eingestzt sind. Das ist überhaupt nicht praxisrelevant.
riDDi schrieb:
Das ist der Erwartungswert des Zeitraums zwischen zwei Ausfällen eines Geräts. Die MTBF als Zeiteinheit zu betrachten ist natürlich falsch. Das liegt einfach daran, dass sie nur theoretisch bestimmt werden kann. Niemand hat die Zeit oder das Geld, einige hundert Exemplare eines Produkts über so lange Zeiträume zu betreiben, um die durchschnittliche Lebensdauer tatsächlich fest zu stellen.
Bei Zeiten im Millionenberich müsten man einige 1000 bis 10.000 Geräte testen.
riDDi schrieb:
Stattdessen wird sie über die Ausfallrate nach kürzeren Zeiträumen und ggf. erschwerten Testbedingungen berechnet. Und hier gibt es nunmal eine große Anzahl von Geräten, die während des betrachteten Zeitraums bzw. der veranschlagten Nutzungsdauer nicht kaputt gehen und deshalb zu einer - statistisch gesehen - sehr hohen Lebensdauer führen.
Du machst immer noch den Fehler die Ausfallrate mit der Lebensdauer zu vermischen. Das eine hat mit dem anderen aber garnichts zu tun, die MTBF definiert sich als Ausfallrate innerhalb der vorgegebenen Nutzungsdauer und selbst dort nach der kritischen Anfangsphase. Wer bestenfalls eine handvoll gleicher SSDs hat, für den spielt die schon gleich keien Rolle. Wer in einem Rechenzentrum 1000 Stück im Einsatz hat, der kann damit bestenfalls vorhersagen, dass er alle 2000 Betriebsstunden einen Ausfall erwarten muß.
 
Holt schrieb:
Bei Zeiten im Millionenberich müsten man einige 1000 bis 10.000 Geräte testen.
Auf welcher Grundlage stellst du diese Behauptung auf? IMO spricht mathematisch nichts gegen die Aussagekräftigkeit bei <1000 Stichproben. Man darf nur nicht den Anspruch haben, den Wert auf einige zehntausend Stunden genau zu berechnen, aber das will man auch nicht.

Holt schrieb:
Du machst immer noch den Fehler die Ausfallrate mit der Lebensdauer zu vermischen.
Weil man diese Werte nunmal nicht strikt voneinander trennen kann. Man darf nur nicht den Fehler machen den Wert mit der erwarteten Lebensdauer eines einzelnen Geräts gleichzusetzen.
Natürlich hat die MTBF für den Endverbraucher wenig Aussagekraft, aber wer liest schon Datenblätter und kauft seine Hardware danach.
 
riDDi schrieb:
Auf welcher Grundlage stellst du diese Behauptung auf? IMO spricht mathematisch nichts gegen die Aussagekräftigkeit bei <1000 Stichproben. Man darf nur nicht den Anspruch haben, den Wert auf einige zehntausend Stunden genau zu berechnen, aber das will man auch nicht.
Wenn Du 100 Geräte über 1000 Stunden testet und keinen Ausfall hast, dann kannst Du bestenfalls die Aussage belegen >100.000 MTBF. Den Rest musst Du dann hochrechnen und da wir ja darüber reden, was man experimentell machen müsste, braucht man schon:
Anzahl Geräte x Teststunden > MTBF
Dazu müssen die Teststunden innerhalb der vom Hersteller vorgesehnen Nutzungsdauer (wohl 5 Jahre bei den meißten SSDs) abzüglich der Einlaufphase sein. Bei vollen 4 Jahren Testdauer wäre das also 35.000 Stunden und mit 58 Geräten könntest/dürftest Du dann gerade einen Ausfall erleben. Da ein Ereignis aber statistisch nicht relevant ist, müßtest Du ein vielfaches der Anzahl verwenden.
riDDi schrieb:
Weil man diese Werte nunmal nicht strikt voneinander trennen kann. Man darf nur nicht den Fehler machen den Wert mit der erwarteten Lebensdauer eines einzelnen Geräts gleichzusetzen.
Natürlich hat die MTBF für den Endverbraucher wenig Aussagekraft, aber wer liest schon Datenblätter und kauft seine Hardware danach.
Falsch, die sind strikt von einander getrennt! Das ergibt sich doch aus der Definition der MTBF als einen Wert der während der vom Hersteller vorgesehnen Nutzungsdauer gültig ist. Nach dieser Zeit steigt auch die Ausfallrate an, weil eben die Lebensdauer nicht durch die MTBF ausgedrückt wird.
 
Holt? Was war jetzt dein Problem? Stand doch alles genau so da. Einfach mal zusammenhängende Sätze lesen. Mit dem "Dass die SSD vorher kaputtgeht" - das ist so ein Beispiel. Liest du den kompletten Satz mit dem 1. Punkt dieses Satzes, ergibt sich auch das korrekte Sinnbild. Nämlich, dass die SSDs beim Random-Write sterben, daher auch die aktuelle Angabe von ca. 9 Jahren Restlebenszeit für meine alte 80er Postville G2-SSD. 9 Jahre = Random Write, danach kanns eben noch ne Weile laufen, es kann aber auch innerhalb weniger Tage/Wochen kaputtgehen. Da die Intel ein gutes Wear-Leveling hat, muss man davon ausgehen, dass die nicht allzulange nach der Zeit kaputt sein wird, also eben totgeschrieben, weil alle Zellen sehr gleichmäßig abgenutzt werden. Das ist übrigens bei meiner alten "Jmicron SSD von Kingston (Toshiba 50nm-Chips = 10000 Zyklen) auch so! Normale Zyklen = ca. 1000, durchschnittliche Zyklen = ca. 1050, maximale Zyklen ca 1100. Also ziemlich gutes Wearleveling, wie man sieht und das bei einer so steinalten SSD.

Und was stand im ersten Satz? Na, dass SSDs gewöhnlich nicht bei normalen "sequentiellen Schreiboperationen" kaputtgehen, bzw. kaputtgeschrieben werden. Liest du den 2. Satz in einem Rutsch dazu, verstehste es. Ich für mich sage jedenfalls, dass 9 Jahre jetzt nicht so viel ist, wenn man bedenkt, dass die SSD etwas mehr als 1 Jahr alt ist jetzt.

Edit: Holt. Ich garantiere dir, dass manche SSDs in 100 Jahren sicherlich noch funktionieren werden. Z.b. meine Intel Postville, weil ich die nämlich demnächst nur noch als schnelle Spiele-SSD einsetzen werde und für andere Kleinigkeiten und somit kaum noch Random-Writes vorkommen werden und dann wird das Tool sicherlich seine Lebenserwartung hochschrauben :). Eine 160er wird günstig angeschafft für den damals selben Preis (200 Euro) wohlgemerkt ;) Von 25nm halte ich nichts, da mir Langlebigkeit wichtiger ist als das letzte Quentchen Leistung. Zudem ist die 160er sowieso noch ein bissl schneller als die 80er. Und wenn du auch nicht den ganzen Platz formatierst, kannste sowohl Langlebigkeit als auch Performance drastisch steigern (IOPS!).
 
Zuletzt bearbeitet: (Kurzer Edit)
Holt schrieb:
Da ein Ereignis aber statistisch nicht relevant ist
Das wäre nur der Fall, wenn die Auswahl der Geräte für den Versuch nicht repräsentativ ist.

Holt schrieb:
Falsch, die sind strikt von einander getrennt!
Ich zitiere dich mal:
Holt schrieb:
Wer in einem Rechenzentrum 1000 Stück im Einsatz hat, der kann damit bestenfalls vorhersagen, dass er alle 2000 Betriebsstunden einen Ausfall erwarten muß.
 
Zurück
Oben