News Feldstudie: SLC-SSDs nicht zuverlässiger als MLC-Laufwerke

Da mich das gerade störte, da ich auf die schnelle es nicht genau wusste.
Info zu PE-Zyklen:
Bei SSDs können Daten, so wie bei HDDs, nicht einfach überschrieben werden. Der Löschvorgang ist vielmehr eine komplexere Angelegenheit. Daten können nur in so genannten Blöcken gelöscht werden. Ein Block besteht entweder aus 128 so genannten "Pages" mit je 4 KiB, also 512 KiB, oder aus 256 Pages mit je 8 KiB, also 2 MiB. Diese Löschvorgänge nennt man PE-Zyklen (programm erase). Die Speicherzellen werden dabei - auf ziemlich rabiate Weise - komplett mit Elektronen geflutet. Leider führt jeder PE-Zyklus zur Abnutzung der "Tunnel Oxyde", ein Material, das für die Ladungserhaltung verantwortlich ist.
Quelle:pc-magazin.de

Worauf ich eigentlich hinaus wollte und nicht erst nicht sicher war, ob es sich dabei um die PE-Zyklen handelt:
In den Farmen laufen die SSDs ja quasi dauerhaft. Also ein total anderes Szenario als im Endkundenbereich, wo die HDDs und SSDs fast täglich an- und ausgeschaltet werden.
Dies ist für die Mechanik von HDDs 'anstrengend', genauso wie eine Lastveränderung für rein elektronische Speichermedien ala SSDs.

Der Titel des Threads bezieht sich aber eigentlich auf den Vergleich zum Ausfall zwischen SLC und MLC. Das dort aber ähnliche Werte erreicht werden finde ich dann nicht verwunderlich, wenn man sich die Tabelle mal genau ansieht. Was die Chips angeht, so sind die SLCs definitiv besser.

lg
fire
 
surogat schrieb:
Ich komme aus dem professionellen Bereich der IT und hatte es mit hunderten, wenn nicht sogar tausenden unterschiedlichen Modellen zu tun. War gewissermaßen ein Teil meines Berufes. Meine Entscheidung beruhte auf tägliche Erfahrungen. Es ist ja nicht so, dass ich ganz darauf verzichte.

Die Technologie an sich hat sich gar nicht so sehr verändert in den letzten 10 Jahren, da gibt es ein paar neue Controller nun gut. Grundlegend ist diese Technologie auf Flash-Chip Basis gleich geblieben. MLC und SLC Varianten gab es schon immer.

Komisch, wir haben in der Firma aber recht viele(nicht nur) SSDs ... auch im Serverbereich ... Scheinen unsere Admins ja nur mist zu machen :-)
Alle unsere PCs haben SSDs bekommen und im Serverbereich dort, wo performance nötig ist ebenso. Wir sind "nur" 50 Mitarbeiter, aber von nennenswerten Problemen haben wir noch nichts mitbekommen. Eher umgekehrt, wir kaufen tendentiell noch mehr:)

Kann deine generelle Aussage daher nicht wirklich nachvollziehen.
 
Also ob das Ganze wirklich aussagefähig ist. Goggle wird doch die SSD ganz anders belasten als ein Privatnutzer.

Und die Sachen mit den Datenhaltbarkeit und Strom. Ist doch auch nicht relevant. Wer nutzt eine SSD als Backup und tut dann jahrelang keine Aktualisierung durchführen? Selbst wenn es nun eine 6TB SSD gäbe, und würde die als Backup nutzen. Würde ich 100% in einem Jahr meine Daten auch Aktualisieren also Strom drauf geben.

Man kann etwas auch zerreden.
 
oemmes schrieb:
Wie auch immer, für den Normalzernutzer und den Massenmarkt ist die Studie ungefähr so interessant wie ne Rolle Klopapier.

Nein, Klopapier brauche ich :)

Spaß beiseite:
Du hast natürlich recht, da kein normaler Nutzer auch nur annähend an die Menge
an geschriebenen Daten herankommt.
Aber es zeigt einen Trend, daher schon brauchbar.

Haarsträubend finde ich nur, wie hier im Forum wieder alles durcheinander geworfen wird.
Wenn ihr über den Wechsel von HD zu SSD oder umgekehrt sprecht: schön.
Aber was hat das mit einem Backup zu tun?
Daten ohne Backup sind per Definition unwichtig.

Zudem werden bei Google ja wohl eher Platten speziell für Server eingesetzt,
die hat in der Regel auch kein Privatmann zu Hause.
Folglich kann man das Ergebnis auch nicht 1:1 bewerten.

Was auch vernachlässigt wird:
Für mich als Privatman ist es schon ein Unterschied, ob ich einen Fehler oder einen Brick bekomme.
Mit dem ersten kann ich leben, mit dem zweiten schon schlechter.
Daher wäre das eher interessant: Was wird eher zum Brick? SSD oder HDD?
 
Zuletzt bearbeitet:
core2e6300 schrieb:
.....
Es ist schon toll solch eine "Ausbildung/Reputation" zu haben und dann eine ziemlich oberflächige und sogar fehlerbehaftete Studie zu erstellen, ....
...

Meine Antwort bezog sich auf die Frage, wieso das Ganze eine News wert ist und auf die Frage Zitat:
Ich mach hier gleich auch mal so eine Studie. Komm ich dann auch auf die Hauptseite hier?

Verstanden???​

Zu deinem:
Und wieso wird häufig die Meinung vertreten, dass Leute, die an der Uni arbeiten, schlauer oder besser sind, als Leute, die in z. B. Privatunternehmen arbeiten?
Wer vertritt die Meinung, du?
Zwei der drei Autoren, nämlich Raghav Lagisetty und Arif Merchant arbeiten übrigens in der Privatwirtschaft oder ist Google kein Privatunternehmen mehr. Dazu hättest du nur den dritten Satz der Computerbase Zusammenfassung (Artikel) lesen müssen, nicht mal das "Paper".

Schade nur dass sie bei Google arbeiten, denn dein Kommentar:
Nicht jeder, der bei oder im Auftrag von Google arbeitet ist ein Einstein...
soll wohl suggerieren, dass die Autoren nicht gerade die hellsten sind. Wolltest du das damit andeuten? Kleine Anmerkung meinerseits, nicht jeder der hier im CB Forum schreibt ist ein Einstein.
Zusammenfassend:
UNI (--), Privatunternehmen (++), außer es ist Google das ist auch wieder (--), ach ja und ausländische Akademiker sind sowieso (---) [wenn man drei paar Socken kauft, bekommt man den Titel als Geschenk dazu]
ergibt summa summarum ein fettes (------)

Etwa weil ein, je nach Studiengang, 50-400 Seiten langer Text verfasst werden muss?

Vielleicht schreibst du mal diesen Arif Merchant an, der kann dir bestimmt sagen, ob in seinem Fall ein 50 Seiten Text ausreichend war. Bei der Stanford University könnte ich mir durchaus vorstellen, dass es 70 Seiten waren, wobei Bombay ..

Arif Merchant is a Research Scientist with the Storage Analytics group at Google, where he studies interactions between components of the storage stack. Prior to this, he was with HP Labs, where he worked on storage QoS, distributed storage systems, and stochastic models of storage. He holds the B.Tech. degree from IIT Bombay and the Ph.D. in Computer Science from Stanford University. He is an ACM Distinguished Scientist.​
 
surogat schrieb:
Du hast die Frage nicht beantwortet. Deshalb stelle ich sie nochmal: Was hat sich denn da gewaltig weiterentwickelt?

Na bessere NAND Fertigung (Stichwort: 3D NAND) und intelligentere Firmware/Controller. Weiß nicht wie das an einem vorbeigegangen sein kann.

surogat schrieb:
Da bin ich aber froh das google das kann. :)

Sicher?
In summary, we find that the flash drives in our study
experience significantly lower replacement rates (within
their rated lifetime) than hard disk drives. On the downside,
they experience significantly higher rates of uncorrectable
errors than hard disk drives.

Und besonders bei der Zuverlässigkeit der Daten haben SSDs sich in den letzten Jahren verbessert. Kleinere Fertigungsverfahren und damit geringere PE Zyklen konnten durch bessere Logiken abgefangen werden.
 
Zuletzt bearbeitet:
Shadow Complex schrieb:
Na bessere NAND Fertigung (Stichwort: 3D NAND) und intelligentere Firmware/Controller. Weiß nicht wie das an einem vorbeigegangen sein kann.

Naja, da gibt es auch einige Leute welche viele der neuen Technologien für schlechter halten, als die Alten. Interessant an der Studie sind vor allem die Daten zur Fehlerhäufigkeit, welche ja zum Teil anders sind als erwartet. Zum Beispiel, dass das Alter mehr eine Rolle zu spielen scheint, als die Belastung, etc.
 
Die Zahl der Laufwerke sei „statistisch signifikant“ – wie viele SSDs konkret Berücksichtigung fanden, bleibt jedoch geheim
Was ist das bitte für ne dubiose Studie?!

Nach allem, was ich bislang an der Uni zum Thema wissenschaftliches Arbeiten gelernt habe, ist eine der wichtigsten, absolut zentralen Anforderungen an eine Studie, dass sie replizierbar ist! Aus dem Text sollte genauestens hervorgehen, was wie gemacht wurde, so dass es für andere Forscher möglich ist, das Experiment zu wiederholen und dabei hoffentlich zu den gleichen Ergebnissen zu kommen. Die verwendeten SSD-Modelle und deren Anzahl geheim zu halten, geht mal gar nicht.

Die Studie ließt sich so, als hätte sich hier wer ziemlich viel Arbeit gemacht. Aber mit diesen äußerst schwammigen Angaben ist es letztlich trotzdem ein klarer Fall für die Tonne. Schade. :(
 
Sinnfrei schrieb:
Naja, da gibt es auch einige Leute welche viele der neuen Technologien für schlechter halten, als die Alten.

Ja das habe ich ja auch gesagt. Je kleiner die Strukturbreite, desto weniger Zyklen. Bessere Controller können das teilweise ausgleichen.
Das ist ja auch was Holt daran stört. MLC in 50 nm hat noch 10000 Zyklen als Limit und nicht 3000. Ich denke nicht dass Google besonders schlechte SSDs verwendet haben.

Sinnfrei schrieb:
Zum Beispiel, dass das Alter mehr eine Rolle zu spielen scheint, als die Belastung, etc.

Je höher das Alter der SSD, desto älter ist sie (You don't say...) ergo auch die zur Verfügung stehende Technologie eingeschränkter.
 
Shadow Complex schrieb:
Na bessere NAND Fertigung (Stichwort: 3D NAND) und intelligentere Firmware/Controller. Weiß nicht wie das an einem vorbeigegangen sein kann.
3D NAND sind also schon seit einigen Jahren im allgemeinen Gebrauch? Sicher? Meines Wissens sind bisher lediglich Prototypen erhältlich. Ich dachte wird diskutieren hier im Zusammenhang mit der bereits seit den letzten 4-5 Jahren erhältlichen Technologie?

Was meine Vermutung bestätigt, dass da bisher überhaupt keinerlei grundlegend neue Technologie erhältlich war. Die wird es erst im Jahr 2016 geben.

Was die "intelligentere Firmware/Controller" betrifft, so handelt es sich ohenehin nur in Hardware gegossene Algorithmen. Deren einzige Innovation bestand daraus, noch mehr Reservespeicher abzuzwacken und noch effizientere Fehlerkorrekturen anzubieten. Das ist nicht wirklich bahnbrechend.

Fazit: Die Technologie von vor 10 Jahren ist nahezu identisch mit der jetzigen Generation.
 
Gehört 2014 nicht zu den letzten 10 Jahren? Seit 2014 verkauft Samsung SSD mit 3D NAND. Ich dachte du wärst in der IT aktiv oder hab ich das falsch verstanden?
 
surogat schrieb:
Das spiegelt meine eigenen Erfahrungen wieder. Irgendwo im Forum hatte ich das auch mal mit irgendwem diskutiert. Ich bin nämlich vor ein paar Jahren wieder auf herkömmliche Festplatten umgestiegen.

wirklich jetzt ? auch mit dem Betriebssystem ?? :freak:

ich bin seit 6 Jahren super zufrieden.. und es ist immer noch die erste SSD wo mein Betriebssystem drau fläuft.

Spiele werden auf eine 2. SSD ausgelagert und Fotos/Filme auf eine HDD. Möchte auch ehrlich gesagt die Geschwindigkeit nicht mehr missen^^
 
Ich hatte den Link zur Studien schon vor Tagen im SSD Forum gepostet und ich fand die Studie extrem interessant.

Und wer meint, dass Google und die Universität von Toronto Quatsch und Blödsinn publizieren, dem ist eh nicht mehr zu helfen oder Meinungen wie "bei SSD hat sich in den letzten 10 Jahren nichts getan"....kein Kommentar... (diese "Experten" sitzen nun auf meiner Ignoreliste, alleine wegen diesem Thread und dem Müll von den Spam-Trollen +5).
 
Zuletzt bearbeitet:
Computerfuchs schrieb:
Was ist das bitte für ne dubiose Studie?!

Nach allem, was ich bislang an der Uni zum Thema wissenschaftliches Arbeiten gelernt habe, ist eine der wichtigsten, absolut zentralen Anforderungen an eine Studie, dass sie replizierbar ist! Aus dem Text sollte genauestens hervorgehen, was wie gemacht wurde, so dass es für andere Forscher möglich ist, das Experiment zu wiederholen und dabei hoffentlich zu den gleichen Ergebnissen zu kommen. Die verwendeten SSD-Modelle und deren Anzahl geheim zu halten, geht mal gar nicht.

Die Studie ließt sich so, als hätte sich hier wer ziemlich viel Arbeit gemacht. Aber mit diesen äußerst schwammigen Angaben ist es letztlich trotzdem ein klarer Fall für die Tonne. Schade. :(


Dann hast du an der Uni nicht sonderlich gut aufgepasst. Es steht explizit, dass es sich um eine Feldstudie handelt, nicht um ein Laborexperiment (Unterschied!). Feldstudien sind schon rein deswegen nicht 100% replizierbar, weil eine reale Situation betrachtet wird und die Bedingungen nicht kontrolliert werden. Außerdem ist es absolut üblich in allen Forschungsbereichen, dass Daten bis zu einem gewissen Grad anonymisiert werden (ethische oder auch wirtschaftliche Gründe), das macht die Studie nicht unbrauchbar, es verändert nur die Aussagen die man treffen kann.

Klar, die Studie lässt keine Rückschlüsse auf einzelne Hersteller zu, aber genau das ist auch nicht gewollt. Die Studie vergleicht SSDs mit verschiedener Technologie und herkömmliche HDDs. Sie liefert ein breites Bild über verschiedene Hersteller und die Forscher behaupten (eine Behauptung die man eben nur mit entsprechender Reputation machen kann), dass das sample so groß ist, dass ein allgemeiner Trend ableitbar ist.

Was daran nicht replizierbar sein soll ist mir schleierhaft. Einfach 6 Jahre lang bei allen Servern von Unternehmen soundso SSD und HDDs vergleichen. Sollten sich gegenteilige Ergebnisse ergeben, kann man die vorliegende Studie anfechten, einen Gegenbeweis hat man aber dann immer noch nicht, weil durch den unterschiedlichen Zeitraum bedingt, man wohl von jetzt weg in 6 Jahren mit ganz anderen SSDs und HDDs wird arbeiten müssen, als im Zeitraum den die Studie untersuchte (ein inhärentes Problem von Feldstudien).

PS: Wissen ist nichts anderes als vernünftiges Glauben. Es ist schon extrem spannend zu sehen, wie schnell die Leute bereit sind in Foren wie diesem jeden möglichen Mist zu glauben der von zweifelhaften Newsseiten "geleaked" wird und wie Wikipedia als gültige Autorität anerkannt wird. Bei einer wissenschaftlichen Studie jedoch werden im großen Stil Zweifel angemeldet, ohne von der Materie Ahnung zu haben oder die Studie überhaupt gelesen zu haben. :rolleyes:
Da haben sich wohl einige noch nicht vom mythischen Weltbild verabschiedet.

PPS: Es sei natürlich jedem sein Zweifel unbenommen. Ich kann nur bei diesem Fall überhaupt nicht nachvollziehen, wieso ein übertriebenes Maß an Skepsis anzulegen ist. Google ist kein Festplattenhersteller und auch sonst scheint es hier keine versteckte Agenda irgendwelcher beteiligter Parteien zu geben. Die Studie ist einfach nur sachlich informativ.
 
Zuletzt bearbeitet:
strex schrieb:
Da es sich um Google DCs handelt, ist es nicht ausgeschlossen das es diese SSDs gar nicht am Markt gibt.
Was dann die Studie noch irrelevanter macht, weil die reine Prototypen-HW analysiert hätten. Die angegebenen Daten deuten ja schon in diese Richtung und nicht wenige der frühen SSDs waren nicht mehr als Prototypen, mit der heutigen Massenware nicht vergleichbar.

strex schrieb:
Der Controller ist hier irrelevant.
Der Controller ist immer relevant, wenn es um die Eigenschaften von SSDs geht, auch wenn das in der Studie ebenfalls übersehen wurde. NANDs haben prinzipiell immer auch mal Bitfehler, der Controller hat diese auszugleichen und dafür verwendet er eben eine ECC und bei Enterprise Controllern nicht selten auch eine Art RAID 5 über NAND Pages/Blöcke/Dies hinweg, damit eben die SSD am Ende keine solchen Fehlerraten aufweisen wie in der Studie.

strex schrieb:
Du kannst ja schon nicht belegen was daran Mist sein soll außer reine Spekulation ohne Inhalt.
Das habe ich doch geschrieben: 3000 P/E Zyklen für 43nm/50nm MLC NAND? Damals waren 5000 bzw. sogar 10.000 P/E Zyklen für MLC NAND normal, nicht aber 3000. 50nm NAND waren die in Intels erste X25, schon die Postville hatte 34nm NAND und war dann mit 5000 P/E Zyklen angegeben, 3000 wurden dann ab dem 25nm NAND für die nicht so guten NAND Qualitäten in Consumer SSDs angegeben, so gab es die in der Intel 330er oder HyperX 3K, während für die NANDs der besseren Modelle wie die 520er noch 5000 P/E Zyklen angegeben waren.

surogat schrieb:
Du hast die Frage nicht beantwortet. Deshalb stelle ich sie nochmal: Was hat sich denn da gewaltig weiterentwickelt?
Die Controller!

surogat schrieb:
3D NAND sind also schon seit einigen Jahren im allgemeinen Gebrauch? Sicher?
Bei Samsung ist es seit 2013 in Enterprise SSDs im Einsatz, das sind fast 3 Jahre.
surogat schrieb:
Meines Wissens sind bisher lediglich Prototypen erhältlich.
Was nur zeigt wie lückenhaft Dein Wissen ist.
surogat schrieb:
Ich dachte wird diskutieren hier im Zusammenhang mit der bereits seit den letzten 4-5 Jahren erhältlichen Technologie?
Die bei Google verwendete Technologie hat scheinbar noch älter, die 34nm NANDs sind Emde 2008 in Massenfertigung gegangen, 2010 kamen dann schon die 25nm NANDs.
surogat schrieb:
Was meine Vermutung bestätigt, dass da bisher überhaupt keinerlei grundlegend neue Technologie erhältlich war. Die wird es erst im Jahr 2016 geben.
Wenn Du damit 3D XPoint meinst, weil das eine grundlegend andere Speichertechnologie ist, dann ja. Aber das Automobil wurde 1886 erfunden und zu behaupten es hätte sich seither nicht weiterentwickelt, sondern erst jetzt mit den ersten serienmäßigen Autos mit Brennstoffzellen, wäre wohl auch für jeden ein wenig befremdlich. Die grundlegende Technologie ist zwar über die Jahre die gleiche geblieben, was die Leistungsfähigkeit und vor allem die Zuverlässigkeit angeht, hat sich aber auch bei normalen Autos mit Verbrennungsmotoren über die Jahrzehnte sehr viel getan.

surogat schrieb:
Was die "intelligentere Firmware/Controller" betrifft, so handelt es sich ohenehin nur in Hardware gegossene Algorithmen.
Als ob es auf die nicht ankommen würde? Da sind wir dann wieder bei Deinem Wissensstand, aber der ist ja nun schon als lückenhaft bekannt. Die Controller sind und bleiben das A und O jeder SSD, mit denen steht und fällt die Qualität jeder SSD.
surogat schrieb:
Fazit: Die Technologie von vor 10 Jahren ist nahezu identisch mit der jetzigen Generation.
Fazit: Für Deinen Wissensstand erlaubst Du Dir eine große Lippe und solltest wirklich besser auf ewig bei HDDs bleiben und in Foren Themen zu SSDs meiden, es wird für Dich einfach nur peinlich enden dort zu posten.
 
user4base schrieb:
Wenn du die entsprechende Ausbildung/Reputation und einen geeigneten Kooperationspartner wie beispielsweise Google hast, warum nicht.

Selten so viel Blödsinn gehört.
Leute lügen nicht? Menschen/Konzerne nutzen niemals ihre Position/Reputation aus? So jemand wäre dann doch der ideale Repräsentant für eine nicht-glaubwürdige Studie.

Deine Aussage ruft einzig zu unkritischem Denken und Elitarismus auf.
Viel Spaß beim Glauben an den Papst, Weihnachtsmann, Politiker, Facebook und Google.
 
Holt schrieb:
Was dann die Studie noch irrelevanter macht, weil die reine Prototypen-HW analysiert hätten. Die angegebenen Daten deuten ja schon in diese Richtung und nicht wenige der frühen SSDs waren nicht mehr als Prototypen, mit der heutigen Massenware nicht vergleichbar.

Die Daten stammen von Google Storage Team aus deren Beständen der DCs. Die betreiben in deren DCs für die produktive Umgebung sicherlich keine Prototypen-Hardware. Das hat auch nichts mit Prototypen-Hardware zu tun, sondern Google bestellt für ihre wünsche passende Hardware mit eigenen Specs. Bei der Abnahme von Millionen pro Jahr kein Problem, machen wir selbst auch so. Selbst Switches, Server und co. werden passend für Google gefertigt, dass so aber keiner braucht oder bekommen darf und somit nicht am Markt zu finden ist. Das ist dann aber beileibe keine Prototypen-Hardware.

Les doch einfach die Studie mal aufmerksam..steht doch alles dar.

Holt schrieb:
Der Controller ist immer relevant, wenn es um die Eigenschaften von SSDs geht, auch wenn das in der Studie ebenfalls übersehen wurde. NANDs haben prinzipiell immer auch mal Bitfehler, der Controller hat diese auszugleichen und dafür verwendet er eben eine ECC und bei Enterprise Controllern nicht selten auch eine Art RAID 5 über NAND Pages/Blöcke/Dies hinweg, damit eben die SSD am Ende keine solchen Fehlerraten aufweisen wie in der Studie.

Für eine Feldstudie nicht, schau dir einmal was der Begriff bedeutet.

Holt schrieb:
Das habe ich doch geschrieben: 3000 P/E Zyklen für 43nm/50nm MLC NAND? Damals waren 5000 bzw. sogar 10.000 P/E Zyklen für MLC NAND normal, nicht aber 3000. 50nm NAND waren die in Intels erste X25, schon die Postville hatte 34nm NAND und war dann mit 5000 P/E Zyklen angegeben, 3000 wurden dann ab dem 25nm NAND für die nicht so guten NAND Qualitäten in Consumer SSDs angegeben, so gab es die in der Intel 330er oder HyperX 3K, während für die NANDs der besseren Modelle wie die 520er noch 5000 P/E Zyklen angegeben waren.

Immer noch nicht kapiert. Weißt du welche SSDs Google kauft? Was schließt denn aus, was es da gab und welche verwendet wurden. Wurde eben NAND mit weniger Zyklen gekauft, weil billiger und passend für Google gefertigt. Bei Millionen Stück pro Jahr sicher kein Problem. Auch eine Alternative und Vermutung, mehr kann man nicht anstellen und dann sollte man das auch nicht als Schwachsinn abtun. Da das doch durch mehr Reviews ging auch mit Hintergrund wissen was in der öffentlichen Version fehlt, sollte man denen eher vertrauen als dir, der nur Vermutungen aufstellt und in die Luft rätselt.
 
Zuletzt bearbeitet:
Zurück
Oben