News Feldstudie: SLC-SSDs nicht zuverlässiger als MLC-Laufwerke

surogat schrieb:
Das spiegelt meine eigenen Erfahrungen wieder. Irgendwo im Forum hatte ich das auch mal mit irgendwem diskutiert. Ich bin nämlich vor ein paar Jahren wieder auf herkömmliche Festplatten umgestiegen.

Vor ein paar Jahren schon? Wahnsinn. Wo ist das Problem bei ner Systemplatte, ein Backup von der NAS ist in nichtmal 30min bei mir eingespielt. Gebraucht hab ich es noch nie, meine über 4 Jahre alte Intel SSD 320 zeigt noch so gut wie keine Abnutzungserscheinungen, warum sollte ich dafür wieder ne normale Platte nehmen?
 

Anhänge

  • ssd.JPG
    ssd.JPG
    141,2 KB · Aufrufe: 958
Zuletzt bearbeitet:
Holt schrieb:
Die Studie ist von uralten SSDs und vor allem wurden wohl Enterprise verwendet. Die Tabelle 1 zeigt außerdem bei den 480GB MLC SSDs (MLC-A bis MLC-D) angebliche MLC NANDs nur 3000 P/E Zyklen aber 43nm und 50nm Fertigung. Sorry, aber damals waren die NANDs nicht mit 3000 sondern 5000 oder 10.000 P/E Zyklen spezifiziert. Also alles extrem unzuverlässige Daten und damit eine wertlose Studie, denn die Controller sind heute viel besser als damals, die Controller waren zu der Zeit als 43nm und 50nm NANDs aktuell waren, nicht wirklich ausgereift.
blah... und wie sollen aktuelle SSDs getestet werden? Mit einer Zeitmaschine? Junge junge...
 
Tulol schrieb:
blah... und wie sollen aktuelle SSDs getestet werden? Mit einer Zeitmaschine? Junge junge...

Natürlich geht das. Genauso wie man bei einem Auto auf entsprechend präparierter Strecke / Prüfstand 100.000km in kürzerer Zeit simulieren kann.
Die SSD werden einfach per Script gecycled und 24/7 mit Zufallsdaten beschrieben. Da eine normale SSD genutzte dafür viel länger braucht lässt sich das natürlich in viel kürzerer Zeit simulieren, wie hier:
http://ssdendurancetest.com/how-the-ssd-endurance-tests-are-done
 
Zuletzt bearbeitet:
@hrafnagaldr
Das mit dem simulieren ist bei SSDs leider Gottes ein wenig schwieriger. Die SSD einfach über einen Monat hinweg mit Schreibbefehlen zuzuballern bringt da so gut wie gar nichts. Was bei SSDs zusätzlich zu den PE-Zyklen noch interessant ist, ist die Retention-Rate also die Frage wie lange die Speicherzellen tatsächlich in der Lage sind, ihre Werte zu halten.

Das ist der springende Punkt der bei Flash-Speicher immer verschwiegen wird. Flash ist nicht in der Lage Daten dauerhaft zu speichern. Pack eine brandneue SSD mit Daten voll und leg sie für ein paar Jahre ohne Stromversorgung in den Schrank. Dass du danach noch in der Lage sein wirst, alle Daten unversehrt wieder runter zu bekommen ist eher unwahrscheinlich.

Und die Dauer wie lange die Zellen ihre Ladung behalten ist eben auch von der Anzahl der PE-Zyklen abhängig.

Die Hersteller geben ihre TBW-Werte für Consumer-SSDs üblicherweise so an, dass bei erreichen noch eine Retention von 12 Monaten gegeben ist. Bei Enterprise-Platten sind es interessaterweise nur ein paar Monate. Wahrscheinlich weil man den Enterprise-Kunden nicht erst erzählen muss, dass man von den Daten ein Backup machen sollte.
 
dgschrei schrieb:
Die Hersteller geben ihre TBW-Werte für Consumer-SSDs üblicherweise so an, dass bei erreichen noch eine Retention von 12 Monaten gegeben ist. Bei Enterprise-Platten sind es interessaterweise nur ein paar Monate. Wahrscheinlich weil man den Enterprise-Kunden nicht erst erzählen muss, dass man von den Daten ein Backup machen sollte.

Die Retention Rate juckt mich als aber wenig. Warum sollte ich eine SSD vollschreiben und dann für ein Jahr weglegen? Dafür gibts natürlich geeignetere Medien. Wenn ich Dich richtig verstehe, dann muss die ja komplett vom Strom getrennt sein. Wird im Businessbereich eigentlich exakt so gut wie nie passieren.
Außerdem hab ich da täglich alles auf Band wie Du schon sagst.
 
Das ist schön für dich, dann ignorier diesen Test einfach.
Das ändert nichts an der Tatsache dass man nirgends, bei keinem Auto, keiner SSD, keiner Medizinischen Studie mit einem Theoretischen Test 100% der Informationen eines echten Langzeittests erhält. Man kriegt einiges raus ja, aber manche Dinge erfährt man nur über die Zeit, insbesondere die Dinge von denen man gar nichts wusste... Und wenn die Langzeitstudien nur zeigen dass die Theretischen Tests gut und hilfreich waren, ist auch schon was gewonnen.

Im übrigen bin ich verwirrt wieso hier manche glauben dass Google, die vermutlich mehr Festplatten im Jahr kaufen als der gesamte Consumermarkt zusammen in irgendeiner weise SSD Modelle verwenden muss die auf geizhals zu finden sind.... Der Test zeigt einige interessante Dinge über grobe annahmen die man immer getroffen hat und nicht welche SSD ihr als nächstes kaufen sollt..
 
Syberdoor schrieb:
Das ist schön für dich, dann ignorier diesen Test einfach.
Das ändert nichts an der Tatsache dass man nirgends, bei keinem Auto, keiner SSD, keiner Medizinischen Studie mit einem Theoretischen Test 100% der Informationen eines echten Langzeittests erhält.

Hab ich auch nie behauptet.
 
TheInterceptor schrieb:
Sorry, aber wieso ist das eine News wert?
Ich mach hier gleich auch mal so eine Studie. Komm ich dann auch auf die Hauptseite hier?

Wenn du die entsprechende Ausbildung/Reputation und einen geeigneten Kooperationspartner wie beispielsweise Google hast, warum nicht.

Als Anhaltspunkt:
Authors: Bianca Schroeder, University of Toronto;
Raghav Lagisetty and Arif Merchant, Google, Inc.​
Bianca Schroeder
Bianca is an associate professor and Canada Research Chair in the Computer Science Department at the University of Toronto and a member of the computer systems and networks group . Before joining UofT, she spent 2 years as a post-doc at Carnegie Mellon University working with Garth Gibson. She received her doctorate from the Computer Science Department at Carnegie Mellon University under the direction of Mor Harchol-Balter. She is an Alfred P. Sloan Research Fellow, the recipient of the Outstanding Young Canadian Computer Science Prize of the Canadian Association for Computer Science, an Ontario Early Researcher Award, an NSERC Accelerator Award, a two-time winner of the IBM PhD fellowship and her work has won four best paper awards and one best presentation award.....

Hast du in dem Bereich schon mal was publiziert? Würde sicher auch nicht schaden.
Beispielsweise wie die Autorin dieser Studie:
  • N. El-Sayed, I. Stefanovici, G. Amvrosiadis, A. Hwang, B. Schroeder. "Temperature management in data centers: Why some (might) like it hot." Sigmetrics/Performance 2012. pdf.
  • Best paper award.
  • A. Hwang, I. Stefanovici, B. Schroeder. "Cosmic rays don't strike twice: Understanding the characteristics of DRAM errors and the implications for system design." Seventeenth International Conference on Architectural Support for Programming Languages and Operating Systems (ASPLOS 2012). pdf.
  • G. Amvrosiadis, A. Oprea, B. Schroeder. "Practical Scrubbing: Getting to the bad sector, at the right time." International Symposium on Dependable Systems and Networks (DSN 2012). pdf.
  • B. Schroeder, Sotirios Damouras, Phillipa Gill. "Understanding latent sector errors and how to protect against them." 8th Usenix Conference on File and Storage Technologies (FAST 2010) pdf.
  • B. Schroeder, E. Pinheiro, W.-D. Weber. "DRAM errors in the wild: A Large-Scale Field Study." Sigmetrics/Performance 2009 . pdf.
  • Winner of Sigmetrics Best Presentation
  • Invited to appear as a "Research Highlight" in the Communications of the ACM.
  • L. Bairavasundaram, G. Goodson, B. Schroeder, A. Arpaci-Dusseau, R. Arpaci-Dusseau, FAST'08. "An analysis of data corruption in the storage stack." 6th Usenix Conference on File and Storage Technologies (FAST 2008). pdf.
  • Best student paper award.
  • Short version of the paper appeared in USENIX Login magazine. Extended version in ACM Transactions on Storage (TOS) Vol. 4 issue 3, 2008. The paper has also been featured in an article on Storagemojo.
  • Bianca Schroeder, Garth Gibson. "Understanding failures in petascale computers." Presented at the SciDAC 2007 conference. Journal of Physics: Conf. Ser. 78. pdf.
  • Bianca Schroeder, Garth Gibson. "The computer failure data repository." Invited contribution to the Workshop on Reliability Analysis of System Failure Data (RAF'07) to be held at MSR Cambridge, UK. pdf.
  • Bianca Schroeder, Garth Gibson. "Disk failures in the real world: What does an MTTF of 1,000,000 hours mean too you?" 5th Usenix Conference on File and Storage Technologies (FAST 2007). pdf
  • Best paper award.
  • Extended version in ACM Transactions on Storage (TOS), Volume 3 Issue 3, October 2007.
  • The above paper has also been featured in an article on slashdot, which so far has received more than 75,000 hits!
  • ...

würde auch nicht schaden, wenn einige hier zumindest das 15 Seiten paper überfliegen würden.
 
Ein herber Schlag für alle die seit Jahren SLC immer so toll fanden...ohje ;o) ....die beste Lösung so finde ich ist, SSD als Systemplatte und HDD als Backup. Das mache ich seit 10 Jahren so, angefangen mit Mtron Mobi SSDs ,o)
 
Holt schrieb:
Welche SSD soll das denn überhaupt sein, die 480GB und noch MLC NAND mit 43nm oder 50nm hat? Die Erste Intel X25-M hatte noch 50nm NANDs, aber die gab es bis maximal 160GB. Und wie gesagt wurden 3000 Zyklen erst mit etwa 25nm NAND normal, vorher waren mehr P/E Zyklen spezifiziert, also was für komische SSDs wurden dort analysiert? Was für Controller hatten die verbaut? Der Controller macht die Musik und ist auch alleine für die Fehlerraten verantwortlich, ebenso spielt er eine große Rolle was die Erhaltung der NANDs angeht, z.B. über das Wear Leveling, aber auch bei der Einhaltung der Spezifikationen der NANDs bei Schreib- und Löschvorgängen.

Die Studie ist totaler Mist, es lohnt nicht darüber eine News zu schreiben.

Da es sich um Google DCs handelt, ist es nicht ausgeschlossen das es diese SSDs gar nicht am Markt gibt. Das ist bei Google nicht neu, verwenden doch die eine oder andere Hardware die es in dieser Spezifikation nicht zu kaufen gibt. Also kannst du diese Aussage schon gar nicht treffen.

Holt schrieb:
Was für Controller hatten die verbaut? Der Controller macht die Musik und ist auch alleine für die Fehlerraten verantwortlich, ebenso spielt er eine große Rolle was die Erhaltung der NANDs angeht, z.B. über das Wear Leveling, aber auch bei der Einhaltung der Spezifikationen der NANDs bei Schreib- und Löschvorgängen.

Das ist aber nicht das Thema. Abstract lesen sollte helfen, hier geht es um eine Feldstudie in Google's DCs. Der Controller ist hier irrelevant.

Holt schrieb:
Die Studie ist totaler Mist, es lohnt nicht darüber eine News zu schreiben.

Solange du nicht selbst (selber analysieren und schreiben) eine bessere Studie lieferst, steht dir diese Aussage nicht zu. Du kannst ja schon nicht belegen was daran Mist sein soll außer reine Spekulation ohne Inhalt.
 
Zuletzt bearbeitet:
Syberdoor schrieb:
[...]Im übrigen bin ich verwirrt wieso hier manche glauben dass Google, die vermutlich mehr Festplatten im Jahr kaufen als der gesamte Consumermarkt zusammen [...]
So viele werden es dann doch nicht sein.

Syberdoor schrieb:
[...]in irgendeiner weise SSD Modelle verwenden muss die auf geizhals zu finden sind...
Glaub bitte nicht, dass in Rechenzentren ausschließlich Enterprise Hardware verwendet wird! Es gibt genug Serverfarmen, die bewusst Consumerhardware verwenden. Ob sich das im Endeffekt lohnt, keine Ahnung. Das müssten Studien wie diese zeigen, aufgrund der nicht vergleichbaren Ergebnisse hat es aber nicht geklappt. ;)

user4base schrieb:
Wenn du die entsprechende Ausbildung/Reputation und einen geeigneten Kooperationspartner wie beispielsweise Google hast, warum nicht.

Es ist schon toll solch eine "Ausbildung/Reputation" zu haben und dann eine ziemlich oberflächige und sogar fehlerbehaftete Studie zu erstellen, die hier im Forum innerhalb von wenigen Minuten auseinander genommen wird.
Das geht besser! Nicht jeder, der bei oder im Auftrag von Google arbeitet ist ein Einstein...
Und wieso wird häufig die Meinung vertreten, dass Leute, die an der Uni arbeiten, schlauer oder besser sind, als Leute, die in z. B. Privatunternehmen arbeiten? Etwa weil ein, je nach Studiengang, 50-400 Seiten langer Text verfasst werden muss? (eine Habil ist in Nordamerika nicht nötig, dafür allerdings Publikationen...)

Tulol schrieb:
blah... und wie sollen aktuelle SSDs getestet werden? Mit einer Zeitmaschine? Junge junge...

Sehe ich auch so. Ein Langzeittest macht schon Sinn, vorausgesetzt er wird richtig ausgeführt.
 
Wie auch immer, für den Normalzernutzer und den Massenmarkt ist die Studie ungefähr so interessant wie ne Rolle Klopapier.
 
core2e6300 schrieb:
Es ist schon toll solch eine "Ausbildung/Reputation" zu haben und dann eine ziemlich oberflächige und sogar fehlerbehaftete Studie zu erstellen, die hier im Forum innerhalb von wenigen Minuten auseinander genommen wird.

Wo sollen denn die Fehler sein, den quatsch den Holt hier schreibt kann es jedenfalls nicht sein. Nur weil er eine SSD nicht kennt, gibt es die nicht.. Bei Behauptungen bitte auch Beweise.

core2e6300 schrieb:
Sehe ich auch so. Ein Langzeittest macht schon Sinn, vorausgesetzt er wird richtig ausgeführt.

Wo ist er nicht korrekt ausgeführt? Einmal wieder, bei Behauptungen bitte auch Beweise. Wenn man hier Papers kritisiert, sollte man das aber auch richtig machen.
 
Zuletzt bearbeitet:
PsychoPC schrieb:
Naja dann sind die SSDs wohl doch nicht so toll wie alle behaupten?

surogat schrieb:
Das spiegelt meine eigenen Erfahrungen wieder. ... Ich bin nämlich vor ein paar Jahren wieder auf herkömmliche Festplatten umgestiegen.

Schrammler schrieb:
Ich bin erst vor einem Jahr auf SSD umgestiegen und ja, auch sie hat höhere Fehlerraten. Da merkt man eben noch immer, dass die HDD Technik in Jahrzehnten ausgereift ist, während die SSD gerade einmal über die Kinderkrankheiten hinaus gewachsen ist.

Im Artikel steht "Gegenüber HDDs würden die Ausfallraten der SSDs deutlich niedriger ausfallen."
Wobei ich persönlich diesen Artikel kritisch bewerte, wenig belege, sehr "mysteriöse" annahmen. Das PDF ist nicht viel aussagekräftiger als die schwammige Newsmeldung.

Aber, gibt man sich die Mühe, ein wenig zu recherchieren findet man schnell heraus, dass aktuelle Consumer SSDs (so etwa ab 2012) eine niedrigere Ausfallrate haben, als herkömmlich HDDs. Mag sein, dass das für Low Budget SSDs wie Kingston V300 oder PNY, Mushkin und ähnliche gilt. Aber nimmt man gängige Consumer SSDs wie Samsung 850 Evo, Crucial MX oder SanDisk Ultra II, dann trifft das definitiv zu.

Kann die Aussagen daher nicht nachvollziehen.
 
@core2e6300

Da lesen sich die Zitate aber etwas anders:

core2e6300 schrieb:
Es ist schon toll solch eine "Ausbildung/Reputation" zu haben und dann eine ziemlich oberflächige und sogar fehlerbehaftete Studie zu erstellen, die hier im Forum innerhalb von wenigen Minuten auseinander genommen wird.

core2e6300 schrieb:
Sehe ich auch so. Ein Langzeittest macht schon Sinn, vorausgesetzt er wird richtig ausgeführt.

Nicht abstreiten sondern zu seinem Wort stehen..
 
hrafnagaldr schrieb:
Natürlich geht das. Genauso wie man bei einem Auto auf entsprechend präparierter Strecke / Prüfstand 100.000km in kürzerer Zeit simulieren kann.

hrafnagaldr schrieb:
Hab ich auch nie behauptet.

Man kann eben nur manches simulieren und nicht alles somit hat Tulol völlig recht, dass das ein sinnvoller Test ist.

core2e6300 schrieb:
So viele werden es dann doch nicht sein.


Glaub bitte nicht, dass in Rechenzentren ausschließlich Enterprise Hardware verwendet wird! Es gibt genug Serverfarmen, die bewusst Consumerhardware verwenden. Ob sich das im Endeffekt lohnt, keine Ahnung. Das müssten Studien wie diese zeigen, aufgrund der nicht vergleichbaren Ergebnisse hat es aber nicht geklappt. ;)

Ich hab das absichtlich überspitzt formuliert weil ich denke dass vielen nicht klar ist was für ein Unterschied ist ob etwas ein "Rechenzentrum" ist oder Google. Und es gab Schätzungen (natürlich mit extremer Vorsicht zu genießen weil Google da nichts bekannt gibt) dass die 15 Exabyte speicher hatten in einem Jahr wo der consumer markt 8 Exabyte war. Natürlich kaufen die nicht jedes Jahr aber das Verhältnis der vereinzelten Giganten zu allen andern ist da eigentlich wahnsinnig und wird hier imo grob unterschätzt. Und ein "Rechenzentrum" ist man gleich mal mit ein paar 100 Platten, da gibt es sicher welche die mit consumer Hardware arbeiten. Das hat nur halt genau so viel mit Google zu tun wie meine privaten 5 SSDs.... Das ist einfach nicht die selbe Liga.

oemmes schrieb:
Wie auch immer, für den Normalzernutzer und den Massenmarkt ist die Studie ungefähr so interessant wie ne Rolle Klopapier.

Ich war schon häufiger in Situationen in denen mein Interesse an einer Rolle Klopapier durchaus beachtlich war...
 
Zuletzt bearbeitet:
Holt schrieb:
Nicht Neu- sondern Weiterentwicklung und wenn Du da in den letzten 10 Jahren nichts bemerkt hast, bleibe bei HDD, die haben sich in den letzten 10 Jahren zwar auch gewaltig weiter entwickelt, man erkennt es aber weniger.

Du hast die Frage nicht beantwortet. Deshalb stelle ich sie nochmal: Was hat sich denn da gewaltig weiterentwickelt?
 
Als Normalnutzer kann man bedenkenlos zur SSD greifen, da größtenteils Fehler behoben werden, aber im Vergleich zu einem Datacenter kaum Daten geschrieben werden, dauerts Jahrzehnte bis es Probleme gibt (bis dahin hat man eh schon 3 mal die SSD mit mehr Speicher gekauft).
 
core2e6300 schrieb:
...

Es ist schon toll solch eine "Ausbildung/Reputation" zu haben und dann eine ziemlich oberflächige und sogar fehlerbehaftete Studie zu erstellen, die hier im Forum innerhalb von wenigen Minuten auseinander genommen wird.
Das geht besser! Nicht jeder, der bei oder im Auftrag von Google arbeitet ist ein Einstein...
Und wieso wird häufig die Meinung vertreten, dass Leute, die an der Uni arbeiten, schlauer oder besser sind, als Leute, die in z. B. Privatunternehmen arbeiten? Etwa weil ein, je nach Studiengang, 50-400 Seiten langer Text verfasst werden muss? (eine Habil ist in Nordamerika nicht nötig, dafür allerdings Publikationen...)....

Genau aus diesem Grund wird von dir wohl nie irgend eine Studie publiziert werden.

A) Hier nimmt niemand in wenigen Minuten etwas auseinander. Hier wird auf Stammtischniveau "kluggeschissen". Von einer fundierten Kritik dieser Studie ist man hier genauso weit entfernt wie du davon entfernt bist, eine solche Studie zu publizieren.

B) "Das könnte man besser machen" ist keine Kritik sondern eine beliebige Floskel die auf absolut alles anwendbar ist.

C) Leute die an Unis arbeiten sind meist ziemlich gut auf ihrem Gebiet, sonst kommt man nicht an so einen Job. Das sollte selbst dir klar sein. Das heißt nicht, dass sie automatisch schlauer oder besser sind als andere (nicht Persönlichkeitseigenschaften mit Berufsqualifikationen vermischen!), aber es ist ein guter Anhaltspunkt. Publikationen sind wie ein Portfolio in einem anderen Job. Wenn ein Tischler mir 10 tolle Sachen zeigen kann, die er schon getischlert hat, bin ich auch eher geneigt seiner Expertise und Meinung zu vertrauen, als Forenuser 0815 der noch nie mit Holz gearbeitet hat, aber mir weismachen will, "der Tischler hätte keine Ahnung" und "das könnte man besser" machen.

Und ja, es ist hilfreich für das Erlernen von Verfassen von Studien, wenn man im Rahmen eines Studiums schon mal eine Studie verfasst hat. Klar kann man das auch außerhalb von Unis lernen. Aber jemand der noch nie eine Studie verfasst hat, der kann sich darüber kein großartiges Urteil erlauben. Und schon gar nicht ist er "besser" als jemand der schon ein paar geschrieben hat, die auch noch in der wissenschaftlichen Gemeinschaft (also den Profis im Bereich Studien verfassen) entsprechend anerkannt wurden (sonst wird man nämlich nicht publiziert).

Bei dir scheint sich aber eher eine diffuse Abneigung gegenüber Akademikern irgendwo im Gehirn festgesetzt zu haben, die auf oberflächlichen Vorurteilen und fehlerbehafteten Annahmen beruht.
 
Zuletzt bearbeitet:

Ähnliche Themen

Zurück
Oben