TrueAzrael schrieb:
beachte das 1:10 bzw. 10:10 in beiden Fällen sind es nämlich 10 Fehler auf 1.000.000.000.000.000 Bits.
Erstens ist mir klar, dass 10:10^15 das gleich wie 1:10^14 ist und zweitens ist Dir nicht klar, dass es um "Nonrecoverable Read Errors per Bits Read" geht, Bit die falsch gelesen und von der ECC korrigiert wurden, zählen nicht dazu. Daher kann man auch nicht die Rechnung aufmachen, wie viele Bits korrekt gelesen wurden.
TrueAzrael schrieb:
Im ersten eben schön verteilt alle 10^14 Bits ein Fehler und im zweiten Fall die ersten 10^14 Bits 10 Fehler und die restlichen 9*10^14 Bits dafür kein Fehler.
Das ist daher totaler Müll und das Auftreten der Fehler wird nicht garantiert, die müssen nicht auftreten. Es ist einfach eine statische Fehlerwahrscheinlichkeit und sie sagt nichts darüber aus, wann diese Fehler auftreten, ob zu Beginn, später oder einzeln oder gehäuft. Die Angabe gilt wie alle Angaben auch nur, wenn man die HDD innerhalb der Vorgaben betreibt. Die kann man bei HDDs die nicht im RAID laufen dann auch als Schwebende Sektoren in den S.M.A.R.T. Werten sehen, zumindest bis die Sektoren wieder überschrieben werden.
strex schrieb:
Die ST4000DM001 läuft nun auch schon zwei Jahre mit anderen 16 HDDs in einem Case, zwar dafür nicht gedacht steckt das aber locker weg.
Die ST3000DM001 hat die ersten beiden Einsatzjahre bei Backblaze auch mit recht geringen Ausfallraten weggesteckt, dabei sind dort 45 in einem Gehäuse, dann war sie aber auf und die ST4000DM001 dort sind gerade im Schnitt ein Jahr alt. Die 4TB drehen langsamer, brauchen als 2½ Jahre um so viele Umdrehungen gemacht zu haben wie die 3TB in 2 Jahren machen, schauen wir also mal 2017 wie die Ausfallraten dann aussehen oder ob Seagate die Kostenoptimierungen da wieder etwas zurückgeschraubt hat.
strex schrieb:
Ach so die ST2000DL003-9VT166 davor haben auch schon >36.000 Stunden hinter sich. Also gibt es gar keinen Grund warum man keine Desktop HDDs im NAS einbauen sollte, denn die laufen mit 16 Stück in einem Case problemlos.
Die Seagate Barracuda Green dreht auch langsamer (5900rpm), die sind auch ältere Modelle und vermutlich weniger massiv kostenoptimiert. Aber wer gerne Desktopplatten in sein NAS bauen will, kann das von mir aus ja auch gerne machen, er soll nur noch meckern wenn die Platten das nicht so lange durchhalten und er früher als erwartet neue kaufen muss.
digitalangel18 schrieb:
Das ist defintiv falsch und geht technisch nicht.
Doch, die Blöcke mit den überlappenden Spuren müssen nur an einem Stück beschrieben werden, dann geht das Schreiben durchaus schnell und das passiert z.B. wenn man die frisch formatiere HDDs mit h2testw beschreibt. Da werden nur ein paar Verwaltungsdaten des Filesystems nicht sequentiell geschrieben und man kann sie mit so 86,5MB/s beschrieben und mit 122MB/s geprüft, ob die ganze Kapazität wohlgemerkt und nicht nur auf den schnellen äußeren Spuren.
TrueAzrael schrieb:
Kannst du das genauer ausführen? Eine Platte die mit einer Schreibgeschwindigkeit von sustained (durchgängig) 200+MB/s vermarktet wird, sollte durchgängig zumindest 150 schaffen.
Sustained meint nicht durchgängig, sondern vom Medium und nicht aus dem Cache und steht da eben i.d.R. auch "
Maximum sustained data rate", denn die bezieht sich eben nur auf die äußeren Spuren und auf den inneren ist es in der Regel nur knapp die Hälfte, keine 3.5" HDD mit vergleichbaren Kapazität wie die getesteten die auch auf den inneren Spuren noch 150MB/s schafft, ist mir nicht bekannt, wenn sie nicht unter 100MB/s fallen, ist das schon gut. Dann sind das Rohleistungen der Platten, da kommt in der Praxis immer noch ein Overhead vom Filesystem drauf, denn das muss ja auch seine Verwaltungsdaten lesen oder beim Schreiben dann eben aktualisieren und dabei entstehen kurze zufällige Zugriffe und damit Kopfbewegungen. Je kleiner die Dateien oder deren Fragmente sind, umso mehr und daher lesen oder schreiben HDDs kleine oder stark fragmentierte Dateien viel langsamer als große, nicht fragmentierte Dateien.