Merle schrieb:
Eine hybrid ist nur sinnvoll nutzbar als Systemfestplatte (wo Windows drauf installiert ist).
So ein Blödsinn, die bringen gerade als Datenplatte durchaus Vorteile, meist mehr als wenn man sie als Systemlaufwerk einsetzt. Das Systemlaufwerk sollte man heute nur noch auf SSDs setzen, wenn man irgendwelche Ansprüche an die Performance stellt.
Merle schrieb:
die HDD kommt ebenfalls "nur" auf 120 MB/s oder so.
War das auf die ST2000DX001 bezogen?
Die Ergebnisse dieses Reviews waren mit HD Tune Read zwischen 88,3MB/s und 190,7MB/s mit einem Mittelwert von 152MB/s. Man kann bei HDDs ja sowieso nur von bis angeben, da die auf den äußeren Spuren immer mehr Sektoren haben als auf den inneren und daher die Daten auch schneller übertragen können, wobei der Unterschied zwischen außen und innen gerne den Faktor 2 erreicht bzw. meist sogar leicht übersteigt.
MachineDeth schrieb:
western digital, seagate oder toshiba... ich denke alle sind doch vollkommen zurechnungsfähige mittelklasse plattenhersteller.
Es gibt von allen Hersteller Platten unterschiedlicher (Preis-)Kategorieren und eben de Desktopplatten und damit die unterste Preis- und Anforderungskatagorie bis zu den Enterprise Nearline, um mal nur bei den 3.5" zu bleiben. Wie sich das so grob aufteilt und was die HDDs so auszeischnet, kann man hier an der Übersicht aus dem Toshiba Programm sehen:
Extra hervorgehoben ist hier auch der Workload und zum Workload schreibt Seagate:
Workload-Belastung
Der Einfluss der Workload auf die Zuverlässigkeit ist etwas schwerer verständlich.
Per Definition ist die primäre Funktion von HDDs das Speichern und Abrufen von Daten, wobei Hunderte von Gbits an Daten auf jedem Quadratzoll an Speicheroberfläche aufbewahrt werden. Sie können Daten bei anhaltenden Datenraten in der Größenordnung von 200 MB/s oder mehr aufzeichnen und abrufen.
Um diese hohe Aufzeichnungsdichte und einen hohen Datendurchsatz zu erreichen, werden magnetische Lese- und Schreibkomponenten physisch mehrere Nanometer (1 nm = 0,001 µm) von schnell rotierenden Medien gehalten. Das ist eine komplexe technische Designaufgabe, die erfordert, dass Festplatten für eine bestimmte Arbeitsumgebung entwickelt, getestet und klassifiziert werden, die unter anderem durch den Bereich der Nutzungsdauer und der Benutzer-Workload charakterisiert wird.
Workload ist ein technischer Begriff, mit dem die Größe der Arbeitsbelastung definiert wird, der die Festplatte beim Normalbetrieb ausgesetzt ist. Beispielsweise könnte Festplatte A täglich mehrere GB an Daten lesen und schreiben, während Festplatte B täglich mehrere hundert GB liest und schreibt. In diesem Fall würden wir sagen, das Festplatte B unter viel höherer Workload-Belastung arbeitet.
Um eine Vorstellung zu bekommen, wie viel Workload zu viel ist, betrachten wir drei typische Szenarien (Festplatten A, B und C):
Betrachten wir eine Seagate Constellation ES.3 HDD mit 4 TB. Diese Festplatte ist zu einer anhaltenden Datenübertragungsrate von 175 MB/s fähig. Stellen wir uns drei dieser Festplatten vor, die alle unter ähnlichen Bedingungen arbeiten (und mit demselben Server). Die erste Festplatte (Festplatte A) überträgt stetig 5 MB/s (oder durchschnittlich 158 TB/Jahr), während die zweite (Festplatte B) 10 MB/s (durchschnittlich 315 TB/Jahr) überträgt. Die dritte Festplatte schließlich (Festplatte C) überträgt in diesem Beispiel 100 MB/s (durchschnittlich 3.150 TB/Jahr).
Aus den obigen Szenarien ist einfach zu erkennen, dass Festplatte B einer 2× höheren Workload-Belastung ausgesetzt ist als Festplatte A und dass Festplatte C eine 20× höhere Workload-Belastung als Festplatte A hat.
Unter Annahme einer linearen Abhängigkeit würden die nächsten vernünftigen Schlussfolgerungen annehmen, dass Festplatte B eine 2× höhere Ausfallrate als Festplatte A hat und Festplatte C eine 20× höhere Ausfallrate als Festplatte A. Seagate-Daten legen jedoch nahe, dass die Annahme einer linearen Skalierung der Ausfallrate mit Workload falsch ist.
Jahre an Forschung und Experimenten ermöglichten Technikern von Seagate, die komplexen Effekte von Workload auf Festplattenzuverlässigkeit zu verstehen und die folgenden Schlüsse zu ziehen:
•Jeder HDD-Typ hat eine sichere Workload-Schwelle, die jetzt als das Limit für die Workload-Rate (WRL) definiert wird.
•Solange die Workload das WRL nicht überschreitet, hat die Workload-Belastung sehr wenig bis gar keinen Einfluss auf die Zuverlässigkeit und die Ausfallrate dieses Produkts.
•Wird das WRL überschritten, beginnt die Zuverlässigkeit dieses Produkts nachzulassen.
Man sollte diese Workload Ratings also beachten, sonst wird man mit erhöten Ausfallraten bestraft und das geht nicht linear.
Die HDDs waren früher meist noch haltbarer, diese ganze Vielfalt ist ja auch der Preis für die immer weiter gesteigerte Datendichte und die erfordert eben auch eine immer genauer gefertigt Mechanik, nur kostet die eben auch richtig Geld, weshalb die Hersteller eben auch günstigere HDDs für weniger anspruchsvolle Aufgaben anbieten. Vor allem aber ergibt sich aus der hohen Datendichte heute ein so minimaler Kopfabstand, dass die Köpfe und Oberflächen schon in einem Teilkontakt steht, was zu Abrieb führt und daher ist eben neben der Zeit die eine HDD ihre Plattern dreht auch die Zeit wichtig, in der effektiv Daten gelesen oder geschrieben werden, da dabei Köpfe an der Spitze erhitzt werden, sich ausdehnen und die Abstände damit noch einmal von 10nm auf nur noch 1 bis 2nm verringert werden.
Wie man sieht wird da einige an Aufwand getrieben und es gibt dabei eine Menge Herausforderungen und trotzdem eben einen gewissen, normalen Verschleiß der während der Zugriffe auf die Platten passiert:
Der Aufwand kostet halt Geld und daher sind die Spitzen HDDs wie die WD Re (nicht Red), Seagate Constellation ES.3 oder die
Toshiba MG Reihe ja auch nicht gerade günstig, verträgen aber eben Dauerlast wie es auch
im Datenblatt der MG steht. Die darf also nicht nur 24/7 zu laufen, sondern wirklich 24/7 zu arbeiten:
Die darf man wirklich pausenlos mit Arbeit quälen, dafür ist die gemacht, die anderen bei denen nur Dauerbetrieb steht, dürfen das meist nicht.
Die
4TB Version kostet aber auch über 300€, also fast 2,5 mal so viel wie die
einfache MD 4TB, wer glaubt er würde das gleiche dafür bekommenn und bei der MG Toshiba nur unnötig mehr Geld in den Rachen werfen, der soll hinterher nicht die HDD beschuldigen, wenn er falsch lag. Es gilt immer noch:
You get what you pay for!
Man beachte auch das Confidential unten rechts auf der Seite, so offen wollen offenbar nicht alle Hersteller solche Angaben so offen kommunizieren, nur Seagate ist da recht offen, so steht für die Seagate ST3000DM001 im
Product Manual auf Seite 9:
Und wie viele Power-On-Hours die Platte pro Jahr haben sollte, steht auch schon
in den Spezifikationen:
Damit kommt man dann innerhalb von 12 Monaten nur auf 55TB/8760h * 2400h = 15TB, trotz der relativen Offenheit will man sowas dann doch nicht so offen jedem Kunden unter die Nase reiben und wer liest schon das Product Manual?
Bei der neuen
Archive v2 steht beides gleich am Anfng des Datenblattes:
Eine
Constellation ES.3 hat z.B. auch 550TB oder auch eine
WD Re (WD4000FYYZ), bei der steht es auch gleich auf der ersten Seite des Datenblattes:
Bei anderen Baureihen ist WD da aber leider nicht mehr so offen, die Angaben für Workload Rating der Consumer HDDs rückt der Support leider nicht raus.
Wie man sieht haben also auch Seagate und WD HDDs mit einem mit 550TB/Jahr Workload Rating im Programme, aber die kosten dann aber auch ähnlich viel und entsprechend mehr als die billigen Modelle des Herstellers, ein Workload von 180TB/Jahr wird für die SE angegeben, was zu der Enterprise Klasse der SE passt. Bei
WD gibt es aber immerhin diese Erklärung zu den Workloads und MTTFs, aber nach deren Angaben hat die Workload keinen Einfluss auf die Lebensdauer, sondern nur auf die Ausfallraten:
Warum die in dem Dokument vom Juni 2013 versprochen Workload Angaben nun gerade für die Consumer HDDs, die bei den anderen Herstellern (Seagate + Toshiba) ja nur mit 55TB angeben sind, nun bei WD immer noch fehlt, verstehe ich nicht wirklich:
Neben dem Workload unterscheiden sich HDDs auch noch durch die Vorkerhungen zum Schutz vor Vibrationen, nur bei Hitachi hatte zumindest früher allen Modellen 24/7 Zulassung und auch sogar eine
Rotational Vibration Safeguard (RVS) genannte Technik gegen Vibrationsprobleme. Das haben die Deskstar und auch die Megascale die ja auch Backblaze verwendet und die da gut abschneiden, letztere ist übrigens eine als OEM vermarktete Enterprise HDD und entsprechend teuer, die kann man mit einer einfachen Desktop Platten wie den Barracudas gar nicht vergleichen.
Gerade bei HDDs die zu mehreren in einem Gehäuse betrieben werden sind auch die Vibrationen ein Problem, also welche Schutzmechanismen die HDD da bietet. Hier gibt es z.B. in der
NAS Drive Selection Guide von Seagate eine schöne Übersicht:
Sowas steht genau wie die Workload in keinem Preisvergleich, kann aber eben bei entsprechend vielen HDD in einem Gehäuse einen Unterschied machen und die billigen, einfachen Desktop HDDs da natürlich i.d.R. gar nichts haben, aber die sind ja auch dafür gedacht alleine in einem Gehäuse zu sitzen. Selbst wenn man sich das Bild oben von Toshiba ansiehst, so steht da auch zur MC Serien nur was von 1 oder 2 HDDs im RAID 1 zu sehen, für viele HDDs zusammen ist die MG Serie gedacht. Die HDDs verweigern natürlich nicht sofort den Dienst weil eine HDD mehr drin ist, aber die Auswirkungen Fehlerraten, Zuverlässigkeit und Haltbarkeit sind dann eben u.U. nicht zu übersehen.
Generell ist Datensicherheit ja aber sowieso nur durch Datensicherung zu erzielen, als dadurch die gleichen Daten auf mehreren unabhängigen Datenträger zu halten die möglichst in unterschiedlichen Gehäuse stecken sollten.
![HDD Head Wear.png HDD Head Wear.png](https://pics.computerbase.de/forum/attachments/421/421251-a63bb3b0d9a2defa2f0a21c173a2e6ac.jpg?hash=pjuzsNmi3v)