Test Festplatten mit 5 bis 8 TB im Test: 33 TByte von HGST, Seagate, Toshiba und Western Digital

Im Datenblatt finde ich nur "average sustained write max: 150MB/s", worüber man sich aber auch streiten könnte, wie seagate dort ein average sustained write definiert...

hier ist z.b. ein guter test:
http://www.storagereview.com/seagate_archive_hdd_review_8tb
storagereview kommt auch die dauerhaften 30mb/s die ich bei meinen platten habe. und auch beim erstbefüllen gehts nicht schneller, da die daten ja so oder so in überlappenden spuren geschrieben werden.
 
bitheat schrieb:
In der Übersicht auf Seite eins hätte ich mir gewünscht, dass die Angaben zum Produkt vollständig sind und nicht db mit Sone verglichen werden. Dann hätte man zumindest Meßwerte und in Klammern Herstellerangaben darstellen können.

Die Tabelle basiert allein auf Herstellerangaben und da macht leider jeder sein eigenes Ding. Soweit ich weiß kann man dB (Schalldruck) nicht einfach so in Sone (subjektive Lautheit) umrechnen. Für die gemessenen Werte ist dann der Abschnitt Lautstärke da.
 
digitalangel18 schrieb:
Das ist defintiv falsch und geht technisch nicht.
Ich habe auch den Test von StorageReview vor dem Kauf einiger 8TB Archives gelesen. Was dort geschrieben wurde, kann ich allerdings nicht nachvollziehen. Sowohl beim initialen Testen der Platten per badblocks (Write+Read) als auch beim Befüllen mit regulären Daten im Bereich von 100GB+ am Stück konnte ich keine Einbrüche bei der Schreibrate beobachten.

Edit: Die Platten wurden vor ~6 Monaten gekauft.
 
Zuletzt bearbeitet:
TrueAzrael schrieb:
beachte das 1:10 bzw. 10:10 in beiden Fällen sind es nämlich 10 Fehler auf 1.000.000.000.000.000 Bits.
Erstens ist mir klar, dass 10:10^15 das gleich wie 1:10^14 ist und zweitens ist Dir nicht klar, dass es um "Nonrecoverable Read Errors per Bits Read" geht, Bit die falsch gelesen und von der ECC korrigiert wurden, zählen nicht dazu. Daher kann man auch nicht die Rechnung aufmachen, wie viele Bits korrekt gelesen wurden.
TrueAzrael schrieb:
Im ersten eben schön verteilt alle 10^14 Bits ein Fehler und im zweiten Fall die ersten 10^14 Bits 10 Fehler und die restlichen 9*10^14 Bits dafür kein Fehler.
Das ist daher totaler Müll und das Auftreten der Fehler wird nicht garantiert, die müssen nicht auftreten. Es ist einfach eine statische Fehlerwahrscheinlichkeit und sie sagt nichts darüber aus, wann diese Fehler auftreten, ob zu Beginn, später oder einzeln oder gehäuft. Die Angabe gilt wie alle Angaben auch nur, wenn man die HDD innerhalb der Vorgaben betreibt. Die kann man bei HDDs die nicht im RAID laufen dann auch als Schwebende Sektoren in den S.M.A.R.T. Werten sehen, zumindest bis die Sektoren wieder überschrieben werden.

strex schrieb:
Die ST4000DM001 läuft nun auch schon zwei Jahre mit anderen 16 HDDs in einem Case, zwar dafür nicht gedacht steckt das aber locker weg.
Die ST3000DM001 hat die ersten beiden Einsatzjahre bei Backblaze auch mit recht geringen Ausfallraten weggesteckt, dabei sind dort 45 in einem Gehäuse, dann war sie aber auf und die ST4000DM001 dort sind gerade im Schnitt ein Jahr alt. Die 4TB drehen langsamer, brauchen als 2½ Jahre um so viele Umdrehungen gemacht zu haben wie die 3TB in 2 Jahren machen, schauen wir also mal 2017 wie die Ausfallraten dann aussehen oder ob Seagate die Kostenoptimierungen da wieder etwas zurückgeschraubt hat.
strex schrieb:
Ach so die ST2000DL003-9VT166 davor haben auch schon >36.000 Stunden hinter sich. Also gibt es gar keinen Grund warum man keine Desktop HDDs im NAS einbauen sollte, denn die laufen mit 16 Stück in einem Case problemlos.
Die Seagate Barracuda Green dreht auch langsamer (5900rpm), die sind auch ältere Modelle und vermutlich weniger massiv kostenoptimiert. Aber wer gerne Desktopplatten in sein NAS bauen will, kann das von mir aus ja auch gerne machen, er soll nur noch meckern wenn die Platten das nicht so lange durchhalten und er früher als erwartet neue kaufen muss.

digitalangel18 schrieb:
Das ist defintiv falsch und geht technisch nicht.
Doch, die Blöcke mit den überlappenden Spuren müssen nur an einem Stück beschrieben werden, dann geht das Schreiben durchaus schnell und das passiert z.B. wenn man die frisch formatiere HDDs mit h2testw beschreibt. Da werden nur ein paar Verwaltungsdaten des Filesystems nicht sequentiell geschrieben und man kann sie mit so 86,5MB/s beschrieben und mit 122MB/s geprüft, ob die ganze Kapazität wohlgemerkt und nicht nur auf den schnellen äußeren Spuren.

TrueAzrael schrieb:
Kannst du das genauer ausführen? Eine Platte die mit einer Schreibgeschwindigkeit von sustained (durchgängig) 200+MB/s vermarktet wird, sollte durchgängig zumindest 150 schaffen.
Sustained meint nicht durchgängig, sondern vom Medium und nicht aus dem Cache und steht da eben i.d.R. auch "Maximum sustained data rate", denn die bezieht sich eben nur auf die äußeren Spuren und auf den inneren ist es in der Regel nur knapp die Hälfte, keine 3.5" HDD mit vergleichbaren Kapazität wie die getesteten die auch auf den inneren Spuren noch 150MB/s schafft, ist mir nicht bekannt, wenn sie nicht unter 100MB/s fallen, ist das schon gut. Dann sind das Rohleistungen der Platten, da kommt in der Praxis immer noch ein Overhead vom Filesystem drauf, denn das muss ja auch seine Verwaltungsdaten lesen oder beim Schreiben dann eben aktualisieren und dabei entstehen kurze zufällige Zugriffe und damit Kopfbewegungen. Je kleiner die Dateien oder deren Fragmente sind, umso mehr und daher lesen oder schreiben HDDs kleine oder stark fragmentierte Dateien viel langsamer als große, nicht fragmentierte Dateien.
 
@Holt

Da können wir gern nochmals 2017 diskutieren. Wir haben hier massig >100.000 wieder in den Low-end Systemen verbaut. Bis dato sehen die Defekte wieder recht gut aus.

Also die Archiv v2 8TB (ST8000AS0002) schafft definitiv nicht durchgehend beim Schreiben mit mehr als 20GB mehr als > 50MB/s. Bei mir sind es bei knapp 3 TB bei einem Füllstand von mehr als 3TB im Schnitt nur 50 MB/s siehe mein Graph von vorher. Das war als komplett leere HDD auch nicht anders, sobald die ersten 20 GB in den Cache-Bereich geschrieben wurde, geht es auf 50 MB/s im Schnitt zurück. Auch jetzt mit mehr als 6 TB Füllstand, geht es nach 20 GB auf 50 MB/s zurück. Das kann ich bei mehreren mit AR13 und mit AR17 bestätigen. Da gibt es bei mir weder von der von Mai 2015 (AR13) als jetzt vom Feb 2016 (AR17) einen Unterschied. Bei der AR17 wurde nur keine Defekte mehr geliefert. Das war 2015 noch ganz anders, unterschiedliche Händler und mehrere Defekt bei Lieferung oder nach dem Schreiben von 1TB.

Wenn man davon aber genug in's Raid10 steckt, läuft's wie Schnitzel.
 
Zuletzt bearbeitet:
Was die Archive schreibend schafft, hängt von der Art der Schreibzugriffe ab, da kann man pauschal keine Aussagen wie "definitiv nicht durchgehend beim Schreiben mit mehr als 20GB mehr als > 50MB/s" machen. So haben meine beiden ST8000AS0002 nach dem ersten Formatiere mit NTFS und dann dem Test mit h2testw performt:

myst8000-both-h2testw-frist-run-png.550702


Berichte von ähnlichen Ergebnisse bei dem Test mit h2testw findest Du auch im Netz!

myST8000 both h2testw frist run.png
 
@Holt

Da kannst du sagen was du willst, alle meine schaffen bei sequentiellen Schreiben von großen Dateien >100G nur im Schnitt 50 MB/s ohne jeglichen anderen Zugriff. Das bei einer leeren und auch bei einer vollen, völlig egal. Siehe meinem Graph..was sollte es denn schnelleres geben als sequentielles Schreiben? Holt's super speed write Methode?

Holt schrieb:
Berichte von ähnlichen Ergebnisse bei dem Test mit h2testw findest Du auch im Netz!

Die finde ich, bestätigen aber meine Werte.

Selbiges stellt mit 30 MB/s sogar noch schlechter hier da: http://www.storagereview.com/seagate_archive_hdd_review_8tb
https://www.reddit.com/r/DataHoarder/comments/2vxboz/seagate_archive_hdd_v2_8tb_st8000as0002_write/
http://www.notebooksbilliger.de/produkt+bewertung/seagate+archive+hdd+8tb+sata+6gbs (Kommentare)

In our test we saw, as expected, the SMR drives took much longer for a traditional full backup, averaging 30MB/s.

Anhang anzeigen 550376

Also erhelle uns mit deinem super Schreibzugriffe, wie man die gestalten sollte. 10GB schreiben, 5 Minuten warten und counter anhalten und dann nächste 10GB zählt nicht.
 
Zuletzt bearbeitet:
Wie schreibt das h2testw ? Auf ein Filesystem, mit/ohne Journal, ein raw-Device, welche Blockgröße?
 
Vielleicht löst Dein Programm / System (die sind ja in einem RAID) ja nach den Schreibvorgänge fsync Befehle aus. Ich bin mir nicht sicher wie die Archive darauf genau reagiert, aber wenn ich nach dem Schreiben einige GB dann ein sync (sysinterals) ausführe, dauert es sehr lange bis die HDDs mit fertig ist, deren LW-Buchstabe dort also in der Ausgabe von sync erscheint.

Aber wie gesagt hängt die Schreibgeschwindigkeit eben von den Zugriffen ab und damit erstmal von OnDisk Cache und wie viel Platz dort gerade frei und dann davon ob eben ein Block überlappender Spuren am Stück beschrieben wird. Nur dann weiß die Platte sofort, dass sie die alten Daten nicht erst einlesen und danach wieder überschreiben muss. Wie sie das nun genau erfährt und was dann dazu führt das doch alte Daten gelesen und neu geschrieben werden, kann ich auch nicht sagen, denn ein ATA Befehl kann ja maximal 2^16 LBAs adressieren und bei den 512Byte pro LBA der Archive sind das 32MiB, die Zonen überlappender Spuren umfassen aber 256MiB, zumindest bei der ST8000AS0022 und für die alte ST8000AS0002 finde ich dazu nichts. Aber wie ich selbst festgestellt habe, kann man dies HDDs auch in einem Rutsch mit mehr als den sonst meist zu beobachtenden ca. 30MB/s befüllen.

Wie der Review bei storagereview zeigt, können gerade bei zufälligen Schreibzugriffen auch extreme Latenzen auftreten können, dort bis zu 212s und die sind halt das Risiko bei den Platten, gerade in RAIDs oder externen USB Gehäuse. Zwar dürften solche Wartezeiten bei normaler Nutzung kaum je entstehen, aber man kann es auch nie zu 100% ausschließen und dann kann es eben ein Problem geben, wenn die Geduld des Host zu gering war. Normale HDDs sind ja meist defekt, wenn sie so lange nicht antworten, also kann er diese auch leicht als defekt ansehen und sie fliegt aus dem RAID oder ein USB-SATA Bridgechip meldet die Platte einfach beim Host ab, weil sie für ihn eben kaputt zu sein scheint, dabei ist das eben SMR bedingt normal.

HGST ist bei den Ha10 Modellen dem aus dem Wege gegangen, die sind nur host-managed und nicht host-aware, der Host muss also im dieser SMR wissen und es auch unterstützen um mit den Platten etwas anfangen zu können. Außerdem liest die Ha10 die Daten bei Schreiben auch immer noch einmal, um sicher zu gehen das sie stimmen, die schreibt also sowieso sehr langsam.
Ergänzung ()

Kowa schrieb:
Wie schreibt das h2testw ?
Schau es Dir doch mal an, es legt einfach Dateien an die maximal genau 1GiB groß sind, dann schreibt es die nächste Datei.
 
Zuletzt bearbeitet:
strex schrieb:
Aber ja, bei mir ist es scheinbar ein Wunder, weil ich eine komplette Mischung unterschiedlichster Desktop-Platten verwende ohne große Probleme mit über >30.000 Stunden. Das kann es laut Holt ja gar nicht geben..

Wie kommst du auch auf 30k Stunden nach Nicht einmal einem Jahr? Das gibt es wirklich nicht ;-)
 
Koto schrieb:
hardstylerrw



Denke SSD ist einfach die Zukunft. Ich mein es sind ja nun schon 2 TB SSD am Markt.

Technisch könnte man schon 10 TB SSD bauen. Sind halt nur nicht bezahlbar für normal sterbliche.

Habe selber auch nur noch SSD. 1 TB Crusical. Die Umstellung des Datengrab und Backup ist nur eine frage der Zeit.

Zukunft ja, aber die wird noch lange dauern. Hab jetzt für eine 480 GB Ssd 145 € gezahlt. Dafür bekomme ich problemlos eine 4 TB und ein externes Gehäuse. Eine 4 TB SSD ist 5ur Zeit noch unbezahlbar und vor allem als Datengrab eher überdimensioniert.
 
Dass sich die ST8000AS0002 in leerem Zustand durchaus schnell am Stück beschreiben lassen, kann ich bestätigen. Meine beiden (AR13) habe ich jeweils in knapp 30 Stunden rappelvoll geschrieben. Allerdings wurden sie mit Veracrypt komplett verschlüsselt, was durchaus eine Rolle spielen dürfte. Erst ab ca. 6TB geschriebenen Volumen war zu beobachten, dass die Datenrate immer wieder in den Bereich von 25-50MB/s abrutschte, aber auch wieder in höhere Bereiche um die 80MB/s stieg. Für ihren Einsatzzweck absolut akzeptabel.

Ansonsten echt top, dass mal wieder jemand aktuelle Platten testet. Gerade bei den schnellen 8TB Drives von Seagate findet man im Netz keine Reviews. So habe ich mir die ST8000VN0002 kürzlich auf Verdacht angeschafft, gerade was den Punkt Lautstärke angeht. Für mich im Studio im gedämmten Case durchaus noch gut brauchbar, im Gegensatz zur HGST HDN726060ALE610, die ich mal testweise im Einsatz hatte.
 
Wenn ich mir das hier so durchlese... eigentlich dachte ich, daß die normalen WD Reds für das NAS zu Hause genügen, aber wenn es langfristig dazu führt, daß man sie im Laufe von Jahren häufiger auswechseln muß als bspw die WD RED Pros, muß man sich das schon überlegen. Mich hat vor allem der höhere Verbrauch und die höhere Lautstärke der RED Pros gestört (auf dem Papier wohlgemerkt), denn meine einzelne normale RED die ich hier hab, ist ja total lautlos in meinen Ohren...
 
druckluft schrieb:
Für ihren Einsatzzweck absolut akzeptabel.
Klar, die Archive sind für Cool und Cold Data, die bieten eben Kapazität für wenig Geld, aber eben auf Kosten der Schreibperformance und man sollte sie eben auch entsprechend einsetzen. Wer da ständig viel drauf rumschreibt, der hat sich ganz klar die falsche HDD für den Einsatzzweck gekauft.
druckluft schrieb:
Ansonsten echt top, dass mal wieder jemand aktuelle Platten testet. Gerade bei den schnellen 8TB Drives von Seagate findet man im Netz keine Reviews.
storagereview hat schon seit dem 26.02. diesen Review der ST8000NE0001 (Enterprise NAS 8TB) im Netz und die scheint den Ergebnissen nach sehr auf eine gute Leseperformance hin ausgelegt zu sein und weniger auf eine gute Schreibleistung, aber das macht in einem NAS ja auch Sinn und für Anwendungen wo vor allem die Schreibperformance Priorität haben soll, gibt es ja auch die Surveillance Reihe.
druckluft schrieb:
So habe ich mir die ST8000VN0002 kürzlich auf Verdacht angeschafft, gerade was den Punkt Lautstärke angeht. Für mich im Studio im gedämmten Case durchaus noch gut brauchbar, im Gegensatz zur HGST HDN726060ALE610, die ich mal testweise im Einsatz hatte.
Ist denn das Zugriffsgeräusch der Deskstar NAS ähnlich stark wie bei der Ultrastar? Das Grundrauschen der Platte stört am Ende eben meist viel weniger als ein lautes Zugriffsgeräusch und da hat Seagate es wirklich geschafft den Unterschied zwischen der Laufstärker im Leerlauf und der bei Zugriffen wirklich gering zu halten.

Wolfsrabe, wie kommst Du da nun drauf? Die Red hat zwar nur 3 Jahre Garantie und die Red Pro 5, aber so lange gibt es beide noch nicht als das man über deren Dauerhaltbarkeit schon Erfahrungen gesammelt haben könnte. Wichtig ist natürlich die Spezifikationen zu beachten, was Backblaze z.B. nicht macht, denn die Red sind nur für bis zu 8 (die frühen Modelle nur für 5) HDDs in einem Gehäuse vorgesehen und nicht für 45.
 
Holt schrieb:
Ist denn das Zugriffsgeräusch der Deskstar NAS ähnlich stark wie bei der Ultrastar? Das Grundrauschen der Platte stört am Ende eben meist viel weniger als ein lautes Zugriffsgeräusch und da hat Seagate es wirklich geschafft den Unterschied zwischen der Laufstärker im Leerlauf und der bei Zugriffen wirklich gering zu halten.

Ich kenne die Ultrastar Serie leider nicht als Vergleich, aber die HDN726060ALE610 war definitiv die lauteste HDD die mir in den letzten Jahren untergekommen ist (setzt meinen damaligen WD Black WD2002FAEX nochmal leicht einen drauf). Deutlich aus dem restlichen Festplattenpark raushörbar, sowohl was das Grundlaufgeräusch angeht und noch extremer bei den Zugriffsgeräuschen. Dazu bestimmt 2-3 Grad wärmer als die am gleichen Platz verbaute ST8000NE0001. Auf der anderen Seite war das eine zumindest gefühlt schnelle HDD.
 
@Computerbase:

Warum hat man eigentlich nicht die ST8000NM0055 in den Test aufgenommen und mit Enterprise und Desktop Festplatten Äpfel mit Birnen verglichen.

Ansonsten ganz interessant..
 
In so ein Review kann man ja doch nur die Performance testen, die sonstigen Eigenschaften sind da außer der Leistungsaufnahme und Lautstärke kaum zu ermitteln. Wie soll man die Vibrationsfestigkeit oder gar die Lebenserwartung unter bestimmten Einsatzbedingungen ermitteln? Die Performance kann man schon vergleichen und es gibt vielleicht auch noch Leute die die Transferraten oder IOPS wirklich interessieren, auch wenn man für performancekritische Anwendungen eben heute i.d.R. SSDs nimmt. Es ist ja schon toll, dass man sich bei den Praxistests für solche Datengräber die Bootzeit und Zeiten für die Installation von Programm x, y, und z gespart hat, die manche Reviewer auch noch ermitteln.
 
Mir fällt es schwer aus dem Artikel eben einen sinnvollen Nutzen/Relevanz für mich zu ziehen. Man hat auch so Aussagen getroffen wie "Zudem werden nur zwei Jahre Garantie geboten." z.B für die Seagate Festplatte, die als reine Desktopfestplatte eine ganz normale (übliche) Garantie hat, die (aber) natürlich nicht mit der der Enterprise Festplatten zu vergleichen ist.
Oder auch "Niedriger Preis pro Terabyte" --> Ja klar.
 
Klar ist es recht unsinnig Dinge wie Preis und Garantiedauer zwischen einer Desktop HDD (billigste Kategorie von HDDs) und einer Enterprise Nearline HDD zu vergleichen, aber das es da überhaupt unterschiedliche Kategorien gibt, scheint sich eben nicht nur vielen Lesern noch nicht im Bewusstsein verankert zu haben. :evillol:
 
Zurück
Oben