News Seagates Archive HDD mit 8 TB im Handel gelistet

Cool Master schrieb:
Enterprise Platte? Das ist keine Enterprise Platte...

Bitte?! Dann erklär das mal bitte Seagate, denn die haben das, was du hier so nebenbei mal niederschreibst, nämlich noch nicht gemerkt...:rolleyes:

- Supersized capacity, energy efficiency and lowest TCO
- Seagate brings over 30 years of trusted storage reliability to the growing need for online long-term storage.
- Seagate Secure models provide hardware-based data security and deliver an Instant Secure Erase feature for safe, fast and easy drive retirement.
- Seagate Secure models meet the NIST 800-88 media sanitization specification and also support the Trusted Computing Group (TCG) standards.

Das sind natürlich bekannte Themen worüber sich Heimanwender ständig Gedanken machen.
Und für dich zitiere ich gerne noch mal die von Seagate vorgesehenen Use Cases für diese Platte:

Best-Fit Applications
• Cost-effective online archiving
• Object storage
• Big Data cold storage
• Cloud active archive
• Web-scale archiving

Macht zu Hause natürlich jeder ständig. Ich komm selbst ja auch zu kaum was anderem als über kosteneffektive online Archivlösungen nachzudenken, während mein Kollege aus dem Archivbereich im Büro eine Lösung dafür erarbeitet wie ich zu Hause meine Daten gescheit ablegen kann! Ach so, Moment...:rolleyes:

Das ist eine Entry Level Enterprise Platte für kostensensible Anwendungen, bei denen günstig große Menge Daten gespeichert werden müssen. Auch im Enterprise Bereich gibt es unterschiedliche Niveaus bei den Anforderungen an die Hardware.
Ihr erzeugt pro Platte 15 TB Workload pro 9 Tage? Fein, dann sind das die falschen Platten für euren Enterprise Zweck. Dadurch werden aber nicht automatisch alle Platten, die die Anforderungen dafür nicht erfüllen, zu Consumer Platten.

Es gibt hier wirklich überhaupt keinen Aspekt der es einem ernsthaft erlaubt zu argumentieren, dass es sich hierbei um eine Consumer Platte handelt.

Holt schrieb:
DunklerRabe, als hast Du keine Belege wo Seagate die Platte als Home-NAS Platte anpreist und damit bleibt es alleine Deine Interpretation sie wäre dafür geeignet. Und wieso sollte Seagate dann im Kleingedruckten nicht sagen für welche Aspekte eines Heimanwenders die Platte zu gebrauchen ist? Offenbar werden die ja auch über den Channel verkauft und bei dem Preis ist es doch logisch, dass da auch Heimanwender zuschlagen werden. Das kann Seagate doch nur recht sein und Archivierungen, also auch Backups, sollten Heimanwender auch machen.

Ich hab von dir noch nirgends eine weniger konsistente Argumentation gesehen.

Seagate preist die Platte offensichtlich als Enterprise Produkt an. Wenn die jetzt anfangen wollen aufzulisten wofür die Platten alles NICHT geeignet ist, dann brauchen die bald jede Menge ihrer eigenen Platten um die Produktbeschreibungen abzulegen. Über den Channel, über den diese Platten vertrieben werden, kriegt man auch die andere Enterprise Platten, das ist also auch kein Indikator.
Den Unterschied zwischen Backup und den anderen Use Cases hier, Archiviereung speziell, erkläre ich dir mal nicht. Das weißt du schon selbst.

Und ich habe gesagt, dass man die Platten grundsätzlich für den Betrieb zu Hause in einem NAS verwenden kann. Im Einzelfall muss man das eben immer wieder aufs Neue entscheiden. Die meisten User werden die Specs der Platten dabei nicht überschreiten. Ich sehe nicht was an dieser Vorgehensweise falsch sein kann.
 
Zuletzt bearbeitet:
DunklerRabe, Seagate erwähnt NAS explizit als nicht geeignete Anwendung für die Platte, Punkt aus. Du weißt nicht ob die wengistens für Home-NAS genügt und ich weiß es nicht, einfach weil es überhaupt keinerlei Erfahrungen damit gibt, ja nicht geben kann weil es die Platte ja noch praktisch nicht gibt. Wie sieht es aus, wenn jemand sein NAS fast vollgeschrieben hat und dann etwas löscht und seinen Fotosammlung dort speichern möchte, also viele kleine Dateien? Wie verhält sich ein NAS mit 4 der Platten im RAID 5 dann, wenn ggf. die Reaktionszeiten der HDD sehr hoch sind, weil sie wegen SMR erste viele Daten lesen und nach der Änderung wieder neu schreiben muss? Ich weiß es nicht, aber Du weißt es auch nicht!

Also sei ehrlich und schreibe offen das keiner bisher etwas zur Eignung der Archive v2 für bestimmte Anwendungen sagen kann, statt einfach etwas aus der Luft zu greifen und zu behaupten, das nutzt niemandem! Wer billig viele TB haben will soll es probieren, aber das passiert immer auf eigenes Risiko, gerade wenn der Hersteller von dieser Anweundung abrät und das sollte jedem klar sein und klar gemacht werden. Wenn Du hier Leute dazu überrefen willst es zu tun nur um dann selbst zu wissen wie es ausgeht ist das einfach nur schändlich und Du solltest dann offen sagen, dass Du einfach nur Versuchskannichen suchst.
 
Schonmal daran gedacht, dass der Hersteller ein begründetes Interesse hat, den Einsatzzweck ggf. künstlich einzuschränken um auf die HGST Ultrastar He8 8 TB zu verweisen? Ich sehe hier auch kein Problem, die Platte in einem normalen NAS im Privatbereich einzusetzen. Davon ab, auch andere Platten können grundsätzlich jeder Zeit den Geist aufgeben.
 
DunklerRabe schrieb:
Bitte?! Dann erklär das mal bitte Seagate, denn die haben das, was du hier so nebenbei mal niederschreibst, nämlich noch nicht gemerkt...:rolleyes:

Wie gesagt 180 TB Limit im Jahr ist alles aber kein Enterprise das schreiben einige Unternehmen täglich. Dazu 3 Jahre Garantie für ein Enterprise Produkt? Ich glaube eher Nein....

DunklerRabe schrieb:
Das sind natürlich bekannte Themen worüber sich Heimanwender ständig Gedanken machen.

Ok gehen wir die Punkte mal durch:

- Supersized capacity, energy efficiency and lowest TCO
- Seagate brings over 30 years of trusted storage reliability to the growing need for online long-term storage.
- Seagate Secure models provide hardware-based data security and deliver an Instant Secure Erase feature for safe, fast and easy drive retirement.
- Seagate Secure models meet the NIST 800-88 media sanitization specification and also support the Trusted Computing Group (TCG) standards.

1. TCO darüber macht sich wohl jeder Gedanken... Große HDD + wenig Verbrauch = lowest TCO.
2. "Online" spielt hier keine Rolle eher der hintere Teil. "long-term storage" bedeutet also ein Backup Speicher auf dem 1x/Tag geschrieben wird und im besten Fall nichts gelesen wird.
3. Warum sollte sich ein Privatanwender darüber nicht freuen? Wenn es sowas gibt ist denke ich jeder froh wenn er die HDDs verkaufen will und er nicht erst mal 7 mal mit einser und nuller überschreiben darf - vor allem bei 8 TB, was 56 TB wären also nicht gerade gesund für das 180 TB Limit im Jahr...
4. Das ist Marketing. Hier schau an Zertifikate und support für xyz.... Nichts besonderes.


DunklerRabe schrieb:
Es gibt hier wirklich überhaupt keinen Aspekt der es einem ernsthaft erlaubt zu argumentieren, dass es sich hierbei um eine Consumer Platte handelt.

Siehe nächster Punkt.

DunklerRabe schrieb:
Seagate preist die Platte offensichtlich als Enterprise Produkt an.

Das glaubst du... Wenn Seagte das wirklich als eine Enterprise HDD sieht ist es eine Tot geburt. Warum?:

- 180 TB/Jahr
- 3 Jahre Garantie
- 10^14 Error Rate.
- 300k Load/Unload Cycles

Diese drei Punkte sprechen gegen einen Enterprise Einsatz.

Dazu im Vergleich mal die HGST 8 TB:

- Workload finde ich aktuell keinen Wert
- 5 Jahre Garantie
- 10^15 Error Rate
- 600k Load/Unload

Mit 180 TB könnte man ja noch leben aber nur 3 Jahre Garantie und 10^14 Error Rate ist kein Enterprise Level.


Green Mamba schrieb:
Schonmal daran gedacht, dass der Hersteller ein begründetes Interesse hat, den Einsatzzweck ggf. künstlich einzuschränken um auf die HGST Ultrastar He8 8 TB zu verweisen?


Seagate will seine Produkte einschränken und auf einen anderen Hersteller (HGST, welcher zu WD gehört...) verweisen? Welchen Sinn würde das ergeben?

Green Mamba schrieb:
Ich sehe hier auch kein Problem, die Platte in einem normalen NAS im Privatbereich einzusetzen. Davon ab, auch andere Platten können grundsätzlich jeder Zeit den Geist aufgeben.

Wie gesagt der Hersteller hat NAS Platten sowohl für den Heimanwender als auch für Enterprise Zwecke im Angebot. Die Archive ist es eben keine NAS HDD. Wird sie darin laufen? Klar sicherlich bestimmt auch ohne Probleme ABER wenn das Teil halt mal verreckt und Seagate fragt dich nach deinem Einsatzzweck und du sagst "NAS" sagen die nur: Sorry gibt keine Garantie weil wir das nicht supporten.

Der Hersteller schreibt nicht umsonst ins Datenblatt etwas rein. Wenn man eine NAS platte sucht muss man halt aktuell noch auf 6 TB gehen.
 
Holt schrieb:
DunklerRabe, Seagate erwähnt NAS explizit als nicht geeignete Anwendung für die Platte, Punkt aus. Du weißt nicht ob die wengistens für Home-NAS genügt und ich weiß es nicht, einfach weil es überhaupt keinerlei Erfahrungen damit gibt, ja nicht geben kann weil es die Platte ja noch praktisch nicht gibt. Wie sieht es aus, wenn jemand sein NAS fast vollgeschrieben hat und dann etwas löscht und seinen Fotosammlung dort speichern möchte, also viele kleine Dateien? Wie verhält sich ein NAS mit 4 der Platten im RAID 5 dann, wenn ggf. die Reaktionszeiten der HDD sehr hoch sind, weil sie wegen SMR erste viele Daten lesen und nach der Änderung wieder neu schreiben muss? Ich weiß es nicht, aber Du weißt es auch nicht!

Also sei ehrlich und schreibe offen das keiner bisher etwas zur Eignung der Archive v2 für bestimmte Anwendungen sagen kann, statt einfach etwas aus der Luft zu greifen und zu behaupten, das nutzt niemandem! Wer billig viele TB haben will soll es probieren, aber das passiert immer auf eigenes Risiko, gerade wenn der Hersteller von dieser Anweundung abrät und das sollte jedem klar sein und klar gemacht werden. Wenn Du hier Leute dazu überrefen willst es zu tun nur um dann selbst zu wissen wie es ausgeht ist das einfach nur schändlich und Du solltest dann offen sagen, dass Du einfach nur Versuchskannichen suchst.

Was ist denn jetzt bitte genau dein Punkt?

Ich habe gesagt, dass man im Einzelfall halt gucken muss, ob die Platte geeignet ist, denn die wenigsten Heimanwender werden die Specs der Platte überschreiten. Grundsätzlich ist es kein Problem.
Du glaubst es sein ein Problem, weil du über die Performance durch SMR spekulierst oder ein Raidcontroller die Platte durch hohe Reaktionszeiten droppen könnte? Das ist doch genau so aus der Luft gegriffen und zudem unwahrscheinlich, weil Zugriffszeiten durch SMR sicher nicht um mehrere Größenordnungen in den Sekundenbereich vordringen.

Das der Hersteller von dieser Anwendung abrät ist auch nur deine Spekulation. Mit etwas Verstand und Logik erkennt man recht leicht, dass deine Version relativ unwahrscheinlich ist während meine relativ wahrscheinlich ist.

Ja, es ist neue Hardware und neue Technologie und all das. Aber ich suche auch bestimmt niemanden als Versuchskaninchen. Wenn ich neue Hardware einsetzen möchte und etwas damit testen muss, dann hab ich das bisher immer noch selbst gemacht. Und wie ich in diesem Thread bereits klar gemacht habe plane ich die Anschaffung einiger dieser Platten. Die Hardware für meinen zweiten Fileserver ist bereits in der Post, den werde ich dann zusammenbauen und dann warte ich nur noch auf die flächendeckende Verfügbarkeit der Platte um zu sehen wie sich die Preise dann entwickeln.

@Cool Master:
Gewöhn dich daran, es gibt Entry Level Enterprise Drives. Das hier ist eine. Mir egal ob du bereit biste dieses Marktsegment zu akzeptieren oder nicht, denn das ändert nichts an der Tatsache, dass es sowas gibt.
 
Zuletzt bearbeitet:
Holt schrieb:
Seagate erwähnt NAS explizit als nicht geeignete Anwendung für die Platte, Punkt aus. Du weißt nicht ob die wengistens für Home-NAS genügt und ich weiß es nicht, einfach weil es überhaupt keinerlei Erfahrungen damit gibt, ja nicht geben kann weil es die Platte ja noch praktisch nicht gibt.
Es liegt im Interesse des Anbieters Einsatzbereiche voneinander abzugrenzen. Teilweise ist das technisch durchaus sinnvoll, teilweise ist das aber auch einfach nur Marketing um mehr teure Festplatten zu verkaufen. Schaut man sich die technische "Charakterisierung" (Consumer-Bitfehlerrate, 24x7 Freigabe, 180TB/Jahr, potentielle Überschreibschwäche und evtl. Probleme mit HW-RAID) an, bekommt man unabhängig vom Seagate-Marketing eine recht gute Vorstellung, wozu die Platte geeignet ist und wozu nicht. Ein Home-NAS, als zentrale Sammelstelle für alle möglichen Mediendaten und Backups sollte damit also kein Problem sein.

Holt schrieb:
Wie verhält sich ein NAS mit 4 der Platten im RAID 5 dann, wenn ggf. die Reaktionszeiten der HDD sehr hoch sind, weil sie wegen SMR erste viele Daten lesen und nach der Änderung wieder neu schreiben muss? Ich weiß es nicht, aber Du weißt es auch nicht!
Die RAID-Eignung ist ein interessanter Punkt der Tests bedarf. Allerdings wird in den "Best-Fit-Applications", die Seagate nennt, häufig mit RAID gearbeitet. Deswegen vermute ich, dass zumindest im Nicht-Fehlerfall die Antwort-Zeit deutlich unter der Timeout-Grenze gängiger RAIDs liegt.

Cool Master schrieb:
Mit 180 TB könnte man ja noch leben aber nur 3 Jahre Garantie und 10^14 Error Rate ist kein Enterprise Level.
Für klassische Server und Workstations mag das Stimmen, bei den großen Datensammlern sind aber heutzugage sehr häufig Consumer-Platten im Einsatz, einfach weil es kosten-effizienter ist. Die Bitfehler-Rate ist bei geeigneter Kombination von RAID und Dateisystem kein gravierendes Problem. Bei schnell wachsenden Datenmengen ist es ebenfalls kostengünstiger regelmäßig kleine gegen große Festplatten zu tauschen als immer mehr Platten anzuhäufen, denn die verbrauchen nicht nur mehr Strom, man braucht auch mehr Kühlung, mehr Controller-Ports und natürlich mehr Platz und Service-Zeit. Die 180TB/Jahr könnten hingegen ein Problem sein, sofern die Grenze an der Technik liegt und damit nicht nur die Garantie eingeschränkt werden soll.
 
Green Mamba schrieb:
Schonmal daran gedacht, dass der Hersteller ein begründetes Interesse hat, den Einsatzzweck ggf. künstlich einzuschränken um auf die HGST Ultrastar He8 8 TB zu verweisen?
Nur das HGST ein Wettbewerber ist und zu WD gehört und Seagate kein anderes 8TB Modell im Programm hat.

Green Mamba schrieb:
Ich sehe hier auch kein Problem, die Platte in einem normalen NAS im Privatbereich einzusetzen.
Aber auch Du weißt nicht welches Problem Du dabei ggf. übersiehst, denn auchDu hast 0 Erfahrung damit und kann auch auf keinerlei Test- oder Erfehrungsberichte zurückgreifen. Alleine Seagate dürfte damit Testerfahrung haben, weil sie die Platte entwickelt haben.
Green Mamba schrieb:
Davon ab, auch andere Platten können grundsätzlich jeder Zeit den Geist aufgeben.
Das ist logisch, aber wenn man dann eine HW in einer Art verwendet wofür sie nicht geeignet und gedacht ist, hat man am Ende wieder ungewöhnlich hohe Ausfallraten wie es bei Backblaze der Fall ist und dann wird der Hersteller pauschal nieder gemacht weil seine Produkte nichts taugen würden, dabei rät er selbst von der Art von Einsatz ab, so wie Seagte auch den bei Backblaze verwendeten HDDs nicht einmal eine 24/7 Tauglichkeit zugesteht.

Cool Master schrieb:
Die Archive ist es eben keine NAS HDD. Wird sie darin laufen? Klar sicherlich bestimmt auch ohne Probleme ABER wenn das Teil halt mal verreckt und Seagate fragt dich nach deinem Einsatzzweck und du sagst "NAS" sagen die nur: Sorry gibt keine Garantie weil wir das nicht supporten.
Meine Sorge ist weniger das sie verrecken wird, irgendwann verrecken sie alle, aber das es eben vorher Probleme gibt und zwar nachdem sie voll ist und keine Tricks mehr möglich sind, denn der Usertest der 5TB zeigt ja schon klar, dass es dort offenbar massiv Cache gibt und die Schreibraten und 4k Werte daher teils ungewöhnlich hoch sind. Was wenn dazu ein NAND verbaut ist und das eben nach 3 x 180TB dann platt ist und die Performance richtig runter geht, weil das Caching dann wegfällt? Oder wenn es wie bei der HGST Ultrastar C10K1800 einen Disk-based Media Cache gibt:



Wird aber zu viel geschrieben ohne der Platte Zeit zum Umsortieren der Daten zu lassen, bricht auch dann die Schriebperformance ein und wie weit das ist, kann auch keiner von uns sagen und ich beweifel das die üblichen Benchmarks und Reviews das zeigen werden.

Limit schrieb:
Ein Home-NAS, als zentrale Sammelstelle für alle möglichen Mediendaten und Backups sollte damit also kein Problem sein.
Sollte, also reiche Spezukation und ich sehe das zwar auch so, aber ich kennzeichene es deutlicher als reine Spekulation! Zumal wir beide nicht was den nun jeder so mit seinem Home-NAS anstellt, das kann durchaus unterschiedlich sein.

Limit schrieb:
Die RAID-Eignung ist ein interessanter Punkt der Tests bedarf. Allerdings wird in den "Best-Fit-Applications", die Seagate nennt, häufig mit RAID gearbeitet. Deswegen vermute ich, dass zumindest im Nicht-Fehlerfall die Antwort-Zeit deutlich unter der Timeout-Grenze gängiger RAIDs liegt.
Das ist richtig, aber wenn wegen SMR wirklich mal eine Reihe von Daten gelesen werden müssen um die oberen Spur zu überschreiben, dann hat man eine sehr erhöhte Wahrscheinlichkeit eines Fehler- oder besser Problemfalles, wenn denn dann einer der Sektoren nicht gelesen werden kann die zwar gar nicht überschrieben werden sollen, aber wegen SMR zwangsweise überschrieben werden und deshalb eben gelesen und dann erneut geschrieben werden müssen.

Das mag im Normalfall aufgrund eines Caches noch im Hintegrund passieren, aber was ist wenn ein User dann mal sehr viele Daten schreibt und der Cache voll ist und die Antwortzeit dann über den Timeout kommt? Dann hast Du eine NAS auf das man nur immer eine bestimmte Datenmenge am Stück schreiben kann und übersteigt man diese, dann bekommt man womöglich einen Fehler, aber die S.M.A.R.T. Werte der Platte sind weiterhin in Ordnung. Wir hier könnten das verstehen und damit umgehen, aber kann das jeder Heimanwender? Für den ist das wohl der komplette Fail und die Platten damit ungeeignet.

Man sollte auch nicht vergessen, dass bei den Benchmarks der v5 die Leserate teils deutlich geringer als die Schriebrate war, SMR bedeutet auch das in den Köpfen die Bereiche fürs Lesen und Schreiben unterschiedlich groß sind und die magnetisierte Fläche für ein Bit sehr viel kleiner ist, damit gibt es womöglich leichter Probleme beim Lesen als bisher. Das ist ja alles noch eine neue Technik, auch für die Hersteller.
Limit schrieb:
Die 180TB/Jahr könnten hingegen ein Problem sein, sofern die Grenze an der Technik liegt und damit nicht nur die Garantie eingeschränkt werden soll.
Wegen SMR gibt es ja auch sowas wie eine Write Amplification nun auch bei HDDs, das dürfte bei den 180TB sicher berücksichtigt worden sein. Wenn 4 Spuren überlappend liegen bevor eine Lücke kommt, dann müssen im schlechtesten Fall (überschreiben der obersten) die ersten 3 auch gelesen und wieder neu geschrieben werden, damit werden dann 3x Daten gelesen und 4x geschrieben, was eine WA von 7 ergibt, bei der zweiten Spur sind es noch 2x lesen und 3x schrieben, also eine WA von 5, dann 3 und nur die untestes kann direkt beschrieben werden, also eine WA von 1. Macht also (7+5+3+1)/4 = 4 also durchschnittliche WA und damit statt 180TB dann intern einen Workload von 720 TB und das ist schon Enterprise und nicht mehr nur Einsteigerklasse.

Bzgl. RAID-tauglichkeit bedeutet es auch, dass im schlimmsten Fall eine 7 fache Fehlerchance besteht.
 
Holt schrieb:
Sollte, also reiche Spezukation und ich sehe das zwar auch so, aber ich kennzeichene es deutlicher als reine Spekulation!
Zwischen "reiner Spekulation" und "hab's selbst getestet" ist reichlich Platz. Der Erscheinungstermin von HAMR-Festplatten wäre reine Spekulation, die Frage über die Nachfolgetechnologie wäre reine Spekulation. Eine Einschätzung auf Grund von konkreten technischen Daten ist keine reine Spekulation.

Holt schrieb:
Das ist richtig, aber wenn wegen SMR wirklich mal eine Reihe von Daten gelesen werden müssen um die oberen Spur zu überschreiben, dann hat man eine sehr erhöhte Wahrscheinlichkeit eines Fehler- oder besser Problemfalles, wenn denn dann einer der Sektoren nicht gelesen werden kann die zwar gar nicht überschrieben werden sollen, aber wegen SMR zwangsweise überschrieben werden und deshalb eben gelesen und dann erneut geschrieben werden müssen.
Dazu müsste man wissen, ob die Platte ERC unterstützt. Bei den genannten Best-Fit-Applications würde ich das erwarten, aber das ist diesmal wirklich nur Spekulation. Sollte sie ERC unterstützen, wäre die von dir geschilderte Situation unproblematisch. Falls nicht, wäre das aber sicherlich ein Minus-Punkt, wenn die Platten dann jedes mal aus dem RAID geworfen würden. Bei Software-RAID oder ZFS/btrfs hat man das Problem sowieso nicht.

Holt schrieb:
Wegen SMR gibt es ja auch sowas wie eine Write Amplification nun auch bei HDDs
Wobei das bei HDDs ein kleineres Problem darstellt als bei SSDs, einfach weil HDDs von Haus aus weniger/keine Probleme mit der Zahl der Schreibzyklen haben (ob SMR etwas daran ändern, kA, dazu müsste man schon sehr tief in die Materie einsteigen). Das wäre damit also eher ein Frage der Performance und keine der Haltbarkeit. Zusätzlich ließe sich dem mit großzügigen Caches und entsprechender Firmware entgegenwirken.
 
Cool Master schrieb:
@Mamba
Seagate will seine Produkte einschränken und auf einen anderen Hersteller (HGST, welcher zu WD gehört...) verweisen? Welchen Sinn würde das ergeben?

Sorry, meinte natürlich was äquivalentes aus den eigenen Reihen. ;)
 
Limit schrieb:
Zwischen "reiner Spekulation" und "hab's selbst getestet" ist reichlich Platz.
Nicht nur dazwischen, auch danach, denn auch wenn man es selbst getestet hat, kann man Fehler nie ausschliessen, oder glaubst Du die ganze SW und HW die Bugs zeigt, wurde gar nicht getestet? Kein Test kann alle Usecases abdecken, Probleme können in anderen Fälle immer noch auftreten die eben nicht getestet wurden, weil der Testaufwand um alle Fälle abzudecken einfach unendlich wäre.
Limit schrieb:
Eine Einschätzung auf Grund von konkreten technischen Daten ist keine reine Spekulation.
Das Datenblatt gibt doch nur einen Bruchteil der konkreten technischen Daten preis.
Limit schrieb:
Dazu müsste man wissen, ob die Platte ERC unterstützt.
Wieso? Ich wette Du weißt doch gar nicht wirklich was ERC, CCTL (Command Completion Time Limit) oder TLER (Time-Limited Error Recovery) bedeuten.
Wie Du sieht geht es nur darum ob das Zeitlimit einstellbar ist, nicht mehr und nicht weniger! Das Zeitlimit gibt es immer, bei jeder HDD nur ist es bei einigen eben ab Werk fest voreingestellt und wenn diese Voreinstellung eben nicht über dem Limit (Timeout) liegt, dann braucht es auch nicht einstellbar zu sein, dann ist eine Platte ohne TLER oder ERC genauso gut RAID tauglich wie eine mit, von anderen Einrichtungen wie vor allem denen z.B. die zur Vibrationskompensationen natürlich abgesehen.
Limit schrieb:
Sollte sie ERC unterstützen, wäre die von dir geschilderte Situation unproblematisch.
Relativ, da sie in bestimmten Situationen beim Schreiben immer noch ungleich mehr Zeit als andere HDDs brauchen wird.
Limit schrieb:
Bei Software-RAID oder ZFS/btrfs hat man das Problem sowieso nicht.
Wie kommst Du denn auf die komische Idee? Natürlich haben auch Software-RAIDs einen Timeout, bei Windows kann der unter HKLM\System\CurrentControlSet\Services\Disk\TimeoutValue von 1 bis 255 Sekunden eingestellt werden (Default 10s), bei FreeBSD 6.3 geht das unter kern.geom.mirror.timeout und der Default ist sogar nur 4s. Unter Linux kann man es z.B. unter /sys/block/sda/device/timeout auslesen und einstellen. md hat meines Wissens keinen eigenen Timeout:
Bzgl. Read Errors ist es so, dass diese unter /sys/block/md?/md/dev-sd?/errors gezählt werden und wenn eine Platte über /sys/block/md?/md/max_read_errors liegt, dann fliegt die Platte aus dem RAID.

zfs hat sogar noch den deadmen Timeout und wenn der Überschritten wurde, gibt es eine Systempanik.
Limit schrieb:
Wobei das bei HDDs ein kleineres Problem darstellt als bei SSDs, einfach weil HDDs von Haus aus weniger/keine Probleme mit der Zahl der Schreibzyklen haben
Richtig, aber es ging mir auch nur um den Workload, der wird eben entsprechend höher sein als das vom Host geschriebene Datenvolumen.
Limit schrieb:
(ob SMR etwas daran ändern, kA, dazu müsste man schon sehr tief in die Materie einsteigen).
Das dürfte vor allem davon abhängen welche Art von Cache da verwendet wird um die Nachteile zu kompensieren, was auf jeden Fall immer nur unvollständig möglich ist. In jedem Fall würde ich mal von einem großen RAM Cache ausgehen, damit man wenigstens alle Daten überlappender Spuren dort speichern kann, der muss ja auf jeden Fall vorhanden sein, wenn wenn genau die äußerste der überlappenden Spuren überschreiben wird, dann muss man ja die ganze Daten der inneren Spuren lesen und später erneut schreiben, sie also zwischenspeichern. Reicht der Platz dafür nicht, müsste man erst ein paar Sektoren überschrieben und dann das ganze Lesen und Schreiben für die nächsten Sektoren wiederholen, was der Performance gar nicht gut täte.

Normaleweise werden auch erste die entsprechenden Spuren der anderen Köpfe gelesen / geschrieben, bevor man die Köpfe auf die nächste Spur positioniert, wenn man das beibehält, müsste der Cache entsprechend größer sein, aber das scheint Seagate nicht zu machen und irgendwie ist das bei SMR so wohl auch sinnvoller.
Limit schrieb:
Das wäre damit also eher ein Frage der Performance und keine der Haltbarkeit.
Beides, denn die erhöhte Workload wirkt sich natürlich auch auf die Haltbarkeit aus
Limit schrieb:
Zusätzlich ließe sich dem mit großzügigen Caches und entsprechender Firmware entgegenwirken.
Aber genau da liegt dann womöglich das Problem welches Du nicht sehen willst. Die Caches können nur wirken bis sie voll sind und dann? Dann kommt man womöglich genau in solche Situationen in denen es plötzlich Problem gibt weil man den Cach gefüllt hat, die Performance deshalb einbricht und womöglich ein Timeout überschritten wird. Wann das passieren könnte und welche Antwortzeiten man dann hat, steht aber nicht in den technischen Daten auf denen Deine Einschätzung beruht.
 
Zuletzt bearbeitet:
Holt schrieb:
Nicht nur dazwischen, auch danach
Ich habe nichts anderes behauptet. Die Grenze habe ich nur gewählt, da es einen Beweis der Fehlerfreiheit praktisch nur in theoretischen Modellen gibt und alles andere auf eine begrenzte Zahl an Tests hinausläuft.

Holt schrieb:
Wieso? Ich wette Du weißt doch gar nicht wirklich was ERC, CCTL (Command Completion Time Limit) oder TLER (Time-Limited Error Recovery) bedeuten.
Wette verloren. Ich hatte sogar nochmal kurz nachgelesen um keinen Mist zu schreiben.

Holt schrieb:
Das Zeitlimit gibt es immer, bei jeder HDD nur ist es bei einigen eben ab Werk fest voreingestellt und wenn diese Voreinstellung eben nicht über dem Limit (Timeout) liegt, dann braucht es auch nicht einstellbar zu sein, dann ist eine Platte ohne TLER oder ERC genauso gut RAID tauglich wie eine mit, von anderen Einrichtungen wie vor allem denen z.B. die zur Vibrationskompensationen natürlich abgesehen.

Der Punkt geht an dich. Allerdings ist es doch meistens so, dass bei Consumer-Platten meist ein höheres Timeout voreingestellt ist und bei aktuellen RAID-Platten der Wert einstellbar ist. Ich kann mich täuschen, aber die Kombination fest und niedriges Limit kenne ich nur von alten RAID-Platten.

Holt schrieb:
Relativ, da sie in bestimmten Situationen beim Schreiben immer noch ungleich mehr Zeit als andere HDDs brauchen wird.
Das mag sein, aber solange das restliche System mehr Daten produzieren als die Festplatten schreiben kann, kannst du prinzipiell bei jeder Festplatte einen beliebig großen Rückstau mit entsprechend großen Verzögerungen errreichen. Aber um das zu fabrizieren, müsste man schon mit vielen Programmen gleichzeitig größere Datenmengen schreiben. Dieses Szenario ist allerdings sehr untypisch sowohl für die Best-Fit-Appsals auch für ein gewöhnliches Home-NAS. Sowas findet man eher in Datenbank-Server und ähnlichen Anwendungsszenarien.

Holt schrieb:
Wie kommst Du denn auf die komische Idee? Natürlich haben auch Software-RAIDs einen Timeout, bei Windows kann der unter HKLM\System\CurrentControlSet\Services\Disk\TimeoutValue von 1 bis 255 Sekunden eingestellt werden (Default 10s), bei FreeBSD 6.3 geht das unter kern.geom.mirror.timeout und der Default ist sogar nur 4s.

Ok, da habe ich zu sehr verallgemeinert. Mit RAID habe ich mich bisher nur in Verbindung mit Linux beschäftigt. Aber sollange du den Wert konfigurieren kannst, ist das ganze doch kein so großes Problem und mdadm/btrfs/(ZFS?) haben kein eigenes Timeout. Das Timeout des Linux-Kernels/Treibers ist auf 30s voreingestellt (zumindest bei mir) und greift afaik nur dann, wenn die Platte in der Zeit überhaupt kein Block schreibt. Solange also zumindest alle 30s mindestens ein Block geschrieben wird, ist alles ok. Bei diesem Timeout geht es eben wirklich nur darum defekte Festplatten zu erkennen. Solange die Festplatte bei Lese-/Schreibproblemen kein höheres Timeout besitzt, sollte keine "funktionierende" Platte deswegen aus dem RAID-Verbund herausfliegen.

Holt schrieb:
Die Caches können nur wirken bis sie voll sind und dann? Dann kommt man womöglich genau in solche Situationen in denen es plötzlich Problem gibt weil man den Cach gefüllt hat, die Performance deshalb einbricht und womöglich ein Timeout überschritten wird. Wann das passieren könnte und welche Antwortzeiten man dann hat, steht aber nicht in den technischen Daten auf denen Deine Einschätzung beruht.
Solche Situationen sind zwar prinzipiell möglich, allerdings in den angedachten Einsatzbereichen (inkl. meinem Home-NAS Beispiel) praktisch auszuschließen. In den Einsatzbereichen hat man selten viele parallel schreibende Prozesse mit entsprechend großen Datenmengen. Meistens werden auch nicht große Mengen unzusammenhängender 4k-Blöcke geschrieben. Außerdem müsste das Dateisystem entweder kein TRIM unterstützen oder (fast) voll sein oder die Festplatte müsste unter Dauerlast stehen. Erst wenn das alles zusammenkommt, müsste man eine solche Situation erwarten. Sofern dir kein konkretes Anwendungsszenario im Rahmen des vorgesehenen Einsatzbereichs einfällt in dem die Situation, wie du sie beschrieben hast, auftreten kann, bleibe ich bei meiner Einschätzung.
 
Limit schrieb:
Das mag sein, aber solange das restliche System mehr Daten produzieren als die Festplatten schreiben kann, kannst du prinzipiell bei jeder Festplatte einen beliebig großen Rückstau mit entsprechend großen Verzögerungen errreichen.
Das ist klar, nur darf es halt keine Situation geben in der die Platten länger nicht reagiert als der Timeout ist, dessen Defaulteinstellung ja sehr unterschiedlich sein kann.
Limit schrieb:
Dieses Szenario ist allerdings sehr untypisch
Aber genau da liegt doch der Hase im Pfeffer, denn wenn es Probleme bei Szenarien gibt die sehr untypisch sind, aber eben nicht auszuschliessen, dann hat man immer wieder einen User der plötzlich Probleme hat und dann wird wieder behauptet das die Platte Mist ist und Seagate Platten sowieso Schrott seinen, statt ehrlich zu schreiben das sie eben nicht für diese Anwendung geeignet sind und Seagate da mit seiner Aussage das es dabei zu Performance- und Zuverlässigkeitsproblemen kommen kannn, Recht hatte.

Gibt es dagegen von Anfang an immer wieder Probleme und das bei viele Konfigurationen, dann setzt sich die Erkenntnis viel schneller durch, dass die Platte für den Zweck eben nicht geeignet ist, deswegen wird sie dann aber auch nicht pauschal als Schrott defamiert.
Limit schrieb:
Solche Situationen sind zwar prinzipiell möglich, allerdings in den angedachten Einsatzbereichen (inkl. meinem Home-NAS Beispiel) praktisch auszuschließen.
Da man nicht weiß welche Situationen man praktisch ausschliessen können muss um keine Probleme zu bekommen, würde ich stark bezweifeln das man das kann.
Limit schrieb:
Außerdem müsste das Dateisystem entweder kein TRIM unterstützen oder (fast) voll sein oder die Festplatte müsste unter Dauerlast stehen.
TRIM für HDDs? Zwar kann man nicht ausschliessen das es im Rahmen der Verbreitung von SSHDs, also NAND Caches, SMR oder auch solchen Disk-based Media Caches dazu kommt, aber bisher wäre mir nicht bekannt, dass es das schon gibt und es wäre auch die Frage ob die NAS sowas dann auch unterstützen, zumal sie kaum auf SSDs ausgelegt sein dürften und TRIM sonst Performance kostet weil die Befehle ja den Controller und den SATA Channel für die Übertragung belegen. Aber warten wir mal Reviews ab, gerade bei denen bei Anandtech gibt es ja bei neuen Technologien meist auch recht gute Hintergrundinformationen dazu.
 
Zuletzt bearbeitet:
Holt schrieb:
Das ist klar, nur darf es halt keine Situation geben in der die Platten länger nicht reagiert als der Timeout ist, dessen Defaulteinstellung ja sehr unterschiedlich sein kann. [..] Aber genau da liegt doch der Hase im Pfeffer, denn wenn es Probleme bei Szenarien gibt die sehr untypisch sind, aber eben nicht auszuschliessen

Selbst die schnellste Serverplatte oder SSD oder sogar RAM-Disk ist nicht grundsätzlich vor diesem "Problem" geschützt. Ausschließen kann man das Problem nur dann, wenn das Speichermedium die Daten garantiert in jeder Situation schneller verarbeiten kann, als das Rest des Systems sie produzieren kann. Zum praktischen Problem wird das allerdings erst, wenn die Last sehr viel höher ist als das was das Medium verarbeiten kann. Bei SMR-Platten ist die Grenze zur Überlastung niedriger als bei anderen Platten, aber man bräuchte trotzdem noch Randbedingungen, wie man sie üblicherweise nur in hoch ausgelasteten Servern findet um sie zu überschreiten und solche Lasten verursacht man nicht "aus Versehen".

Holt schrieb:
TRIM für HDDs? Zwar kann man nicht ausschliessen das es im Rahmen der Verbreitung von SSHDs, also NAND Caches, SMR oder auch solchen Disk-based Media Caches dazu kommt, aber bisher wäre mir nicht bekannt, dass es das schon gibt.

TRIM ist ein normaler ATA-Befehl. Es spielt keine Rolle um welche Art von Gerät es sich handelt. Der ATA-Treiber frägt ein Flag ab und wenn das gesetzt ist, wird der TRIM-Befehl genutzt. Ob es sich dabei um eine SSD, eine HDD oder ein virtuelles Volume handelt, ist dabei gleichgültig. Aus den von dir genannten Gründen setzen die Hersteller bei HDDs dieses Flag bisher nicht. Wenn Seagate aber denkt, dass es für SMR-Platten Vorteile bringt, müssten sie das einfach nur in die HDD-Firmware integrieren und jedes grundsätzlich "TRIM-fähige" System würde es dann automatisch nutzen. Ob Seagate das tut, kann ich nicht sagen, aber wenn sie es wollten, wäre das kein großes Problem.
 
Hallo, ich wollte wissen ob es denn möglich wäre die ST8000AS0002 in einem RaidSonic ICY BOX IB-390StUSD-B Gehäuse zu betreiben, ich meine die ist ja 8tb gross, momentan habe ich eine Hitachi HGST DeskStar 7K4000 4 TB drinnen die läuft, also wird es wohl nichts wegen dieser Emulation sein oder?? Ich habe sie glaube ich kaum über den USB Port des Gehäuses probiert aber das sollte ja normal über sozusagen eSATA angeschlossen sein?? Ich meine ich werde sie nur als backup einsetzen und maximal 2 x die woche anmachen...
 
Die Festplatte ist allgemein noch GAR nicht verfügbar, aber es wird sie schon jemand getestet haben.

😱
 
Zuletzt bearbeitet:
Limit schrieb:
Selbst die schnellste Serverplatte oder SSD oder sogar RAM-Disk ist nicht grundsätzlich vor diesem "Problem" geschützt. Ausschließen kann man das Problem nur dann, wenn das Speichermedium die Daten garantiert in jeder Situation schneller verarbeiten kann, als das Rest des Systems sie produzieren kann.
Spätestens mit einem Benchmark kann man immer mehr Daten erzeugen als eine Platte verarbeiten kann, auch eine RAM Disk. Dann muss das Programm eben warten und wird gebremst, dass ist normal und kein Problem, selbst wenn die Daten übers Netzwerk kommen, dass wird bis zur Quelle weitergereicht, darauf sind alle Protokolle ausgelegt, nur bei Streaming (für Live Videoaufzeichnungen) funktioniert das anders und da kann dann mal ein Frame verloren gehen, aber das wird auch über andere ATA Befehle gemacht.

Das Problem ist aber wenn, dann nicht der Durchsatz (das wäre es bei Streaming, etwas wofür Seagate die Platte auch als nicht geeignet kennzeichnet), es ist ggf. die zu lange Antwortzeit und wer kennt den schon den Timeout seines NAS und kann erkennen, ob es nur daran lag?

Limit schrieb:
TRIM ist ein normaler ATA-Befehl. Es spielt keine Rolle um welche Art von Gerät es sich handelt.
Nur das Betriebssystem der normalen HDD auch TRIM Befehle schicken.
Limit schrieb:
Der ATA-Treiber frägt ein Flag ab und wenn das gesetzt ist, wird der TRIM-Befehl genutzt.
Der fängt kein Flag ab, das muss er aus den Drive Ident Daten erkennen und es ist auch nicht der Treiber, sondern wenn denn das Betriebssystem (der Treiber weiß ja nichts von Dateien, nur das Betriebssystem), aber das hast Du sicher so gemeint. Dein Know-How ist aber so beschränkt, dass eine weitere Diskussion nicht sinnvoll ist.
Limit schrieb:
und jedes grundsätzlich "TRIM-fähige" System würde es dann automatisch nutzen.
Auch Blödsinn, Windows sendet z.B. keine TRIM Befehle an SAS oder RAID Controller und auch nicht für USB, auch wenn die SSD daran angeben TRIM zu unterstützen.

floert schrieb:
also wird es wohl nichts wegen dieser Emulation sein oder??
Was für eine Emulation meinst Du? Die 4k Sektoremulation? Das ist alleine eine Sache der USB-SATA Bridgechips. Das kann man leicht testen, man startet eine cmd.exe und führt folgenden Befehl genau so aus:

wmic diskdrive get BytesPerSector,Model

Steht vor dem Laufwerk 512 ist alles in Ordnung, steht da 4096 so hat das USB Gehäuse eine 4k Sektoremultion oder man hat schon eine der wenigen 4kn (Enterprise) HDDs, also die mit nativen 4k Sektoren.
 
Green Mamba schrieb:
Sorry, meinte natürlich was äquivalentes aus den eigenen Reihen. ;)

Da gibt es bei Seagate nichts da die Archive die erste 8 TB HDD ist ;)

Holt schrieb:
Meine Sorge ist weniger das sie verrecken wird, irgendwann verrecken sie alle, aber das es eben vorher Probleme gibt und zwar nachdem sie voll ist und keine Tricks mehr möglich sind.....

Ja, diese Problematik kommt noch dazu.

johnripper schrieb:
Die Festplatte ist allgemein noch GAR nicht verfügbar, aber es wird sie schon jemand getestet haben.


Die HDD gibt es wohl schon allerdings als Externe mit einem ~70 € Aufschlag also um die 320 €.
 
Zuletzt bearbeitet:
Ja, wobei man nicht von getestet sprechen kann. Bei einer HDD juckt die Kurzzeit nicht sondern es sollten Tests über 3 oder mehr Monate sein :)
 
Holt schrieb:
Die heißt ja auch Archive SSD und Backblaze ist nicht relevant für Heimanwender. In der Statstik aufgrund der RMA Quote eines etrailer bei hardware.fr liegen die Seagates vor den WD, obwohl WD als Hersteller einen besseren (Vorab)Austauschservice bietet als andere HDD Hersteller und daher eher weniger WD über den Händler reklamiert werden:


Wieso passt das so gar nicht? Vielleicht weil die Firma Backblaze normale und möglichst billige Consumer HDDs in selbstgebaute Racks packt und 24/7 mit Online Backups belastet, wofür diese HDDs nicht ausgelegt sind und wobei teils starke Vibrationen und hohe Temperaturen auftreten.

Selbst hat Backblaze im Januar gesagt: Das passt irgendwie so gar nicht zu dem, was sie selbst als Ausfallraten kommunizieren, wenn sie weiterhin die Seagate favorisieren. Warum veröffentlichen sie überhaupt Statistiken, die im Prinzip nur Wettbewerbern helfen?

Eigentlich sollte doch so ein Großabnehmer über direktere Bezugskanäle seine Waren beziehen können und zwar günstiger als im Handel, aber genau da kommen viele HDDs von denen her und haben sie sich sogar von Kunden schicken lassen, nachdem die Läden ihnen keine mehr verkauft haben:

backblaze_drive_source-jpg.447932


Da möchte man gar nicht wissen, wie viele (Seagate) HDDs in den Blister Packungen vom dem Tisch gefallen sind und außerdem sind diese Verpackungen für den Transport in Kofferräumen und den Postversand total unzureichend, die Kartons von WD schützen die HDDs da schon weitaus besser.

Auf jeden Fall würde ich jedem dem diese Statistik über den Weg läuft empfehlen sich auch diesen Artikel von tweaktown dazu einmal aufmerksam durchzulesen. Deren Fazit kann man sich daher nur anschließen:

Ich habe leider ebenfalls schlechte Erfahrungen mit Seagate gemacht. Kurzstatistik:
6 Festplatten in den letzten 15 Jahren besessen:
- 3 Seagate HDDs (256, 256 GB und 1TB)
- 2 WD ( 2*500GB )
- 1 Seagate Laptop HDD (250GB)

2 der Seagate Festplatten verreckten während ich meinen damaligen PC noch in Betrieb hatte, vom einen auf den andern Tag. Die Dritte funktioniert noch, bzw wird noch erkannt, jedoch ist sie unfassbar langsam und macht sehr sehr komische laute Geräusche, also vmtl auch kaputt.
Meine Laptopfestplatte von Seagate ist mir ebenfalls vor knapp 3 Monaten verreckt, mitsamt allen Daten. Die war nichtmal 2 Jahre alt.

Meine beiden WD Festplatten habe ich nun seit 2005 - laufen immernoch.
 
Zurück
Oben