News Seagate mit neuen NAS-Festplatten für Unternehmen

Noxolos schrieb:
EDIT: Ich muss mich verbessern, die WD Red Pro hat wohl doch 1x10^15
http://www.wdc.com/wdproducts/library/SpecSheet/ENG/2879-800022.pdf
Die Angebe wurde überarbeitet, als die Red Pro vorgestellt wurde, stand da noch 10:10^15, was 1:10^14 entspricht.

Cool Master schrieb:
Bessere Garantie...
Oder gar keine für Endkunden, das hängt bei Enterprise HW immer sehr vom Hersteller und der HW ab und ob der diese auch für private Endkunden direkt anbietet oder ob diese nur über OEMs gehen und trotzdem den Weg in den Handel finden. Bei den Microservern wie meinem HP N54L hat man als privater Endkunden Garantie, bei Enterprise SSDs hat man das meist nicht.

Cool Master schrieb:
"Enterprise" sagst erst mal gar nichts aus auch nicht den Einsatzbereich. "Enterprise" bedeutet effektiv einfach nur mehr oder längere Garantie. Bautechnisch sind die HDDs praktisch zu allen hochwertigen Consumer platten gleich sie haben einfach nur eine andere Firmware.
Diese Ansicht mal wohl daher kommt, dass man den Platten die baulichen Unterschiede ja nicht ansieht. Enterprise sagt eigentlich nur, dass sich die HW an Unternehmenskunden richtet, nicht mehr und nicht weniger. Wie man auch hier wieder sieht gibt es ja genug Endkunden die ganz scharf auf solche HW sind, also mag ein Teil auch Werbung sein, aber Enterprise HW muss nicht für Heimanwender besser geeignet sein.

Cool Master schrieb:
Wie gesagt in der Theorie mag das besser sein mit 1x10^15 zu arbeiten in der Praxis ist es aber nicht relevant.
Auch das ist Unsinn, die Frage ist allenfalls wie technisch korrekt diese Angaben sind oder ob die Hersteller bei bestimmten Consumer Baureihen nicht einfach einen schlechteren Wert angeben. Dabei sollte man aber nicht vergessen, dass die Einsatzbedingungen bzgl. Temperatur, Luftfeuchtigkeit, etc. in einem Rechenzentrum natürlich viel besser überwacht sind als bei Heimanwendern und die Hersteller bei Enterprise HW oft sehr viel engere Vorgaben dafür machen, weshalb sie dann auch bessere Spezifikationen garantieren können.
 
@craxity @Daedal
Ich glaube was Cool Master meinte, ist die tatsächliche Relevanz dieses Wertes für Home User.
So wie ich das verstehe, ist 1x10^14 der "worst case". Das heißt aber nicht, dass der Fehler definitiv auftritt.
Nur wird seitens des Herstellers keine bessere Wahrscheinlichkeit garantiert.
Das verhält sich doch ähnlich wie mit der vom Hersteller maximal garantierten Schreibleistung auf SSDs.
In der Praxis wird diese auch meist deutlich überschritten.

Oder um ein einfaches Beispiel zu geben:
Wenn man einen Würfel nimmt ist die Wahrscheinlichkeit, eine 1 zu würfeln, bei 1/6.
Wenn ich 6 mal würfel, kommt aber noch lange nicht zwingend 1x eine 1 bei rum.
(Jeder, der in Kneipe schon mal "Schocken" gespielt hat, kann da ein Lied von singen, die anderen kennen es vielleicht mit der 6 bei "Mensch ärgere Dich nicht")

Auf die HDDs bezogen, bedeutet das, dass ich auch erst nach deutlich über 10^14 Bits einen Fehler haben kann oder eben auch deutlich eher. Bei den 1x10^14 handelt es sich schließlich um gemittelte Werte.

Dennoch bleibe ich dabei, dass es auch für Privatanwender beruhigender ist, sich weit unterhalb der Fehlerwahrscheinlichkeit zu bewegen.
Die HDD-Hersteller sollten sich überlegen, wie zeitgemäß es ist, die Kapazizäten immer weiter in die Höhe zu schrauben, aber diesen Wert unberührt zu lassen.
 
hrafnagaldr schrieb:
Manche Händler verkaufen einfach nicht an Privatkunden, weil sie sich das Geschiss mit 14 Tagen Rückgaberecht etc nicht antun wollen.
Aber wenn ein Produkt mit Enterprise tituliert wird, gibt das den vorgesehenen Einsatzbereich an, nicht wers tatsächlich kaufen darf.

Sonst dürfte hier auch kaum jmd. ein Windows Prof. nutzen kaufen :D

Naja - wieso ned? Ich bin doch professioneller Privat- und Hobbyanwender :)
 
BlackWidowmaker schrieb:
Wofür steht denn bitte dieses "10^14"? Und was muß man sich das mit der Bitfehlerwahrscheinlichkeit vorstellen? In der PDF ist alles nur hingeklatcht aber nichts erklärt. Bitfehler werden doch normalerweise von Prüfsummen aufgefangen und führen doch nicht zwangsläufig zu Datenverlust, oder? Wie auch immer selbst wenn dem so wäre, wer 10TB oder mehr privat verwendet, der tut das hauptsächlich um Videos darauf abzulegen. Wenn ein paar Bits in einem Film falsch sind wird es keinem auffallen für gewöhnlich. Kann sein, daß dann der Player einen CRC-Fehler meldet o.ä., mehr aber auch nicht. Daher halte ich solche Überlegungen aus dem Profi-Bereich für den Heimgebrauch nur bedingt anwendbar.

Bisher habe ich noch kein NAS, daher kann ich dazu nur theoretische Aussagen machen.
Aber so wie ich das Problem verstanden habe, ist der kritische Moment ein RAID Rebuild.
Also es fällt Dir z.B. in einem NAS mit 4x 6 tb im RAID 5 eine HDD aus und Du tauscht die defekte Platte gegen eine neue. Bis der Rebuild abgeschlossen ist, darf keine weitere HDD ausfallen. Auch sollte beim Rebuild kein Schreib oder Lesefehler auftreften, da sonst der ganze RAID Verbund für die Tonne ist. Da 10^14 Bit ungefähr 11,4 tb entsprechen, bewegt man sich bei 6 tb HDDs schon im Bereich von 50% dieser Größenordnung.
 
Ich habe eine 4 Bay mit 10TB, da ist noch etwas Luft, nach dem ich eine 4TB Platte gegen eine alte zweier Getauscht hatte. Ich habe ein Mix Schrottgate 2x, eine Hatschi und eine WD. Bisher gabs nie Probleme, schaue mir alle Nase lang die SMART Werte an, Garantie ist schön aber nutzt wenig wenn die Daten weg sind.
 
Noxolos schrieb:
Bisher habe ich noch kein NAS, daher kann ich dazu nur theoretische Aussagen machen.
Aber so wie ich das Problem verstanden habe, ist der kritische Moment ein RAID Rebuild.
Also es fällt Dir z.B. in einem NAS mit 4x 6 tb im RAID 5 eine HDD aus und Du tauscht die defekte Platte gegen eine neue. Bis der Rebuild abgeschlossen ist, darf keine weitere HDD ausfallen. Auch sollte beim Rebuild kein Schreib oder Lesefehler auftreften, da sonst der ganze RAID Verbund für die Tonne ist. Da 10^14 Bit ungefähr 11,4 tb entsprechen, bewegt man sich bei 6 tb HDDs schon im Bereich von 50% dieser Größenordnung.
Absolut korrekt beschrieben. Das Rebuild scheitert, daher macht RAID keinen Sinn mehr mit diesen HDDs. Als Einzellaufwerke haben alle HDDs eigene Fehlerkorrekturen um Bitfehler nicht zu ausgewachsenen Datenverlusten führen zu lassen. Nur im RAID ist das eben nicht mehr praktikabel.
 
Solange alle Platten im RAID einwandfrei arbeiten, spielt dieser Wert aber eine untergeordnete Rolle oder? Denn im normalen Betrieb werden Bitfehler doch automatisch korrigiert, kritisch ist nur der Rebuild Vorgang richtig?

D.h. aber eben auch, man muss schon 2x Pech haben:
1. es muss eine HDD ausfallen
2. beim Rebuild muss ein Bitfehler auftreten

Ich habe wie gesagt bisher kein NAS und auch noch nie ein RAID betrieben, aber im normalen Betrieb war ein 45 GB Modell der berüchtigten IBM DeathStar Serie die einzige HDD, die bei mir je ausgefallen ist. Von den ganzen Hitachi und WD Platten, die ich danach genutzt habe, waren alle bis zum Schluss voll dabei.

Neben den vielen theoretischen Überlegungen wäre es daher interessanter, von guten oder schlechten Erfahrungen mit 6 TB HDDs im NAS Betrieb zu hören.
 
Also mir ist erst eine 5400er abgeraucht... und das nach 2,5 Jahren 24h Einsatz... 7200er sind mir schon eine ganze Menge abgeraucht.
Auch wenn Dein gehör nicht so fein ist wie meines, man hört den unterschied auf jeden Fall. Gerade bei 24/7 betrieb möchjte man nicht unnötige Lärmquellen.

Ich sag mal, wie oft kopierst Du Deine 4TB Platte komplett? ist es da nicht egal ob sie 100 oder 150MB/s schafft?
 
Noxolos schrieb:
@craxity @Daedal
Ich glaube was Cool Master meinte, ist die tatsächliche Relevanz dieses Wertes für Home User.
So wie ich das verstehe, ist 1x10^14 der "worst case". Das heißt aber nicht, dass der Fehler definitiv auftritt.

Ne auch für Unternehmen meinte ich das. Aber wie du schon schriebst der Fehler _kann_ auftreten muss aber nicht. Genau das ist halt das Theoritische an der Zahl. Das ist genau wie die MTBF. Dir kann eine HDD nach 5 Min abrauchen die kann aber auch für 10 Jahre 24/7 laufen. Man steckt halt nicht drin.


Noxolos schrieb:
Dennoch bleibe ich dabei, dass es auch für Privatanwender beruhigender ist, sich weit unterhalb der Fehlerwahrscheinlichkeit zu bewegen.
Die HDD-Hersteller sollten sich überlegen, wie zeitgemäß es ist, die Kapazizäten immer weiter in die Höhe zu schrauben, aber diesen Wert unberührt zu lassen.

Klar aber dafür hätten sie wieder ein Grund mehr die Preise nach oben zu treiben. Wie ich schon schrieb von dem wichtigsten hat man ein Backup sei es auf anderen HDDs, Flash Speicher, Band oder auf DVD/BR. Dazukommt - auch wenn es ein Seagate Thread ist - Ich würde keine wichtigen Daten einer Seagte anvertrauen. Die Dinger haben nicht umsonst den Ruf die schlechtesten HDDs der Welt zu sein. Ich sage immer wieder gerne Seagate oder Seagate nicht ;)
 
Cool Master schrieb:
Ich würde keine wichtigen Daten einer Seagte anvertrauen. Die Dinger haben nicht umsonst den Ruf die schlechtesten HDDs der Welt zu sein

Bei 2 Haupt-Festplattenherstellern ist das nicht schwer.
Für 50 % der User sind die Platten von WD vermutlich die schlechtesten der Welt.

Dieses über einen Kamm geschere ist eh nicht auszuhalten. Es gibt sicher immer mal bei allen Herstellern Chargen, die nicht so dolle sind.

Die einzige Firma, von der ich selbst quer durch das Portfolio behauptet hatte, das die Produkte nichts taugen, war OCZ :evillol:
 
Noxolos schrieb:
D.h. aber eben auch, man muss schon 2x Pech haben:
1. es muss eine HDD ausfallen
2. beim Rebuild muss ein Bitfehler auftreten
Richtig, doch wie du der von mir geposteten Tabelle entnehmen kannst, haben die mit 10^14 ausgewiesenen HDDs in einem Gesamtvolumen über 12TB zu 100% einen Bitfehler - das spielt keine Rolle wenn es nicht im RAID steckt - doch in einem RAID das über 12TB Volumen darstellt ist ein Rebuild mathematisch zu 100% nicht erfolgreich. Somit macht es keinen Sinn solche Platten in RAIDs zu verwenden. Die Verfügbarkeit die gewünscht wird ist nicht gegeben und schlimmer noch es fällt erst dann auf, wenn es am wenigsten passieren darf - beim Rebuild.
 
@supastar

Ich hatte schon mehrere Seagate, über einige Jahre, und es tut mir leid aber ALLE hatten nach spätestens 30 Tagen deffekte Sektoren da kann man auch nicht von schlechten Chargen sprechen. Auf der anderen Seite meine Samsung HDDs (vor der Seagate Übernahme) laufen nun seit gut 15-20k Stunden ohne eine Mucks, abgesehen von einer die wohl mal etwas zu spät angelaufen ist aber da ist das NAS schuld nicht die HDD. Das Gleiche kenne ich von WD. WD war sogar einer meiner ersten Hersteller anfang der 90. Der einzige Hersteller der noch schlimmer als Seagate, in meiner Erfahrung war, war Maxtor.
 
Daedal schrieb:
Absolut korrekt beschrieben. Das Rebuild scheitert, daher macht RAID keinen Sinn mehr mit diesen HDDs. Als Einzellaufwerke haben alle HDDs eigene Fehlerkorrekturen um Bitfehler nicht zu ausgewachsenen Datenverlusten führen zu lassen. Nur im RAID ist das eben nicht mehr praktikabel.

Was aber bei Deinem Beispiel (4 Bays a 6 TB HDDs mit 1:10^14 BER) bedeutet, dass ein RAID5 im Durchschnitt nach 8,15 Jahren irreparable Schäden aufweist. Bei einem RAID6 wäre es eine DDF+BER von 33.031 Jahren bei 24 Stunden Beschaffungszeit für 1 Spare.
Selbst bei einer theoretischen 10 TB HDD mit 1:10^14 BER hast Du bei einem 4 Bay RAID5 noch etwas über 7 Jahre. Grenzwertig wird das erst ab mehr Platten.

PS: Danke für Deinen Link, habe derart geballtes Wissen zu dem Thema schon lange gesucht.
 
Die UBER ist immer in Sektor pro gelesener Bits angegeben, meist eben mit <=1:10^14 bei den Consumer HDDs. 10^14 Bits sind etwa 12TB (man muss ja die Bits der ECC berücksichtigen) und das bedeutet eben, dass es bei einem RAID 5 ab 12TB Nutzkapazität statistisch zu einem nicht korrigierbaren Lesefehler beim Rebuild kommen wird, zumindest wenn der Wert eben = und nicht < ist. Wie Du da auf 8,15 Jahre kommst, verstehe ich nicht, denn bei einem Rebuild müssen ja diese ganze 12TB gelesen werden (egal ob von 2 Platten mit 6TB, 3 mit 4TB oder z.B. 4 mit je 3TB) um die Daten für die ersetzte Platte zu erhalten. Ein nicht korrigierbarer Lesefehler führt zu einem Lesefehler den die Platte meldet, egal ob als Einzellaufwerk oder als Platte im RAID, nur das ein RAID dann eben i.d.R. das Rebuild abbricht wenn eine Platte einen Fehler meldet.

Tyischerweise erkennt man diese unerkannten Lesefehler dann als schwebende Sektoren in den S.M.A.R.T. Werten und das sind eben Fehler wo die ECC diese zwar erkannt hat, aber nicht beheben kann. Dann gibt es noch die unerkannten Bitfehler, auch UBER abgekürzt, aber die sind noch mal weit, weit seltener und das sind Fehlern, bei denen die ECC sie nicht erkannt, weil die verfälschten Bits eben die gleiche ECC ergeben, wobei die ECC natürlich auch einen Bitfehler haben kann.

@Cool Master, warum Dir so viele Seagate Probleme machen, kann man so nicht nachvollziehen, aber es ist nicht repräsentativ und die Statistik bei hardware.fr sagt auch das Gegenteil von dem aus, was Du nicht müde wirst zu behaupten:
Dabei sollte man nicht vergessen, dass WD einen viel besseren Vorabaustauschservice bietet als die anderen HDD Hersteller, also vermutlich weniger Kunden dort über den Händler tausche auf dessen Daten die Statistik beruht.
 
Cool Master schrieb:
@supastar

Ich hatte schon mehrere Seagate, über einige Jahre, und es tut mir leid aber ALLE hatten nach spätestens 30 Tagen deffekte Sektoren da kann man auch nicht von schlechten Chargen sprechen.

Vielleicht solltest du Lotto spielen ;)

Zudem frag ich mich, warum du diese nicht auf Gewährleistung hast austauschen lassen. Danach hast du einen wirklich neues funktionierenden Artikel.

Ansonsten könnte es natürlich auch damit zu tun haben, dass solche Festplatten, statt sie als DOA-Fall zu reklamieren, einfach per 14-Tage-Rückgaberecht zurück in den Handel marschieren.

Deshalb kaufe ich Festplatten generell nicht online.

Wenn Seagate-Festplatte tatsächlich so oft ausfallen würden, hätte WD zusammen mit ihrer Tochter HGST (Hitachi) vermutlich ein Monopol :evillol:

Zudem frage ich mich, wie OEM-Hersteller PCs mit 3 Jahren Garantie anbieten können, in denen sie Seagate-Festplatten verkaufen, wenn diese alle 30 Tage Sektorenfehler haben und reklamiert werden könnten... :freaky:
 
Zuletzt bearbeitet:
Holt schrieb:
@Cool Master, warum Dir so viele Seagate Probleme machen, kann man so nicht nachvollziehen, aber es ist nicht repräsentativ und die Statistik bei hardware.fr sagt auch das Gegenteil von dem aus, was Du nicht müde wirst zu behaupten

Traue keiner Statistik...

Siehe: https://www.computerbase.de/2014-09/ausfallraten-von-38.000-festplatten-dokumentiert/

Dort ist Seagate auf Nr. 1... Das Gleiche kenne ich von Freunden und Kollegen, Seagate ist auf Nr. 1 der Ausfälle/Fehler.

Das ich alleine nicht representativ bin ist mir klar. Aber meine Erfahrung sagt mir eben finger weg von Seagate.

supastar schrieb:
Zudem frag ich mich, warum du diese nicht auf Gewährleistung hast austauschen lassen. Danach hast du einen wirklich neues funktionierenden Artikel.

Hatte ich gemacht. Bei der letzen Seagate war es so:

Angemacht, in Externes Gehäuse rein, Daten rüber geschoben, sau langsam geworden. Geschaut --> Deffekte Sektoren nach nicht einmal 24h Betrieb. Ich habe nichts gegen deffekte Sektoren die nach 5 Jahren auftauchen aber nach 24h sollte das nicht passieren. Also zu K&M und denen erklärt haben die auch eingesehen das es so nicht geht also eine neue bekommen. Diese (andere Charge, 2 oder 3 Wochen älter) hatte nach 46 Stunden deffekte Sektoren also wieder zu K&M 5 € mehr ausgegeben und eine Samsung gekauft. Die läuft nun seit 15k Stunden ohne Probleme.

supastar schrieb:
Ansonsten könnte es natürlich auch damit zu tun haben, dass solche Festplatten, statt sie als DOA-Fall zu reklamieren, einfach per 14-Tage-Rückgaberecht zurück in den Handel marschieren.

Ne, die waren neu 0 Stunden gelaufen. Soetwas überprüfe ich bei HDD Kauf immer als 1.

supastar schrieb:
Deshalb kaufe ich Festplatten generell nicht online.

Wie gesagt habe sie auch vor Ort bei K&M gekauft.

supastar schrieb:
Zudem frage ich mich, wie OEM-Hersteller PCs mit 3 Jahren Garantie anbieten können, in denen sie Seagate-Festplatten verkaufen, wenn diese alle 30 Tage Sektorenfehler haben und reklamiert werden könnten... :freaky:

Ich kann es nicht erklären evtl. habe ich einfach nur pech oder die HDDs mögen mich nicht ;) Deswegen vermeide ich Seagate wo es nur geht und empfhele auch nur WD und Hitachi. Ich mein das es einmal passieren kann ok, ein 2. mal naja ist kacke aber ok aber ab dem 3. mal sage ich nope nichts mehr von dem Hersteller. Dazu kommt ich teste es ja auch ab und zu mal wieder (2-3 Jahre) wenn ich eine neue HDD benötige. Aktuell habe ich z.B. eine 3 TB Seagate als Daengrab die hat zwar auch schon deffekte Sektoren aber da ist es egal da nur Musik drauf liegt.
 
Zuletzt bearbeitet:
Traue keiner Statistik, die du nicht selbst gefälscht hast.

Also wir haben hier PCs fast alle mit Seagate-Festplatten, die alle problemlos laufen.
Wobei wir langsam eh fast nur noch SSDs einsetzen :D

Und daheim hab ich sowohl 2 Seagate als auch 2 WD Festplatten (jeweils 2x 2,5" und 3,5"), alle ohne defekten Sektoren haben.
Aber Statistiken über Probengrößen von 1 sind eh nicht repräsentativ.

Ich würde es bei dir einfach mal Pech nennen. Es gibt hier sicherlich auch irgendjemanden im Forum, dem das so ähnlich mit WD Platten passiert ist.

Und unser Vorlieferant, von dem wir sogar ein QNAP-NAS haben und Vor-Ort-Service darauf bietet, ist vor ein paar Monaten von WD auf Seagate umgestiegen. Angeblich wegen zu vielen Ausfällen.
Vielleicht liegt es aber auch am evtl. niedrigeren Anschaffungspreis, man weiß nie, wer die Wahrheit erzählt :freaky:
 
Holt schrieb:
Die UBER ist immer in Sektor pro gelesener Bits angegeben, meist eben mit <=1:10^14 bei den Consumer HDDs. 10^14 Bits sind etwa 12TB (man muss ja die Bits der ECC berücksichtigen) und das bedeutet eben, dass es bei einem RAID 5 ab 12TB Nutzkapazität statistisch zu einem nicht korrigierbaren Lesefehler beim Rebuild kommen wird, zumindest wenn der Wert eben = und nicht < ist. Wie Du da auf 8,15 Jahre kommst, verstehe ich nicht, denn bei einem Rebuild müssen ja diese ganze 12TB gelesen werden (egal ob von 2 Platten mit 6TB, 3 mit 4TB oder z.B. 4 mit je 3TB) um die Daten für die ersetzte Platte zu erhalten. Ein nicht korrigierbarer Lesefehler führt zu einem Lesefehler den die Platte meldet, egal ob als Einzellaufwerk oder als Platte im RAID, nur das ein RAID dann eben i.d.R. das Rebuild abbricht wenn eine Platte einen Fehler meldet. ...

Moin, kannst Du mir das bitte mal erklären?
Die 1:10^14 gelten für eine HDD und entsprechen ungefähr 12TB. Für eine einzelne 4TB HDD liegt damit die Wahrscheinlichkeit auf einen Lesefehler bei ungefähr 1/3 oder 33%, wenn die HDD einmal komplett gelesen werden muss. Bei einer einzelnen 6TB HDD liegt die Wahrscheinlichkeit bereits bei 1/2 oder 50%.

In einem 4-Bay NAS mit RAID 5 muss bei einem Rebuild der Inhalt von 3 HDDs ausgelesen werden.
D.h. die Wahrscheinlichkeit für einen Fehler ist wie folgt:
3x 4TB HDDs: 1 - (2/3 * 2/3 * 2/3) = 19/27 ~ 0,70 oder 70%
3x 6TB HDDs: 1 - (1/2 * 1/2 * 1/2) = 7/8 ~ 0,88 oder 88%

In einem 8-Bay NAS mit RAID 5 muss bei einem Rebuild der Inhalt von 7 HDDs ausgelesen werden.
D.h. die Wahrscheinlichkeit für einen Fehler ist wie folgt:
7x 4TB HDDs: 1 - (2/3 * 2/3 * 2/3 * 2/3 * 2/3 * 2/3 * 2/3) = 2059/2187 ~ 0,94 oder 94%
7x 6TB HDDs: 1 - (1/2 * 1/2 * 1/2 * 1/2 * 1/2 * 1/2 * 1/2) = 127/128 ~ 0,99 oder 99%

Wahrscheinlichkeiten können nie über 100% hinaus gehen sondern nähern sich den 100% nur immer weiter an.

EDIT: OK, habe gelernt, dass bei einem Rebuild immer die komplette Kapazität gelesen werden muss. Also gelten die Wahrscheinlichkeiten, die ich oben geschrieben habe.
 
Zuletzt bearbeitet:
@Noxolos

Bei 8-Bay würde ich auf RAID 6 setzen, da man dort 2 Ausfälle haben darf :)
 
Gibt es denn eigentlich NAS HDDs mit ~5400 rpm, die mit 1:10^15 angeboten werden?
 
Zurück
Oben