News 8-Terabyte-HDDs von Seagate im nächsten Jahr

Seppuku schrieb:
Dieser Artikel lässt übrigens die Western Digital Red 3 TB (zwar "nur" mit 346 Platten überprüft) auch nicht unbedingt in einem guten Licht dastehen.

Ist mir auch aufgefallen. Zu Beginn liest es sich wie ein bashing der "green"-Laufwerke, dass diese eigentlich nciht für ein lastszenario genügen. Was ja nicht von Ungefähr kommt, "green"-Modelle würde ich als Datenspeicher sehen. Einmal die Woche hochdrehen für backups, taugt. Von mir aus einmal am Tag um den Filmabend zu befeuern. Aber nicht das typische on/off-Szenario einer Arbeitsplatte.
Aber dass die so angepriesenen und auch teureren "professionellen" RED-Laufwerke nahezu ähnlich schlecht performen...

Btw: das ist nicht die einzige Quelle in der Hitachi-laufwerke gut wegkommen. Hitachi und Toshiba stehen bei mir, was Zuverlässigkeit anbelangt, deutlich höher als der übliche Consumerkram von WD, Seagate und früher noch Samsung. Bei Hitachi war es eigentlich nur die Deathstar-Reihe welche den makellosen Ruf ruiniert hat - das aber auch mit Fleiss.
 
Seppuku schrieb:
Wer zwingend immer sofort auf eine hohe Datenmenge jederzeit zugreifen muss, hat noch zusätzliche Methoden um erstens die Ausfallsicherheit und zweitens die Datensicherheit zu erhöhen. Das hat weniger etwas mit Unvernunft zu tun, sondern mit der Realisierbarkeit.
Wenn die Datenrate nicht mit der Kapazität steigt (was allerdings idR der Fall ist), erhöht sich die Zeit, bis ein Array nicht mehr degraded ist. Dank RAID6 is das Problem zwar drastisch reduziert, aber nicht eliminiert.
TenDance schrieb:
Btw: das ist nicht die einzige Quelle in der Hitachi-laufwerke gut wegkommen. Hitachi und Toshiba stehen bei mir, was Zuverlässigkeit anbelangt, deutlich höher als der übliche Consumerkram von WD, Seagate und früher noch Samsung. Bei Hitachi war es eigentlich nur die Deathstar-Reihe welche den makellosen Ruf ruiniert hat - das aber auch mit Fleiss.
Die alten Samsung Platten war im Dauerbetrieb SEHR zuverlässig. Hab die vor einiger Zeit aus Kapazitätsgründen gegen Hitachis getauscht. Laufen alle noch wie am ersten Tag.
Viele der Probleme rühren imho von der Firmware her, die auf den Platten der Hersteller wohl noch im Grunde die gleiche ist:
Seagate: korrigiert schlechte Blöcke unzuverlässig. Das OS hängt dann ggf. und muss über das Dateisystem korrigieren. WDs verhalten sich afair ähnlich. HDTune findet bei diesen Platten im Test Bad Blocks -was eigentlich nicht sein dürfte und die Platte auf die Ersatzbank befördert für "unwichtigere Backups". Das ist nicht akzeptable, auch wenn es keinen Totalausfall darstellt -den ich bisher zugegebenarmaßen noch überhaupt nicht hatte. Das Problem ist, dass diese Bad Blocks bei den Seagates mit dem Alter bei mir linear zunahmen. Drumherum partitionieren funktioniert also nicht. Besagte Statistik unterstützt diese Beobachtung des Alterns von Seagte Platten...
Samsung: Platten generell eher kühl im Vgl. zu Seagte, Fehlerkorrektur funktioniert 1A. Reallocated Sector Count is ein guter Drive-Wear Indicator. Defekte Blöcke werden nach einigen Sekunden ECC-Recovered und reallocated. Wenn das zu lange dauert, kickts die Platte zwar kurz ausm RAID, allerdings kam das bei mir insgesamt vlt. 2-3 mal pro Jahr vor. Nach mehreren Jahren Betrieb gerade mal ~10 Reallocated sectors pro platte im Schnitt.
Hitachi: Kann ich nur für meine 2TB-Drives (5400rpm) sprechen: Bisher absolut unproblematisch. Dürften sich ählich wie Samsungs verhalten.

Im Desktop-Betrieb killt vorallem Pseudo-Energiesparen die Platte. Festplattenspindown deaktivieren hat bei den Leuten, bei denen ich Platten getauscht habe, bisher noch immer das Problem gelöst. Ich stelle daher mal die Behauptung auf, dass häufiger Start/Stop die Platten tötet. Wobei das nicht auf 2,5" Platten zutrifft... die sind meiner Erfahrung nach fast unkaputtbar...
 
Zuletzt bearbeitet:
Das geht ja jetzt doch recht fix ;)
Muss ich meine 3 TB wohl bald wechseln...
Mir graust es nur bei der nächsten Datensicherung o.O
 
Tamja schrieb:
OmG "8-Terabyte-HDDs von Seagate"

Seagate und datensicherheit hört blos auf.

Habe hier noch 3 OVP Seagte 2TB Platten rumliegen aus RMA - Garantietausch.
Von 5*2TB Seagate waren 2 DOA so musste warten bis Raid machen konnte.
Als alle 5 hatte fiel 1te nach 1 Monat aus, 2te nach 3 Monaten und 2te kurz danach...
Wenn Du sogar 2 gleich DOA hattest, spricht das eher für unsachgemäße Handhabung bzw. Verpackung auf dem Transportweg. HDDs sind eben empfindlich müssen entsprechend Vorsichtig behandelt und gut verpackt verschickt werden, was nicht immer der Fall ist. Die Schäden sind dann aber wohl kaum dem Hersteller anzukreiden. In der französischen Ausfallstatistik schneidet Seagate jedenfalls besser als WD ab:

druckluft schrieb:
Oder die lange überfällige 2,5" 2TB in normaler Bauhöhe.
Die gibt es doch schon, aber bisher nur in einem Gehäuse und noch nicht einzeln zu kaufen. Mehr dazu findest Du im Thread[Erfahrungsbericht] Seagate M9T 2TB aus Backup Plus Slim ausbauen!

JamesFunk schrieb:
Es gint doch jetzt schon SSDs mit 1024Gb in 2,5".
Die gibt es schon sehr weit über einem Jahr und es gibt sogar schon eine 1TB mSATA SSD.

Seppuku schrieb:
Bevor hier jeder seine (absolut nicht repräsentativen) Erfahrungen postet, wäre es dann doch sinvoller sich auf z.B. diesen Artikel zu beziehen: http://blog.backblaze.com/2014/01/21/what-hard-drive-should-i-buy/
....
Man sollte auch in Hinterkopf behalten, dass die Austauschgründe und das Nutzerszenario deutlich andere sind, als bei einem normalen Rechner.
Eben, die missbrauchen Consumer Hardware für Enterprise Anwendungen und wenn sie dann am Ende zu dem Schluss kommen, dass eine wenigstens für den 24 Stunden Dauerbetrieb zugelassene Platten wohl in Zukunft verwendet werden wird, dann ist das eigentlich schon das Eingeständnis, dass dieses technisch nicht ganz so toll funktioniert.

wazzup schrieb:
Alles über 2TB ist unvernünftig, über 4TB unverantwortlich. Das ist zwar nett als Backuplösung weil viel draufpasst, aber für den Produktivbetrieb viel zu unsicher. 8TB auf einen Schlag weg, das tut weh.
Wenn man eine ordentliche Backuplösung verliert man ja nicht 8TB auf einen Schlag, wenn das passiert ist sowieso was ganz anderes falsch gelaufen. Braucht man die Verfügbarkeit, so muss man auch ein entsprechendes RAID verwenden, denn dafür sind RAIDs da, nicht zur Datensicherung, die muss immer extra erfolgen. Das Problem ist eher, dass die Platten ja nicht in dem Masse schneller werden, wie ihre Kapazität steigt. Bei der 4 fache Datendichte steigt die Geschwindigkeit nur um den Faktor 2 und damit die Zeit eine Platte komplett zu lesen bzw. zu Beschreiben eben auch um den Faktor 2. Ein Rebuild des RAIDs dauert damit immer länger und damit zeigt die Zeit in der es keine weiteren Ausfälle (RAID 1/5) bzw. nur noch einen weiteren Ausfall (RAID 6) ertragen kann und obendrein die Performance schlecht ist.

Das ist ein wirklich wunder Punkt der HDDs, den die Hersteller bisher nicht angegangen sind. Warum liest keiner die ganze Köpfe parallel aus? Dann könnte man zumindest mit jedem Platten den Durchsatz auch noch steigern.
 
@Subwayne: 2015 von Sandisk und vielleicht auch die 16 TB SSD gleich noch mit dazu ;) Machbarkeit ist aber eine Seite der Medaille, Bezahlbarkeit und Wirtschaftlichkeit eine andre.
 
Picard87 schrieb:
Im Serversegement geht es eben halt ausschließlich darum, so viele TB wie möglich pro Rack zu haben.

Im Consumer-Bereich ist es prinzipiell meist egal, ob man eine 8TB Platte oder 2x4TB einbaut. Schön wäre es natürlich trotzdem, bei gleichem Preis ein Laufwerk, und damit auch Abwärme und Lautstärke, einzusparen.
Da die Übertragungsrate leider nicht so schnell wächst, wie die Kapazität, ist es zu hause durchaus sinnvoll, auf Stripesets zu setzen.
Eine 180gb-HDD war vor 10 Jahren in 1h befüllt, Bei einer 4TB-HDD braucht man heute 8h.
 
Bei solchen Festplatten wäre mir das Risiko von Datenverlust einfach viel zu hoch. 8TB Daten auf ein Schlag weg:(
2-3TB ist für mich völlig ausreichend, alles andere ist mir zu unsicher.
 
8TB ..., ach du grüne neune. Das ist viel zuviel. o.o

Ich hab meine 128gb SSD und eine 320 GB HDD, über die Jahre habe ich gemerkt, das alles über 1 TB an Daten so oder so nie wieder angeschaut geschweige denn genutzt wird. ^^
 
AnthroDrache schrieb:
8TB ..., ach du grüne neune. Das ist viel zuviel. o.o

Ich hab meine 128gb SSD und eine 320 GB HDD, über die Jahre habe ich gemerkt, das alles über 1 TB an Daten so oder so nie wieder angeschaut geschweige denn genutzt wird. ^^

Naja, das ist halt bei dir der Fall. Mir würde es nicht reichen.
Weiß auch nicht, was hier manche haben. Backup ist sowieso Pflicht. 8 TB Festplatte voll machen und dann Datenverlust, Halleluja...
Mir reicht selbst meine 3 TB nicht (Da stimmt wenigstens noch P/L) alles darüber ist mir zu teuer atm.
Bevor jemand fragt, ich mache einiges an Video-Aufnahme/Schnitt, und da sind 3 TB gar nix. Muss ständig löschen.... und ich benutze nicht mal die höchste Quali-Stufe.
 
Schön 8TB & 10TB und welches Mainboard muss ich mir anschaffen bzw auf was für ein System wechseln das auch solche größe unterstützt?
 
Jedes neuere Mainboard kommt mit UEFI. Und für das sind so große Festplatten ein Klacks.
 
wazzup schrieb:
Alles über 2TB ist unvernünftig, über 4TB unverantwortlich. Das ist zwar nett als Backuplösung weil viel draufpasst, aber für den Produktivbetrieb viel zu unsicher. 8TB auf einen Schlag weg, das tut weh.

Vor 10 Jahren muss man wohl gesagt haben:
Alles über 250 GB ist unvernünftig, über 500 GB unverantwortlich. [...] 1 TB auf einen Schlag weg, das tut weh.
 
Man muss nicht nur, man hat es gesagt. ;)
Der Spruch kommt jedes Mal, wenn größere Festplatten vorgestellt werden. Als ob es einen Unterschied machen würden, ob nun 100 GB oder 1000 GB unersetzliche Daten verloren gehen. Unersetzlich ist unersetzlich.
 
Der Spruch kommt jedes Mal, wenn größere Festplatten vorgestellt werden. Als ob es einen Unterschied machen würden, ob nun 100 GB oder 1000 GB unersetzliche Daten verloren gehen. Unersetzlich ist unersetzlich.
Seh ich auch so. Die Platten kommen vermutlich erst in den Markt wenn SSDs sie schon eingeholt haben. Aber so ist das eben in der (duo)Monopolbranche.
 
Am (duo)Monopol liegt es wohl nicht, es geht einfach um technische Limits, die man erst einmal überwinden muss. Die NAND Hersteller werden das auch noch erleben und dann in die 3te Dimension ausweichen müssen.
 
e-Laurin schrieb:
Jedes neuere Mainboard kommt mit UEFI. Und für das sind so große Festplatten ein Klacks.

Wenn ich früher richtig recherchiert habe, dann stimmt deine Aussage so nicht. UEFI hat nichts mit Festplatten/Partitionen größer als 2TB zu tun (oder zumindest nicht unter allen Betriebssystemen). GPT ist hier das Schlüsselwort. Damit ist es möglich, Partitionen größer als 2TB anzulegen. Ich weiß, das man unter Windows GPT nur verwenden kann, wenn man das Betriebssystem mittels UEFI startet, unter Linux gibt es solch eine harte Abhängigkeit jedoch nicht. Ich benutze mittlerweile auch auf meinen alten Rechnern ausschließlich GPT, und die haben ganz sicher kein UEFI. ;)

@Topic: Ich freue mich drauf! Vielleicht kann ich in 2-3 Jahren dann meine 3TB-Platten gegen 6TB Platten tauschen. :)
 
@Tamja: Komisch, ich habe 5 Seagate LP5900er und 3x4TB Barracuda und die laufen wie ne 1.
 
Aresta schrieb:
...ich fühle mich für meine Verhältnisse schon richtig mutig da ich derzeit unsere Server mit 2-3TB Enterprise HDD's ausrüste :-) Irgendwie bekomme ich es nicht aus dem Kopf, dass je größer ich eine Festplatte wähle, desto höher ist auch der potentielle Datenverlust beim einem Supergau...
Dafür ist die Wahrscheinlichkeit eines Ausfalls geringer., ich denke das gibt sich nichts.
Abgesehen davon dürften eure Server ja zumindest Raid 1 oder 5 haben, von daher ist es kein Beinbruch wenn mal ne Platte ausfällt


Wir haben zwar grundsätzlich eine gute Datensicherungsstrategie, aber dennoch...4-6TB... da traue ich mich noch überhaupt nicht ran, geschweige denn 8-10TB...
Was hat das mit der größe der einzelnen Platte zu tun ?
Wenn du z.B 2x 10TB im Raid 1 hast, dann ist die Wahrscheinlichekit, dass der GAU eintritt (sprich Datenverlust) viel geringer als wenn du die Daten auf ein Raid5 Array mit 11x 1TB packst.


wazzup schrieb:
Alles über 2TB ist unvernünftig, über 4TB unverantwortlich. Das ist zwar nett als Backuplösung weil viel draufpasst, aber für den Produktivbetrieb viel zu unsicher. 8TB auf einen Schlag weg, das tut weh.
Jedesmal dieser Schwachsinn.
Ich wette wenn man sich hier ne News zum Release der ersten 1TB Platten raussucht, steht da ein Post von irgendeinem Depp drin, der Angst hat, dass er 1TB verliert statt 320GB bei aktuellen Platten.
Nach der Logik müsstest du alles auf 5,25Zoll Disketten speichern, dann hält sich dein Verlust in Grenzen.

PS:
Wenn du Daten auf ner einzelnen Platte speicherst, sind die per Definition schon nahezu verloren, es ist einfach unverantwortlich.
Wenn du Datenmengen in der Größenordnung auf einzelne Platten speicherst, dann kannst du eh davon ausgehen, dass da Teile von korrupt sind. Ein minimaler Fehleranteil liegt hier einfach in der Natur der Sache, egal ob 1TB oder 10TB Platten. Die Menge machts.

@Subwayne:
3TB, http://geizhals.de/?cat=hde7s&xf=1080_SATA+1.5Gb/s~1080_SATA+3Gb/s~1080_SATA+6Gb/s~3772_3.5&sort=r
 

Ähnliche Themen

Zurück
Oben