News 10-Terabyte-HDD von Seagate kommt 2015

Ich denke mal die Heliumplatte kann man unter Laborbedingungen retten. Und Erfahrungswerte müsste es für solche Bauweisen auch geben.

Aber allein der Gedanke, dass da Helium austreten könnte (selbst wenn die Platte mal nen Stoß abkriegt) oder dass das unstabil ist, würde mich davon abhalten so eine zu kaufen.

Festplatten könnte man in der Tat einfach höher bauen. Schon lustig, dass die Bauweise der Technologie im Weg steht.
 
Zuletzt bearbeitet:
Cool Master, das hatten wir doch gerade erst wieder ein paar Postst weiter oben: Die Sturkuren sind heute so fein, die lange Ausleger für die Köpfe und auch die breiten Plattern sind da nicht mehr geeignet um diese einhalten zu können, da schon kleinste Schwingungen dann zu entsprechenden Bewegungen führen, das bekommt man nicht mehr in den Griff. Die letzten 5¼" waren die Quantum Bigfoot und die waren ziemlich mies, obwohl sie damals maixmal 19,2GB hatten. Man kann einfach das Spiel in den Lagern nicht so gering hinbekommen und die Schwingungen nicht so gut unterdrücken, als dass es bei größeren Datendichten in 5¼" zu handhaben wäre, die Miniaturisierung der Platten ist ja nicht aus Spaß betrieben worden und man hat auch nicht zufällig bei der Reihe extra Vorkehrungen gegen Schocks eingeführt:

Dr.Dr., auch in die Höhe geht es nicht so einfach, auch da machen die Schwingungen Probleme, da die Achsen ja länger werden, die Amplituden der Schwingungen in der Mitte also größer sind und damit auch an den Enden der Plattern. Man sollte nicht vergessen, wie minimal sowohl die Großes eines Bits auf dem Plattern als auch der Abstand des Köpfe von den Plattern sind, da ist wirklich nicht viel Toleranz für irgendwelche unkontrollierten Bewegungen, da verpasst man schnell die Spur oder hat gar einen Headcrash.
 
@Holt

Wer sagt das die Platter gleich groß sein müssen? Schauen wir uns doch mal die 2,5" Platter an. Da haben wir akruell was? 1 TB Platter?

Ergo acht Platter und wir haben 8 TB. Zudem du willst nicht im Ernst Technologie und Wissen aus den 90ern mit heute vergleichen oder? Würde sich heute Seagte oder WD mal auf den Po setzen hätten wir in 2-3 Jahren 5,25" HDDs welche genau so gut sind wie 3,5", wenn nicht sogar besser.

Aber ja es sind natürlich nur Vermutungen aber ey wir sind in den 60er auf dem Mond gelandet mit Rechner die so schnell waren wie heute ein Taschenrechner. Sprich wo ein Wille ist, ist auch ein Weg.
 
8 Plattern übereinander? Außerdem sind die Plattern bei 3.5" gerade erst über 1TB hinaus, dei 2.5" haben sicher noch nicht 1TB pro Plattern erreicht und die physikalischen sowie technischen Probleme kann man nicht einfach aus dem Weg räumen. Glaube mir, was wird nie wieder 5¼" HDDs geben, wäre das ene gangbare Alternative, die Hersteller hätten sie schon lange realisiert, denn bei 4TB war ja recht lange Schluss.
 
Man könnte auch einfach zwei getrennte Platten in einer stecken und sich den Rest sparen (2. Sata-Anschluss etc. dazu). Oder die Platten+Motoren hintereinander.
 
smoochy schrieb:
Mit anderen Worten: Seagate erhöht die Datenmenge, die pro defekter Festplatte verloren gehen können.

Verloren ist verloren, spielt da die Datenmenge eine Rolle? Wer bei den heutigen Preisen von Festplatten noch Daten verliert ist einfach selber schuld (leider die grosse Mehrheit der Menschen).

Basti__1990 schrieb:
Womit soll ich denn bitte 10TB voll bekommen?
Vielleicht wenn ich anfange 4K filmen als Hobby zu machen, aber sonst fällt mir kein legaler Einsatzzweck sein.

Ehm bei uns in der Wohnung steht ein Server für die Familie mit 16TB nutzbarem Platz. 12 TB sind schon gefüllt. Da sind Backups von vier PCs drauf, viele Fotos und Videos usw.
Schön für dich wenn du keinen Bedarf hast. Ich freu mich jedenfalls. Es ist einfach eine grosse erleichterung ein redundantes System zu haben wo man ohne gross überlegen alles ablegen kann was gerade keinen Platz mehr auf dem PC hat. Versionierung ist dann noch das Tüpfelchen auf dem i.
 
Zuletzt bearbeitet:
Backup vom Backup mit evtl. abgeschalteten Festplatten und Blitzschutz der Stromzufuhr, dazu ein 2. Notfall-System (abgeschaltet) wäre von Vorteil.

Ach denke eher das die Bauform eine Hinderung ist, egal welche Kräfte da drin wirken. Ich denke, dass die Hersteller sich auf ein Format geeinigt haben, steht da im Wege. Was ja auch nicht unsinnig ist.
 
Zuletzt bearbeitet: (Backup vom Backup)
Es gab anfangs ja 3.5" Platten mit 1.6" Bauhöhe, auch diese sind lange Geschichte weil sie eben Problem der Art bereiten, die ich beschrieben habe und wenn man wie Du vorschlägst dann defacto zwei Platten bauen müsste, kann man diese auch gleich getrennt verkaufen statt sie in ein Gehäuse zu zwengen.
 
Das wäre doch mal ne Idee, man packt 4 Spindeln mit je 5 oder 6 x 2,5 Zoll Platter in ein 5,25Zoll Gehäuse.
Damit dürften über 10TB Kapazität und sequenzielle Transferraten in der Region > 500MB/Sekunde drin sein. :cool_alt:
 
Naja, sooo viel Luft zu 256TB ist da nicht mehr, wenn man an große Raidverbünde denkt. Und für mehr reicht die aktuelle Version nicht, da bedarf es erst einer neueren Version.
Abgesehen davon, bei solchen Datenvolumen erachte ich Schutzmechanismen a la ZFS einfach für dringend geboten.
 
Eigentlich müssten höhere Platten (also mit mehr getrennte Platten drinnen) wunderbar in ein Gehäuse passen wo normale Platten ohne Zwischenteile gestapelt werden können. Ohne manuelle Konfiguration hat man dann die Vorteile mehrerer Platten.

Sowas in den Markt einzuführen wär was leichtes. Auch Gehäuse kann man dafür produzieren.
 
Zuletzt bearbeitet:
HDDs werden aussterben, egal welche Kapazität wann erreicht wird
 
Vor 25 Jahren gabs bestimmt den ein oder anderen, der das über Disketten gesagt hat. ;)
 
Im 10 Jahren werden wir wohl FP mit xxx TB, die lautlos sind und 0,1 W verbrauchen haben. So ungefähr jedenfalls.
 
Trambahner schrieb:
Abgesehen davon, bei solchen Datenvolumen erachte ich Schutzmechanismen a la ZFS einfach für dringend geboten.
Hast Du dann auch ECC RAM? Wenn man sich vor Slient Data Corruption fürchtet, ist das die erste Vorsichtsmaßnahme dagegen und ZFS setzt das auch voraus.

Wie sich die Kapazitäten und Preise von HDDs und SSDs entwickeln werde, kann man schwer vorher sagen, aber im Prinzip werden die SSDs die HDDs wohl immer weiter verdrängen, aber solche Archive Platten werden noch als letzte überleben. Den Angriff auf die Data Center haben die SSD Hersteller ja gerade eröffnet.
 
ECC Ram ist zwar bestimmt nett, aber ZFS setzt bestimmt nicht ECC Ram voraus. Es ist sinnvoll ZFS zu verwenden, auch wenn man regulären Arbeitsspeicher verwendet.

Wir sprechen hier von einer Fehlerwahrscheinlichkeit von ~8%/(#DIMM*Jahr) (Quelle). Bei 4 DIMMs also ~28%/Jahr. Dieser Bit-Flip muss auch genau zum richtigen Zeitpunkt in einem Bereich auftreten, welcher auf die Disk geschrieben wird, was die Wahrscheinlichkeit von Datenkorruption verringert. In einigen Jahren also vielleicht 2-3 problematische Dateien. Dafür viel Geld ausgeben mag für manche nicht stimmen.
 
Zuletzt bearbeitet:
Vergiss nicht, dass die meisten Betriebssystem unbelegtes RAM als Diskcache nehmen und damit können Daten dort recht lange liegen und auch einen recht großen RAM Belegen können. Es wird dirgend ECC RAM für Systeme mit ZFS empfohlen und auch wenn im Netz darüber debatiert wird, so sollte klar sein, dass der einzige Vorteil von None-ECC RAM der Preis ist. Lies Abschnitt 5 dieses Dokumentes aufmerksam durch:
Danach folgt eine Abhandlung über die Lifetime der Daten im RAM.

ZFS ist für ECC RAM ausgelegt und trifft keine Vorkehrungen bzgl. Bitkorruption im RAM, ob man das Risiko eingehen will, muss jeder selbst entscheiden. Mit gefällt aber der Vergleich auf dieser Seite: Würdest Du einen Knopf drücken bei dem Du 100 Dollar bekommst, aber eine Chance von 1:1000 hast stattdessen vom Biltz erschlagen zu werden?

Nein, aber vielleicht bei 1:10.000?
 
In Systemen mit "wichtigen Daten" und wo man nicht Neustarten/Neuanfangen darf ist ECC sicherlich von Nöten, egal wie hoch oder niedrig ein Risiko ist.
Eine normale/gute Officelösung speichert bei einer Erstellung von einem Dokument eh ein Backup in Echtzeit oder Datenkopierung und Verarbeitung könnte man neu anfangen. Da ist ECC nicht sehr wichtig ausser man möchte Zeit zum Neuanfang sparen.

btrfs soll ja irgendwann mal die Funktionen von ZFS haben und dann die Alternative dafür sein.
Hoffen wir mal die Entwickler sind moralisch korrekt, sonst endet das wie ReiserFS was ZFS nicht ersetzt hat.
 
Zuletzt bearbeitet:
Zurück
Oben