News Enterprise Capacity 3.5 HDD: Seagates 10-TB-HDD mit Heliumfüllung nutzt PMR

Eine gute Entwicklung (erst die 8TB mit NAS-Zertifizierung nun diese hier) , die mir planungstechnisch für die weitere Zukunft des NAS sehr in die Karten spielt.

Sollen sie nur weiter entwickeln. Ich freue mich dann in 2-3 Jahren die aktuellen 5x 4TB zum schmalen Kurs je gegen 8,10 oder 12TB-NAS-Dreher zu tauschen (..denn über die Plattenanzahl noch mehr in die Breite bauen wollte ich eigentlich nicht) .
 
jackyjakob schrieb:
Grob überschlagen etwa 0,03 Gramm :)

Da musst du das Gewicht für den zusätzlichen Platter noch drauflegen.
 
digitalangel18 schrieb:
Würde mich auch interessieren, gibts da (abseits der normalen MTBF) eine begrenzte Lebensdauer?
Die MTBF wird zwar in Stunden angegeben, ist aber eine Ausfallwahrscheinlichkeit und kann keineswegs in Betriebsstunden umgerechnet werden. Die bezieht sich ja auch nur auf einen bestimmten Zeitraum und der umfasst nur die mittlere Zeit der Badwannenfunktion der Ausfallrate technischer Geräte. Diese neigen dazu am Anfang besonders häufig auszufallen. Dann fällt die Ausfallrate aber steil ab und bleibt für eine Zeit, die der geplanten Betriebsdauer entspricht, auf einem geringen Niveau stabil und genau für diese Zeit gilt auch nur die MTBF. Gegen Lebensende (Wear-Out Phase) steigt sie dann wieder deutlich an. Schon diese Definition auf einen beschränkten Zeitraum verbietet jede Umrechnung in eine Betriebszeit.
Obendrein ist es theoretisch errechneter Wert der auch nur unter ganz genau definierten Bedingungen (Temperatur, Nutzung, etc.) gültig ist und praktisch keine Bedeutung hat, erst recht wenn diese Bedingungen nicht genannt sind und nicht eingehalten werden können.

Die Lebenserwartung wird vom Hersteller festgelegt, entsprechend der Nutzung die er für ein Produkt vorsieht und den Einsatzbedingungen. Das können bei SSDs auch mal 10 Jahre sein, bei HDD sind eher 3, 5 oder 7 Jahren typisch, die Garantiedauer ist i.d.R. kürzer, logisch. Dann gibt man z.B. 2 Millionen Stunden MTBF/MTTF an, was eine statistische Ausfallwahrscheinlichkeit während der Lebensdauer bei Einhaltung der Einsatzbedingungen ist, abzüglich der Anfangsphase in der die Ausfallraten alle technischen Produkte immer besonders hoch ist.
Hat man 2 Millionen der Geräte in einem System, kann man jede Stunde einen Fehler / Ausfall erwarten.
Hat man nur 2000 Geräte, so wird etwa alle 1000 Stunden eine Fehler auftreten, also so alle 43 Tage.
Hat man nur eines, wär ein Fehler nach spätestens 2 Millionen Stunden oder 83 Jahren zu erwarten, nur ist dann die Lebensdauer schon lange überschritten und damit ist die MTBF/MTTF bei so wenigen Geräten nicht aussagekräftig und damit irrelevant.

Wieso das so ist? Nun ein durchschnittlicher Mitteleuropäer von 46 Jahren mit einem BMI von 27, Nichtraucher und mäßiger Konsument von Alkohol hat eine statistische Sterberate von 1,8 Todesfällen pro 1000 solcher Personen. Damit rechnen die Versicherungen und daraus ergibt sich eine MTTF von 1000(Personen) * 365 (Tage/Jahr) * 24 (Stunden/Tag) / 1,8 (Personen, die Ausfälle pro Jahr) = 4,867 Millionen Stunden, was 555 Jahren entspricht.

So alt wird aber offensichtlich keiner, die Versicherer rechnen mit 81 Jahren Lebenserwartung, also nur etwa 0,71 Millionen Stunden.
Rickmer schrieb:
Normale Platten sind logischerweise auch versiegelt. Da braucht nur ein Staubkorn rein kommen - das ist schon genug um erhebliche Fehler zu erzeugen.
Nein sind sie nicht, die haben ein Lüftungsloch für den Druckausgleich, daher steht auch z.B. "Do not cover any drive holes". Dahinter sitzt ein Staubfilter der das Eindringen von Partikeln verhindern soll.
Rickmer schrieb:
Die 8TB Platten sind auch noch nicht so lange auf dem Markt und Diffusion ist etwas das Zeit braucht.
Die ersten mit He gefüllten Platten waren die HGST He6 mit 6TB und die Seagate 8TB haben allesamt keine He Füllung.

Mtechlerin schrieb:
Warum keine 10 TB oder 12 TB auf Basis der SMR Technik mit weiter entwiklung ?
10TB mit SMR gibt es von HGST doch schon, aber SMR hat beim Schreiben u.U. mit erheblichen Performanceeinbussen zu kämpfen und eignet sich daher nicht für alle Anwendungsfälle. HMR wird wohl die nächste Technik die größere Sprünge bei der Datendichte verspricht, aber deren Einführung verschiebt sich immer wieder.
Mtechlerin schrieb:
Ich dachte die Zeit von Helium HDD's hätten wir hinter uns gelassen,
aber die Kuh ist ja wohl noch nicht genug gemolken.
Was soll denn derzeit He ablösen? Klar sind He und SMR Technologien die nur ein begrenztes Potential zur Steigerung der Kapazitäten von HDDs bieten, aber solange HMR nicht auf dem Markt ist, gibt es eben keine Alternativen.

flappes schrieb:
Hab ein 2 TB Datengrab, welches zur Hälfte gefüllt ist mit Daten/Bildern/Videos/Backups usw. der letzen 15 Jahre.
Wenn Du mit 1TB Daten auskommst, dann ist es ja gut und Du musst Dir um 10TB Platten keine Gedanken machen. Beachte aber, dass man die Backups immer auf Medien macht, die in einem anderen Gehäuse stecken, wie USB Platten die nur dafür dienen, einem NAS, der Cloud, Tapes, etc., da sonst beim Ausfall der Platten oder einem Verschlüsselungvirus die Originale und das Backup gleichermaßen betroffen sind. Ebenso wäre beim versehentlichem Überschreiben (ich wollte das Image auf den Stick schreiben lassen, aber es hat die HDD überschrieben) kein Schutz gegeben.
 
Lieber Holt: wie immer schöne Erklärungen. Warum gibt es nicht Geräte mit einem zweiten Block Lese-/ Schreibeinheiten?
Frage ich mich schon seit Jahren und sollte doch das Naheliegendste sein, um Geschwindigkeit zu verbessern. ?
 
clausthaler schrieb:
Ganz schlechter Kommentar, PMR sollter SMR von der Geschwindigkeit überlegen sein. Bei SMR müssen oftmals weitere Spuren neu beschrieben werden, selbst wenn man nur kleine Änderungen an einer Datei vornimmt. Bitte mal nachlesen wie die Technik überhaupt funktioniert bevor man Helium PMR als tot bezeichnet.

Nun ich gehe von einen anderen Standpunkt an die sache:
99.499.842?.jpg
Die Roadmap des Branchenverbands ASTC - Foto: ASTC

http://futurezone.at/science/festplatten-mit-100-terabyte-bis-zum-jahr-2025/99.499.152

PMR+ = SMR
und TDMR oder ein mix mit SMR ist fortschritt, alles andere ist ein rückschritt und Festhalten an altbacken.
altbacken = Melken der Kuh ( Kunden ).
 
Zuletzt bearbeitet:
Camicace schrieb:
Warum gibt es nicht Geräte mit einem zweiten Block Lese-/ Schreibeinheiten?
Das gab es mal bei einer HDD, frag mich nicht mehr welcher, aber es hat sich nicht durchgesetzt. Man sollte nicht vergessen, dass alleine die Aerodynamik von HDDs eine Wissenschaft für sich ist und die Verwirbelungen des zweiten Saqtzes Köpfe da sicher nicht hilfreich war. HDDs sind höchstpräzise Feinmechanik die heute extrem am Limit gebaut ist.
Camicace schrieb:
Frage ich mich schon seit Jahren und sollte doch das Naheliegendste sein, um Geschwindigkeit zu verbessern. ?
Bei der Performance haben HDDs doch das Rennen schon längst gegen die SSDs verloren, es geht nur noch um viel Speicherplatz für wenig Geld, da haben die SSDs wegen der Kosten der Chipfertigung einfach noch prinzipbedingt einen großen Nachteil, zumindest bei größeren Kapazitäten. In der Einstiegsklasse der OEM PCs, wo als das Laufwerk nur groß genug sein muss um damit arbeiten zu können, werden die SSDs die HDDs schon bald verdrängt haben. Genau deswegen kommen ja nun die ganze noch ein wenig billigeren SSDs mit TLC und Controllern ohne DRAM Cache auf den Markt, die sind zwar im Vergleich zu normalen SSDs lahm, gerade bei stärkerer Belastung, aber eben noch ein paar Cent bis Euro günstiger und das zählt bei OEMs eben mehr, da die ja Tausende von Rechnern damit bestücken.
 
Mtechlerin schrieb:
Nun ich gehe von einen anderen Standpunkt an die sache:PMR+ = SMR und TDMR oder ein mix mit SMR ist fortschritt

Die Bilder vom Advanced Storage Technology Consortium sind mir vertraut. Ebenso die Details zu den Funktionsweisen der einzelnen Technologien. Da du offensichtlich bereits das Problem von Korngrößen gelöst hast und kostengünstige Nanolithographie für patterned media beherrscht, als auch zuverlässige Au-NF-Tranducer für Oberflächenplasmonen entworfen hast steht deiner Karriere bei Seagate, HGST, WD und Toshiba ja nichts mehr im Weg.

Mtechlerin schrieb:
alles andere ist ein rückschritt und Festhalten an altbacken. altbacken = Melken der Kuh ( Kunden ).

Also eine VT das die Technologie absichtlich zurückgehalten wird? Na dann :p
 
Zuletzt bearbeitet:
Manchmal sollte man sich auch mal von den alten Daten trennen , die man seit Jahren auf der Platte besitzt ^^
Weniger auf der Platte haben , ist dann auch mal bei einer Hausdurchsuchung von Vorteil ;)
 
Rickmer schrieb:
Schön zu hören, das es immer weiter Fortschritte gibt.
Jetzt brauchen wir nur noch einen proportional schnellen Fortschritt in der Transfergeschwindigkeit für Daten.
Ich befürchte, da kannst du lange darauf warten. Aus geometrischen Gründen. Stell dir einfach eine Speicherzelle einer Festplatte vor. Die läuft dann bei einer bestimmten Zeit unter dem Lesekopf durch. Jetzt kommt der technische Fortschritt und man ist in der Lage die Abmessungen der Zelle in beiden Dimensionen zu halbieren. Dann hast du die vierfache Kapazität. Aber es laufen nur zwei Speicherzellen bei gleicher Umdrehungsgeschwindigkeit in der gleichen Zeit unter dem Lesekopf durch. Du kannst also nur erwarten, das die Transfergeschwindigkeit einer Festplatte etwa proportional zur Quadratwurzel der Kapazität steigt.
 
Eben, wenn die Datendichte steigt, dann gibt es einmal mehr Sektoren pro Spur, die bewirken auch eine bessere Transferrate, aber auch mehr Spuren und die bewirken das es länger dauert bis die ganze Kapazität eines Platte übertragen werden kann. Daher steigt die Transferraten immer nur mit der Wurzel der Steigerung der Datendichte. Wenn sich die Datendichte also vervierfacht, verdoppelt sich die Geschwindigkeit und ebenfalls verdoppelt sich die Anzahl der Spuren und da jede Spur einzeln gelesen werden muss, damit auch die Zeit um eine Platten komplett zu lesen oder zu schreiben. Wobei letzteres bei neuen Technologien wie SMR nicht unbedingt zutrifft.
 
Zurück
Oben