News Hitachi: HDD-Speicherdichte verachtfacht

WinnieW2 schrieb:
Eine 3,5" Festplatte mit dieser Speicherkapazität wird es nicht geben, denn es gibt physikalische Grenzen was die Datendichte betrifft. Die kleinsten einzel magnetisierbaren Bereiche sind ca. 2 bis 5 nm "groß". Das sind dann nur noch ein paar zusammenhängende "Metallgitter" in der Struktur der Metalllegierung.
Die Datendichte lässt sich somit nur um einen weiteren Faktor 8 erhöhen dann ist Feierabend mit einer weiteren Kapazitätssteigerung.

Damit wären wir bei etwa 50 TB pro Platter, oder 200 TB bei einer FP mit 4 Plattern. Das Petabyte wird eine einzelne Platte nicht erreichen können, da es physikalisch bedingte Limit bei der Datendichte gibt.

Kennste die News schon?

Dazu kommen noch viele weitere verfahren wie Laser und co. wo man in Fernometer und noch kleiner kommt.

Dazu besteht mal die möglichkeit vielleicht mehr schichtig wie bei Blueay die Platter aufzubauen.

Und wegen Physikalsicher Grenze würde ich nicht so genaus nehmen. Es wird mal kommen JA aber selber bei Nanometer ist man sich bei CPU und GPU uneinige noch ab wann das ist. Und bei damals wo die 400GB HDD vorgestellt worden ist dachte man da wäre Schluss und was ist wir haben jetzt 3000GB HDDs.
 
korbenm schrieb:
Seh ich auch so die Übertragungsraten werden in Zukunft noch wichtiger.

BTW: RAIDs schützen nur vor Plattenausfällen. Dadurch sorgen sie also eher dafür das der Rechner ohne Pause laufen kann.
Ein ordentlicher Backup muss aber viel mehr Abdecken (Brände oder Viren z.b.)
Dafür eignen sich dann eher Externe Festplatten die kann man z.b. in einem anderen Gebäude lagern.

Also deine Backup-Philosophie find ich toll. Man könnte doch statt auf Platter auf Bänder setzen und das nennt man dann Bandlaufwerk und so kann man seine Backups total easy lagern wie und wo man will. Voll cool oder??? Hab ich mir grad selber ausgedacht... :bussi:
 
Tekpoint schrieb:
Das Problem ist die Mechanik, wie will man preisgünstige Geräte bauen die die notwedige Präzision erreichen? Vibrationen sind bereits heute ein Problem, die Leseköpfe lassen sich immer schwieriger in der Spur halten.
Irgendwo gibt es eine Grenze ab der sich der Aufwand die Datendichte weiter zu steigern nicht mehr lohnt, da die notwendige mechanische Präzision bei der Massenfertigung zu aufwändig wird.
Was im Labor funktioniert muss nicht zwangsläufig für die Massenfertigung eines Produktes gelten.

Tekpoint schrieb:
Dazu besteht mal die möglichkeit vielleicht mehr schichtig wie bei Blueay die Platter aufzubauen.
Wie willst du mehrere übereinanderliegende Schichten unabhängig voneinander magnetisieren?

Tekpoint schrieb:
Und wegen Physikalsicher Grenze würde ich nicht so genaus nehmen. Es wird mal kommen JA aber selber bei Nanometer ist man sich bei CPU und GPU uneinige noch ab wann das ist.
Die Hersteller sehen die sinnvolle Grenze bei etwa 10 nm Strukturen bei der üblichen MOS-Chipfertigungs-Technologie.
Die akt. High Tech MikroChips werden mit Strukturen um die 30 nm gefertigt (28 / 32 nm)
 
Zuletzt bearbeitet:
Zurück
Oben