News Technik für hundertfach schnelleres Schreiben bei Festplatten

Zum Thema:
Meiner Meinung nach sind nicht die sequentiellen Raten von Magnet-Platten das Problem, sondern der zufälligen Zugriffe wie bei:
- Zugriff auf fragmentierte Element
- Mehrfache Lese-/Schreibvorgänge auf dem selben Medium

Da wird man selbst wenn die Lesegeschwindigkeit auch vervielfacht werden könnte immer noch die selben Probleme haben...

Bartonius schrieb:
@Hellsfoul

Erm, die Umdrehungsgeschwindigkeit bestimmt eigentlich nur die Zugriffszeit, nicht die erreichbaren Datenraten.
Quatsch. Schau dir einfach mal an, wie schnell eine Festplatte ist über ihre komplette Größe. Je weiter die Daten im Außenbereich liegen, desto schneller bewegen sich die Sektoren da (da passen im Übrigen auch mehr Sektoren hin), und desto schneller kann gelesen/geschrieben werden.

Stell dir ein Karussell vor, jemand steht in der Mitte, jemand so auf halbem Radius und jemand am Rand.. wem wird es am übelsten?
 
Zuletzt bearbeitet:
Schimmel-Apfel schrieb:
was bringen euch titangehäuse wenn die lötstellen bei ~ 180°C liegt ^^

Deswegen hat der Herrgott auch Schweißgeräte und Nieten erfunden oder auch Schrauben :evillol:

Genug OT:

Mich würde es wundern wenn diese Technik nicht für den Schubladen wäre, von der Speichertechnik wo die Platte glaub ich Oszilliert und über 500MB/s liefern sollte hört man auch nichts mehr.
 
Und auf wieviele Lese-/Schreibvorgänge reduziert diese Technik dann die Lebensdauer eines HDD-Sektors?
 
Ich habe die Quelle genauer angeschaut. Es handelt sich nur um eine experimentelle Demonstration. Außer verwendete magnetische Medien, diese Technologie hat wenig mit Festplatten zu tun. Die geschriebene Daten kann man nur mit Hilfe des Rastertunnelmikroskops "gelesen" werden (oder besser gesagt geschaut). Und die sind so groß wie ein Zimmer. Also die praktische Anwendung ist in absehbarer Zeit ausgeschlossen.
 
The necessity for the laser heating results from the large values of anisotropy required for thermal stability in recording media with small grain sizes, which are necessary to achieve the required signal to noise ratio at storage densities beyond 1 Tb/inch2. Such large ani- sotropy values result in switching fields greater than the write fields available from current technology and the laser heating is used to produce a transient reduction in the anisotropy value to writable levels.

Sollte auch mal am Rande erwähnt werden. Soll heißen, aus der Möglichkeit mehr abspeichern zu können folgt als logische Konzequenz auch der Anspruch, mehr Daten in weniger Zeit abspeichern zu müssen. Das dies mit in etwa der gleichen Technik gemacht werden kann, wurde in diesem Paper nun gezeigt. Also der HAMR Effekt ist dabei nicht ganz was neues, jedoch die Möglichkeit nur mit Wärme in Form eines Laserpulses Bereiche umzumagnetisieren schon.

Wo diese Technik dann genau zum Einsatz kommt wird sich in Zukunft zeigen müssen. Denn Fakt ist, dass SSDs immer billiger werden, und der Otto-Normal User in seinem Notebook in der Regel nicht auf 13 TB angewiesen ist. Wenn es jedoch um Anwendungen geht, in dem sehr viele Daten abgespeichert werden müssen, ist die SSD Technologie ganz klar unterlegen. Im IT Bereich gibt es eben nicht nur Gamer...

Siehe dazu auch: Superparamagnetismus, Heat-assisted magnetic recording, und Mount Stupid ;)

@b4e5ff3d9e: Wo steht das bitte im Paper? Es ergibt auch gar keinen Sinn, dafür ein Rastertunnelmikroskop zu verwenden. Die Grains im Experiment sind weit über der atomaren Skala und die Bilder im Paper sind definitiv unterm Kerr aufgenommen (steht da ja auch). Auch besteht ein großes Interesse der Industrie an dieser Technik und ich würde mal behaupten, dass die sehr wohl in den nächsten 5 Jahren eine große Rolle spielt. Schließlich wird ja nicht das Rad neu erfunden, sondern neu ein Laser eingebaut und andere Materialien für die Grains verwendet. Das ist industriell in einer kurzen Zeit leicht umsetzbar. Auch die Beanspruchung an das Material dürfte nicht zu groß sein, der Laser pulst schließlich nur ein paar billiardstel Sekunden.
 
Zuletzt bearbeitet:
und schon ist die existenz von HDDs neben SSDs für die nächsten Jahrzehnte gesichert!

klingt super, keine direkten schreib/leseköpfe mehr sondern nur einen laser mit spiegeloptik. keine headcrashs mehr und kein klackern des lesekopfes.

alls massendatenspeicher mit hohen sequentiellen transferraten geradezu ideal!
 
hmm ich finde mal sollte langsam abschied von der HDD nehmen und sich 100%ig auf SSDs konzentrieren. Es ist zwar nett das man mit HDDs sowas noch anstellen kann aber man muss es ja nicht. Ich mein es gibt ja schon SSDs mit über 3 TB (https://www.computerbase.de/preisvergleich/669464) warum nicht da weiter forschen das es billiger wird und stabiler. Fakt ist nun mal das eine HDD nie an eine SSD dran kommen kann und Transfer Raten sind nicht alles I/O ist das stichwort.
 
Die Forschung an SSDs wird doch nicht verlangsamt, nur weil andere Forscher an neuen HDD-Verfahren arbeiten! Ist doch gut, dass weiterhin in jeder Richtung geforscht wird.

Wenn man immer alles gleich aufgegeben hätte, weil es ja sowieso nichts bringt, dann hätten wir heute weder Autos, noch Computer, da bin ich mir ganz sicher!
 
Hier wurde bereits Datum: 17.01.2009 und am 20.01.2009 drüber berichtet

Das die Entwiklung nicht stehen bleibt ist ja bekannt, es ist nur eine frage der Zeit und Wirtschaftlichkeit.

Erste Test Laufwerke gibt es bereits dazu muss mann nur richtig suchen / Google.
 
Man muss es ja nicht gleich aufgeben ich sagte ja: "langsam abschied nehmen".

Man sollte aber wissen wann schluß ist. Samsung hat es meiner Meinung nach genau richtig gemacht. HDD Sparte abgestoßen und ich sagte damals schon Samsung wird SSDs bauen und bestimmt die besten werden mit ein wenig Erfahrung.
 
Ich glaube wenn es ums Massenspeichern geht (beispielsweise in Servern) ist die SSD Technologie vollkommen ungeeignet, da hier Langlebigkeit und Robustheit einen sehr großen Faktor darstellen.
Nur weil hier mal in den Medien eine Veröffentlichung durch ist, heißt das ja nicht, dass da nix getan wird. SSDs werden automatisch mit besseren Fertigungsprozessen billiger.

Ich denke mir mal, dass Intel da auch ne Menge reinsteckt. Der Teufel liegt aber einfach in der Technik: Ich denke nicht, dass SSDs mit diesen Kapazitäten jemals das Preisniveau von HDDs erreichen können. Der Fertiungsprozess ist einfach deutlich aufwendiger (aufgrund der vielen Chips).
 
Nukleareswinterkind schrieb:
Ich glaube wenn es ums Massenspeichern geht (beispielsweise in Servern) ist die SSD Technologie vollkommen ungeeignet, da hier Langlebigkeit und Robustheit einen sehr großen Faktor spielen.

Das kommt ganz auf den Server an. Habe ich ein einfachen File Server stimmt das. Hoste ich aber hunderte vom VM's sind I/O wichtig und das bekommt man nur duch SSDs hin.
 
wie oft hat man schon Nachrichten über Technologien gelesen, die die aktuelle Technik revolutionieren sollen? Und nachher hört man nichts mehr davon...
 
Die Technik muss ja nicht unbedingt im Heim-PC eingesetzt werden.
 
Cool Master schrieb:
Das kommt ganz auf den Server an. Habe ich ein einfachen File Server stimmt das. Hoste ich aber hunderte vom VM's sind I/O wichtig und das bekommt man nur duch SSDs hin.

Klar kann man Server mit SSDs bauen, das Problem ist, es ist viel zu teuer und es rechnet sich einfach gar nicht. Vielleicht für Militär, oder Geheimdienste, aber nicht für Privat agierenden Firmen.
 
Was bitte ist neu an dieser News. Diese Information kursiert schon sehr lange in den einschlägigen Medien.
 
Nur mal so überlegt, wenn da Daten im Terrabytegrößenordnungen geschrieben werden können sich die Lesegeschwindigkeit aber nicht ändert, dann ist das in der Praxis doch recht sinnfrei? Allein das verifizieren der gerade geschriebenen Daten wäre technisch unmöglich bzw. würde den Geschwindigkeitsvorteil beim schreiben sofort wieder zunichte machen. Ohne eine Art der Verifizierung sehe ich aber nur einen begrenzten Verwendungszweck als Massenspeicher für Verlustbehaftetes Material, unkomprimiertes Video oder Meßdaten in Industrie und Wissenschaft. Mit Hilfe von Checksummen und Korrekturalgorithen kann man eventuell auf ein Verify verzichten, erkauft die höhere Schreibgeschwindigkeit dann aber mit noch geringerer Lesegeschwindigkeit und Overhead für die Korrekturdaten. Heimische Computertechnik hat IMO andere Anforderungen.
 
@Cooler Master: Sehe es ähnlich wie Entilzha. Nehm dir irgendein Unternehmen im Internet. Facebook, Google, Amazon. Ich glaube kein Server von denen setzt auf SSDs. So wie ich das verstehe haben die meisten Server von denen doch riesige RAID Verbunde und wenn eine HDD ausfällt wird sie durch eine neue ersetzt.

Ein weiterer Punkt ist doch, dass SSDs an Kapazität einbüßen je mehr Daten verschoben werden. Bei einem einzelnen Privatanweder Desktop wie du ihn benutzt ist das vollkommen irrelevant, aber bei einem Server von bspw. Facebook oder Google? Die Mehrkosten die dabei aus den zu ersetzten Platten entstehen würden sind doch wohl immens hoch!
 
Zuletzt bearbeitet:
Zurück
Oben