r00ter schrieb:
jetzt rächt sich langsam die vernachlässigte forschung der letzten jahre - wir leben schon in tollen zeiten :/
Was heißt vernachlässigte Forschung? Shingled Magnetic Recording (SMR) und HAMR-Technik wurden doch sogar im Text erwähnt, ebenso die Helium Füllung bei HGST, geforscht wurde und wird also schon genug, es hapert wohl nur teils an der Serienreife.
AMDprayer schrieb:
Finde jedenfalls stark was HGST bietet, nutze selbst z.B. die 3 Platter 1,5TB 2,5Zoll Platte die trotzdem nur 9,5mm Bauhöhe hat und damit konkurenzlos ist.
Nicht mehr, mit der
Spinpoint M9T bietet Seagate sogar 2TB in einer 9.5mm hohen 2.5" HDD mit ebenfalls 3 Plattern zu je 667GB.
AMDprayer schrieb:
Bin gespannt was Seagate da abliefert, aber rein vom Gefühl her würde ich eine Helium Platte vorziehen, da zumindest auf dem Papier die Vorteile einleuchtend sind.
Gegenüber dem Shingled Magnetic Recording (SMR) ist mit die Heliumfüllung auch lieber.
AMDprayer schrieb:
Ich habs nicht mehr genau im Kopf, aber das Hing wohl mit der Größe der Scheiben zusammen und physikalischen Kräften die darauf wirken (ich glaube die wurden nach außen hin unstabiler was keine hohe Datendichte zuließ). Eine 3,5 Zoll HDD höher zu bauen wäre da eher möglich, allerdings kann man dann auch gleich 2 kaufen.
Da hat man dann aber auch das gleiche Problem, denn je länger die Achse wird, umso stärker werden die Schwingungen und die wirken dann entsprechend verstärkt auf die Plattern, vor allem auf die mittleren. Deshalb baut man auch keine so hohen HDDs mehr.
NormanMuc schrieb:
Vermutlich wird der schnellere Fortschritt im Flash-Bereich stattfinden und damit werden sich die Preisunterschiede weiter verringern.
Ja, aber auch da wird es immer schwerer die Datendichte zu steigern und die bestimmt nun einmal auch die Preise. Schon bei den aktuellen NANDs mit 19nm oder 20nm sind es nur noch einige Dutzend Elektronen, die in einer Zelle Ladung darstellen. Je weiter man die Strukturen schrumpft, umso weniger Elektronen passen in die Zellen und umso schwerer wird es auch die Ladungszustände zu unterscheiden. Da ist also auch ein Technologiesprung wie z.B. das 3d-V-NAND von Samsung nötig um noch länger weiter zu kommen.
Wattwanderer schrieb:
In meiner Begeisterung habe ich auch alles auf SSD umgestellt. Ein Traum, wie schnell alles ging aber nach einer Weile musste ich einige Dienste wieder auf HDD umstellen weil der Verschleissanzeiger bei SMART herunterratterte. Eigentlich erstaunlich bei den erwarteten niedrigen zweistelligen TB pro Jahr aber offenbar kommen bei bestimmten Nutzungsfällen noch eine ganze Menge Write Amplification ins spiel?
Dann habt ihr die falschen SSDs eingesetzt, denn wenn ihr nur niedrige zweistellige TB im Jahr schreibt und die Verschleißanzeiger so runterrattern, dann dürften das einfach Enterprise SSDs sein, ihr hättet aber Enterprise SSD gebraucht die einige 100TB oder PB vertragen, wie z.B. eine Intel 710 oder DC S3700. Ihr habt doch sich vorher Enterprise HDDs und keine einfachen Consumer HDDs verwendet, oder?
Wattwanderer schrieb:
Jetzt bin ich am "Tweaken" um Verschleiss und Geschwindigkeit optimal abzustimmen. Andererseits ist das zusätzliche Arbeit die mit HDDs nicht nötig waren.
Das beste Tweaken ist die SSD mit höherer Kapazität zu kaufen als man wirklich nutzt und einen Teil der Kapazität ab Neuzustand (oder nach einem Secure Erease) dann unpartitioniert zu lassen. Aber auch das erlaubt es nicht eine Consumer SSD statt einer Enterprise SSD einzusetzen, wenn man wirklich schreibintensive Anwendungen hat. Oder man muss die Consumer SSDs eben regelmäßig ersetzen.