mgutt schrieb:
Würde man das bei einer HDD machen, hätte sie also durchgehend 80 bis 100 MB/s.
So war es ganz früher zu Zeiten der CHS Adressierung mal, aber da man damit viel Kapazität verschwendet, hat man dies schon vor langer Zeit geändert.
MountWalker schrieb:
Also früher gabs öfter Empfehlungen in Foren, dass man Festplatten wenigstens einmal im Jahr für einen Tag anstöpseln sollte, damit deren internes Management die Bits, deren magnetische Ausrichtung langsam etwas blass wird, nachschreiben kann.
Das hat weniger mit der Magnetisierung als der Mechanik zu tun und ein Jahr dürfte zu selten sein. Dazu schreibt Seagate z.B. hier und auch in einigen anderen Product Manuals:
Und außerdem:
Wenn also die Lagerbedingungen nicht eingehalten werde, sind 90 Tage und zwar in der ungeöffneten Originalverpackung, sonst bestenfalls 1 Jahr. Nach dem Öffnen sollten HDD nicht länger als 30 Tage stromlos sein.
Bei der neuen Barracuda Pro 10TB mit Heliumfüllung schreibt Seagate:
Also hier nur ein halbes Jahr in der ungeöffneten originalen Versandverpackung von Seagate und sonst 2 Monate, nur bei optimalen Bedingungen bis zu einem Jahr.
HGST schreibt für die meisten Modelle wie z.B. für die Megascale:
Das bedeutet nicht, dass die HDDs dann automatisch Schaden nehmen oder gar komplett kaputt sind, wenn man diese Vorgaben nicht einhält. Aber ganz ignorieren sollte man es nicht, denn im Thread
Festplatten sterben wie die Fliegen - was mache ich falsch? sind jemandem der ein halbes Jahr im Ausland war, binnen 3 Monaten 4 HDDs gestorben. Die HDDs waren wohl in einem NAS im Keller, also nicht unter optimalen Bedingungen gelagert und natürlich müssen solche Angaben auch unter den ungünstigsten der erlaubten Bedingungen noch eingehalten werden. Unter optimalen Bedingungen dürften die Platten auch eine weitaus längere Zeit ohne Probleme überstehen.
Auch in diesem Thread wo eine "ein paar Jahre" unbenutzt irgendwo rumgelegen hat und danach nicht erkannt wurde, dürfte Überlagerung des Problem gewesen sein.
Nolag schrieb:
SSDs skalieren nicht nur über die Anzahl der Bits pro Zelle, sondern hauptsächlich über die Anzahl der Zellen pro Fläche und die Anzahl der Schichten. In der Flash Technology ist noch viel Luft für die Steigerung der Kapazität ohne die Performance zu verringern:
800-layer 3D NAND? It can be yours in 2030, SK hynix says
Es ging im Zusammenhang um die Schreibgeschwindigkeit ohne Pseudo-SLC Cache und die hängt natürlich von den konkreten NANDs ab, aber wieso sollte die über die Layer skalieren? Die Zellen auf verschiedenen Layern lassen sich ja nicht parallel ansprechen. Die Skalierung der Performance erfolgt über die Anzahl der Dies und damit auch über die Kapazität der SSDs, aber da sind mehr Layer und damit potentiell weniger Dies bei gleicher Kapazität dann eher kontraproduktiv. Außerdem werden Werte wie 800 Layer dann auch nur über Stacking erreicht, also übereinander gesetzte und durchkontaktierte Dies die danach als ein Die gezählt, aber trotzdem einzeln hergestellt werden. Wenn man zwei Dies stacked, dann muss man doppelt so viele Wafer durchschieben um hinterher die gleiche Anzahl an Dies zu bekommen als wenn man die Layer nativ erzeugt. Man spart etwas, z.B. weil man die Logik des Dies ja nur einmal braucht, aber man spart eben nicht so viel als dass die damit verdoppelte Anzahl der Layer zum gleichen Preis wie vorher zu haben wäre.
mkossmann schrieb:
Wie wirken sich diese Skalierungen auf den Preis aus ?
TLC auf QLC max. 25% QLC auf PLC max. 20 % weitere Steigerungen noch weniger.
Eben, man steigert von TLC auf QLC die Datendichte zwar um 33%, aber die Kosten fallen nur maximal um 25%, wovon dann noch die Kosten zusätzliche Zellen etwa für eine stärkere ECC abgezogen werden müssen. Außerdem braucht man eine gewisse Größe der Zellen um genug Elektronen darin speichern zu können um überhaupt so viele verschiedenen Ladungszustände unterscheiden zu können, bei den letzten planaren NANDs wäre dies schon nicht mehr möglich gewesen. Die Verringerung der Größen und Abstände der Zellen steigert die Datendichte ebenfalls und senkt damit die Kosten, aber steht halt der Erhöhung der Anzahl der Bits pro Zelle im Wege, man wird sehen in welche Richtung die Optimierungen da am Ende gehen werden.