Cool Master schrieb:
Ein UBER von 1:10^15 ist bei 8,10,12 oder 14 TB einfach sau schlecht und da hat sich gefühlt seit 10 Jahren nichts getan, im Gegenteil die UBER ist sogar gesunken.
Wo ist was gesunken? Die UBER von 1:10^15 ist seit langem das besten was man bei 3.53 HDDs bekommen kann, bei WD haben viel HDDs sogar nur 1:10^14, auch wenn zuweilen 1:10^14 im Datenblatt steht was aber das Gleiche ist. Auch HGST und Toshiba bieten die 1:10^15 allenfalls bei den teuren Enterprise Nearline HDDs, nur Seagate bietet auch einfache NAS HDDs mit einer UBER von 1:10^15 an, zumindest bei den größeren Kapazitäten.
Cool Master schrieb:
Es handelt sich dabei um die Unrecoverable Bit Error Rate. Dieser Wert sagt nach wie vielen Bit mit einem Lesefehler zu rechnen ist.
Richtig, solange man die Platten innerhalb der Spezifikationen betreibt und sie ihre geplante Nutzungsdauer nicht überschritten haben, die meist 5 Jahre beträgt. Die Lesefehler müssen auch nicht auftreten, können aber ohne das die HDD ihre Spezifikation verletzt. Dann sieht man bei einzelnen Laufwerken eben einen schwebenden Sektor in den S.M.A.R.T. Werten.
Cool Master schrieb:
Für einen RAID 5 mit 4 Festplatten und einer UBER von 1:10^15 beträgt die Wahrscheinlichkeit eines erfolgreichen Rebuilds nur 63.9%
Auf welche Kapazität bezogen? Ich kommen selbst ein HDDs mit 10TB Kapazität und einer UBER von 1:10^15 auf 77% Wahrscheinlichkeit für ein erfolgreiches Rebuild eines RAID 5 aus 4 solcher HDDs.
Killer1980 schrieb:
Eine große SSD steht noch für dieses Jahr in meiner Wunschliste. Am besten als m2 Modul.
M.2 ist nicht wirklich ein geeigneter Formfaktor um große Kapazitäten zu realisieren, 2.5" (egal ob SATA oder U.2) oder Add-In-Card sind da weit besser geeignet.
Cool Master schrieb:
Ich setzte z.B. nur noch auf Raid 6 auch bei kleinen 2 TB HDDs. Trotzdem hat man dort die gleichen Probleme. Dort sind es dann zwar bei 10^15 immerhin um die 90% statt 63,9%
Wie hast Du das berechnet? Deine Zahlen scheine mir vorne und hinten nicht zu stimmen. Beachte das bei einem Rebuild eines RAID 6 mit einer ausgefallenen Platte die Lesefehler auch noch an der gleichen Adressen (also physikalischen Sektoren) auftreten müssen, damit es zu einem Problem wird.
Dario schrieb:
In meinen Augen sind die SSD Preise seit Jahren nicht gesunken.
Dann solltest Du aber dringend mal zum Augenarzt gehen.
Dario schrieb:
Als es richtig los ging, mit den ersten Wear Leveling Speichern ala Crucial M4 oder der Samsung 830
Wear Leveling haben SSD schon viel, viel länger.
Dario schrieb:
Ich hatte gehofft, daß Intel und Micron mit X-Point das Feld aufräumen aber das ist leider nicht eingetroffen.
3D XPoint wird pro GB sehr, sehr teuer werden, wie alle neuen Storage Class Technologien. NAND mag denen technisch weit unterlegen sein, aber sein Aufbau ermöglicht eben hohe Datendichten und damit geringe Preise, außerdem werden nicht wie bei 3D XPoint eine ganze Menge teils sehr exotischer Materialien dafür gebraucht.
Cool Master schrieb:
Na ja Samsung hat ja schon die 16 TB SSD "gebracht". Ich denke also schon dass SSDs bzw. Flash die Zukunft sind.
Die Kapazität einer SSD hat aber eben keinen wirklichen Einfluss auf die Kosten, die werden gerade bei SSD mit großen Kapazitäten eben vor allen vom NAND bestimmt. Bei HDDs ermöglichte bisher immer erst eine neue Technologie eine größere Datendichte und damit auch fallende Kosten pro GB. In den letzten Jahren ist davon schon weniger zu merken und die ganz großen Kapazitäten werden durch mehr Platter und Tricks wie SMR realisiert, während die Datendichte nur moderat gestiegen ist, weshalb die kleinen Kapazitäten bei HDDs auch nicht mir weniger Plattern und damit billiger zu realisieren sind. Die Kosten für die Steigerung der Datendichte scheinen auch immer höher zu werden. Erst ganz neue Techniken wie H(A)MR scheinen hier größere Sprünge möglich zu machen.
Aber auch bei NAND ist das Kostensenkungspotential beschränkt, die Datendichte muss steigen um die Kosten senken zu können. Die Zellgrößen und Zellabstände sind schon planaten 15/16nm NANDs (Samsung soll sogar 14nm NAND haben) minimal und kommen in kritische Bereiche, die sind also kaum noch zu senken. Bei 3D NANDs, welches aktuell die Alternative ist, steigt die Zahl der Bearbeitungsschritte und damit die Kosten pro Wafer, so kostet Samsungs 48 Layer NANDs trotz rund doppelter Datendichte im Vergleich zu planarem 15nm NANDs, immer noch mehr in der Fertigung. Man rechnet erst bei Samsung beim 64 Layer NAND (die kommende 4. Generation) mit gleichen Kosten und auch SK Hynix sowie Toshiba/WD werden 3D NANDs ja erst mit 64 Layern in Großserie fertigen, da dürfte es ähnlich sein und die Fertigung von 3D NAND mit weniger Layer teurer als die von den aktuellen planares NAND werden. Nur IMT hat mit 32 Layern offenbar schon Kostenvorteile, wurde doch sogar die Crucial BX200 schon eingestellt.
Aber deren 3D NANDs ist von den technischen Eigenschaften her nicht sehr toll, die Performance ist im Vergleich zu planaren NANDs mies und im Vergleich zu Samsungs V-NAND grottenschlecht und die Haltbarkeit ist auch nicht wirklich so viel besser als bei den planaren NANDs, die dürften am Ende wirklich einfach planare NAND Zellen übereinander stapeln statt das Design komplett umgekrempelt zu haben wie es bei Samsung war. Toshiba dürfte eher den Weg wie Samsung gegangen sein, denkt man beim 3D NANDs doch schon an QLC und das dafür muss die Größe der Zellen gegenüber planaren NANDs deutlich wachsen.
Derzeit rechnet man mit einem wirtschaftlichen Limit bei rund 128 Layern zu erreichen, dies mag sicher noch nach oben gehen, aber je mehr Layer man macht, umso mehr Bearbeitungsschritte braucht man und umso höher ist das Risiko das einer davon schief geht und der Wafer zu Ausschuss wird. Man kann dann sicher die Zellen und Zellabstände noch mal kleiner machen oder mehr Bits pro Zelle speichern, wobei das eine das andere behindert, man kann größere und damit effizientere Fab bauen und man kann dann die Entwicklungskosten auf mehr NAND verteilen, aber ob das alles reicht um an die Kosten pro GB von HDDs heran zu kommen, ist derzeit ungewiss und eher weniger zu erwarten. NAND könnte immer um den Faktor 2 bis 3 teurer als HDDs bleiben und dann muss man sehen ob die Einsparungen die sehr große Kapazitäten pro Laufwerk bei der Infrastruktur bedeuten dann am Ende reichen um auch bei den ToC die Nase vorne zu haben und HDDs letztlich komplett zu verdrängen.
SSD mit sehr hoher Kapazität zu bauen ist technisch vor allem eine Herausforderung für die Hersteller der SSD Controller, die müssen dann mit der Verwaltung so eines großen Adressraumes klar kommen ohne dabei zu viel Performance einzubüßen oder zu viel Energie zu verbrauchen.