News Western Digital: Mit NAND-Flash und großen HDDs zum Rekordumsatz

@Cool Master

Ob Flash die alleinige Lösung ist wage ich zu bezweifeln. Die Reduktion Zellengröße und der Ansatz ins 3-dimensionale zu wechseln verschaffen aktuell eine Entspannung aber wo sind dort die Grenzen?

Persönlich denke ich, dass sich der "Speicherplatz" auch in Zukunft aus verschiedenartigen Typen zusammensetzen wird.
 
Dario schrieb:
In meinen Augen sind die SSD Preise seit Jahren nicht gesunken. ...


Jain, heute 8x fache SSD Kapazität zu dem selben Preis. Was 2010 60GB kostete, ist heute 500GB zu haben.
 
Eine gute 128 GB SSD kostet nicht viel weniger als vor 3 Jahren. Wenn man dann aber zu den Größen ab 256GB geht, sieht es anders aus.
 
@Hallo32

Na ja Samsung hat ja schon die 16 TB SSD "gebracht". Ich denke also schon dass SSDs bzw. Flash die Zukunft sind. Aber klar das wird nicht binnen den nächsten 2 Jahren passieren außer es passiert ein Wunder bei der Produktion und die Kosten können und 80% gesenkt werden.
 
Pure Existenz schrieb:
Wenn mal 8TB SSD´s bezahlbar vorhanden sind, dann gute Nacht.
Bezahlbar ist immer eine Frage des Gehaltes ;)

Aber wenn ich überlege, 2012 hab ich die 500er WD Blue für 30€ das Stück gekauft.
5 Jahre später zahle ich für das doppelte auch den doppelten Preis, obwohls das
gleiche Gerät mit ner dichteren oder zweiten Scheibe ist. Technisch gesehen kassieren
die also für fast den gleichen Produktionsaufwand das doppelte. SSDs hingegen haben
sich in den letzten 5 Jahren im Preis halbiert. Meine 64er Vertex hat 2011 über 100€
gekostet, meine 500er Transcend 2016 genau 99€. Also ich weiß nicht wie es euch geht,
aber ich freuch mich total auf 2021 ;)
 
Cool Master schrieb:
Ein UBER von 1:10^15 ist bei 8,10,12 oder 14 TB einfach sau schlecht und da hat sich gefühlt seit 10 Jahren nichts getan, im Gegenteil die UBER ist sogar gesunken.
Wo ist was gesunken? Die UBER von 1:10^15 ist seit langem das besten was man bei 3.53 HDDs bekommen kann, bei WD haben viel HDDs sogar nur 1:10^14, auch wenn zuweilen 1:10^14 im Datenblatt steht was aber das Gleiche ist. Auch HGST und Toshiba bieten die 1:10^15 allenfalls bei den teuren Enterprise Nearline HDDs, nur Seagate bietet auch einfache NAS HDDs mit einer UBER von 1:10^15 an, zumindest bei den größeren Kapazitäten.

Cool Master schrieb:
Es handelt sich dabei um die Unrecoverable Bit Error Rate. Dieser Wert sagt nach wie vielen Bit mit einem Lesefehler zu rechnen ist.
Richtig, solange man die Platten innerhalb der Spezifikationen betreibt und sie ihre geplante Nutzungsdauer nicht überschritten haben, die meist 5 Jahre beträgt. Die Lesefehler müssen auch nicht auftreten, können aber ohne das die HDD ihre Spezifikation verletzt. Dann sieht man bei einzelnen Laufwerken eben einen schwebenden Sektor in den S.M.A.R.T. Werten.

Cool Master schrieb:
Für einen RAID 5 mit 4 Festplatten und einer UBER von 1:10^15 beträgt die Wahrscheinlichkeit eines erfolgreichen Rebuilds nur 63.9%
Auf welche Kapazität bezogen? Ich kommen selbst ein HDDs mit 10TB Kapazität und einer UBER von 1:10^15 auf 77% Wahrscheinlichkeit für ein erfolgreiches Rebuild eines RAID 5 aus 4 solcher HDDs.

Killer1980 schrieb:
Eine große SSD steht noch für dieses Jahr in meiner Wunschliste. Am besten als m2 Modul.
M.2 ist nicht wirklich ein geeigneter Formfaktor um große Kapazitäten zu realisieren, 2.5" (egal ob SATA oder U.2) oder Add-In-Card sind da weit besser geeignet.

Cool Master schrieb:
Ich setzte z.B. nur noch auf Raid 6 auch bei kleinen 2 TB HDDs. Trotzdem hat man dort die gleichen Probleme. Dort sind es dann zwar bei 10^15 immerhin um die 90% statt 63,9%
Wie hast Du das berechnet? Deine Zahlen scheine mir vorne und hinten nicht zu stimmen. Beachte das bei einem Rebuild eines RAID 6 mit einer ausgefallenen Platte die Lesefehler auch noch an der gleichen Adressen (also physikalischen Sektoren) auftreten müssen, damit es zu einem Problem wird.

Dario schrieb:
In meinen Augen sind die SSD Preise seit Jahren nicht gesunken.
Dann solltest Du aber dringend mal zum Augenarzt gehen. :freak:
Dario schrieb:
Als es richtig los ging, mit den ersten Wear Leveling Speichern ala Crucial M4 oder der Samsung 830
Wear Leveling haben SSD schon viel, viel länger.

Dario schrieb:
Ich hatte gehofft, daß Intel und Micron mit X-Point das Feld aufräumen aber das ist leider nicht eingetroffen.
3D XPoint wird pro GB sehr, sehr teuer werden, wie alle neuen Storage Class Technologien. NAND mag denen technisch weit unterlegen sein, aber sein Aufbau ermöglicht eben hohe Datendichten und damit geringe Preise, außerdem werden nicht wie bei 3D XPoint eine ganze Menge teils sehr exotischer Materialien dafür gebraucht.

Cool Master schrieb:
Na ja Samsung hat ja schon die 16 TB SSD "gebracht". Ich denke also schon dass SSDs bzw. Flash die Zukunft sind.
Die Kapazität einer SSD hat aber eben keinen wirklichen Einfluss auf die Kosten, die werden gerade bei SSD mit großen Kapazitäten eben vor allen vom NAND bestimmt. Bei HDDs ermöglichte bisher immer erst eine neue Technologie eine größere Datendichte und damit auch fallende Kosten pro GB. In den letzten Jahren ist davon schon weniger zu merken und die ganz großen Kapazitäten werden durch mehr Platter und Tricks wie SMR realisiert, während die Datendichte nur moderat gestiegen ist, weshalb die kleinen Kapazitäten bei HDDs auch nicht mir weniger Plattern und damit billiger zu realisieren sind. Die Kosten für die Steigerung der Datendichte scheinen auch immer höher zu werden. Erst ganz neue Techniken wie H(A)MR scheinen hier größere Sprünge möglich zu machen.

Aber auch bei NAND ist das Kostensenkungspotential beschränkt, die Datendichte muss steigen um die Kosten senken zu können. Die Zellgrößen und Zellabstände sind schon planaten 15/16nm NANDs (Samsung soll sogar 14nm NAND haben) minimal und kommen in kritische Bereiche, die sind also kaum noch zu senken. Bei 3D NANDs, welches aktuell die Alternative ist, steigt die Zahl der Bearbeitungsschritte und damit die Kosten pro Wafer, so kostet Samsungs 48 Layer NANDs trotz rund doppelter Datendichte im Vergleich zu planarem 15nm NANDs, immer noch mehr in der Fertigung. Man rechnet erst bei Samsung beim 64 Layer NAND (die kommende 4. Generation) mit gleichen Kosten und auch SK Hynix sowie Toshiba/WD werden 3D NANDs ja erst mit 64 Layern in Großserie fertigen, da dürfte es ähnlich sein und die Fertigung von 3D NAND mit weniger Layer teurer als die von den aktuellen planares NAND werden. Nur IMT hat mit 32 Layern offenbar schon Kostenvorteile, wurde doch sogar die Crucial BX200 schon eingestellt.

Aber deren 3D NANDs ist von den technischen Eigenschaften her nicht sehr toll, die Performance ist im Vergleich zu planaren NANDs mies und im Vergleich zu Samsungs V-NAND grottenschlecht und die Haltbarkeit ist auch nicht wirklich so viel besser als bei den planaren NANDs, die dürften am Ende wirklich einfach planare NAND Zellen übereinander stapeln statt das Design komplett umgekrempelt zu haben wie es bei Samsung war. Toshiba dürfte eher den Weg wie Samsung gegangen sein, denkt man beim 3D NANDs doch schon an QLC und das dafür muss die Größe der Zellen gegenüber planaren NANDs deutlich wachsen.

Derzeit rechnet man mit einem wirtschaftlichen Limit bei rund 128 Layern zu erreichen, dies mag sicher noch nach oben gehen, aber je mehr Layer man macht, umso mehr Bearbeitungsschritte braucht man und umso höher ist das Risiko das einer davon schief geht und der Wafer zu Ausschuss wird. Man kann dann sicher die Zellen und Zellabstände noch mal kleiner machen oder mehr Bits pro Zelle speichern, wobei das eine das andere behindert, man kann größere und damit effizientere Fab bauen und man kann dann die Entwicklungskosten auf mehr NAND verteilen, aber ob das alles reicht um an die Kosten pro GB von HDDs heran zu kommen, ist derzeit ungewiss und eher weniger zu erwarten. NAND könnte immer um den Faktor 2 bis 3 teurer als HDDs bleiben und dann muss man sehen ob die Einsparungen die sehr große Kapazitäten pro Laufwerk bei der Infrastruktur bedeuten dann am Ende reichen um auch bei den ToC die Nase vorne zu haben und HDDs letztlich komplett zu verdrängen.

SSD mit sehr hoher Kapazität zu bauen ist technisch vor allem eine Herausforderung für die Hersteller der SSD Controller, die müssen dann mit der Verwaltung so eines großen Adressraumes klar kommen ohne dabei zu viel Performance einzubüßen oder zu viel Energie zu verbrauchen.
 
Holt schrieb:
Wo ist was gesunken?...

Das war auf ältere kleiner SAS HDDs bezogen welche zum Teil 10^16 hatten z.B. die Seagate Cheetah 15K.7.

Holt schrieb:
Auf welche Kapazität bezogen? Ich kommen selbst ein HDDs mit 10TB Kapazität und einer UBER von 1:10^15 auf 77% Wahrscheinlichkeit für ein erfolgreiches Rebuild eines RAID 5 aus 4 solcher HDDs.

Mit der kapazität aus dem 3. Absatz - 14 TB.

Holt schrieb:
Wie hast Du das berechnet?

Nur abgelesen auf der "Ausfallwahrscheinlichkeit Bitfehlerwahrscheinlichkeit" Folie:

https://www.heinlein-support.de/upload/unsere_vortraege/HS_RAID_Mathematik_fuer_Admins.pdf
 
Das ist aber eine andere Kategorie von HDDs, die 2.5" SAS mit 15krpm haben heute immer noch 1:10^16, nur kann man die nicht mit HDDs mit 7200rpm vergleichen, schon von der Datendichte und der ganzen Technik her nicht.

Zur "Ausfallwahrscheinlichkeit Bitfehlerwahrscheinlichkeit" Folie: Das kommt raus wenn Mathematik auf wenig Ahnung von der Technik trifft, denn die RAID5 und RAID 6 haben Redundanz, ein Bitfehler ist also so lange nicht schlimm, wie beim RAID 5 nur eine Platte davon betroffen ist und zwar auf der Ebene der Sektoren die zu einem Chunk gehören. Dann liest der Controller die Daten eben von den übrigen Platten und stellt die mit Hilfe der Parity wieder her und überschreibt auch noch den Sektor der Platte die den Lesefehler statt der Daten geliefert hat. Wenn im nächsten Chunk eine andere Platte einen Lesefehler hat, macht das auch auch nicht, nur wenn zwei Platte im gleichen Chunk einen Lesefehler ausgeben dann kann der Controller die Daten nicht mehr Rekonstruieren und davon sehe ich in seine Formel nichts. Das Rebuild eines RAID 6 mit meiner defekt Platte ist wie das Lesen eines RAID 5.

Eine 14TB HDD mit physikalischen 4k Sektoren hat fast 3,5 Milliarden davon. Was der Profi da ausrechnet ist die Wahrscheinlichkeit, dass ein Fehler beim Rebuild auf zwei Platten passiert, nicht aber das dieser Fehler bei beiden den gleichen der fast 3,5 Milliarden Sektoren betrifft und wie man sich denken kann, ist die Wahrscheinlichkeit das dies passiert, noch einmal ungleich geringer als die Wahrscheinlichkeit das überhaupt bei zwei Platten ein Fehler auftritt. Da ist es dann wahrscheinlich sinnvoller die AFR (die ist aussagekräftiger als die MTBF) zu nehmen und zu errechnen wie wahrscheinlich dann zwei Platten innerhalb der Zeit ausfallen werden die das Rebuild dauert, aber wegen Bitfehlern dürfte ein Rebuild eines RAID 6 kaum jemals scheitern, außer da sind schon mehr HDDs im RAID kurz vorm verrecken und produzieren Bitfehlerraten die weit über den spezifizierten liegen.

Er rechnet auch immer noch die MTTF ein, die finde ich bei einem Rebuild wenig relevant, denn man hat AFR von vielleicht einem halbe bis einem Prozent, also 1% Risiko eines Ausfalls innerhalb von 365 Tagen, lass das Rebuild einen Tag dauern, da ist das Risiko minimal und zu vernachlässigen, obendrein dürfte das Risiko während des Stresses eines Rebuild sowieso für die meisten HDDs erhöht sein. Dann finde ich es extrem unseriös Tabelle mit errechneten Lebenszeiten von tausenden von Jahren auszugeben, ohne den Hinweis das die Spezifikationen wie die MTBF und die UBER nur währen der geplanten Nutzungsdauer gelten, die beträgt üblicherweise 5 Jahre und damit sind alle Wert über 5 Jahren sowieso rein theoretischer Natur.
 
Zurück
Oben