drago-museweni schrieb:
aber man hofft das die kleineren dann günster werden im laufe der Zeit
Das sind hier SSDs für eine Anwendung für die es bisher keine SSD gab, nämlich für Cool und Cold Data. Die Zyklenfestigkeit und Schreibperformance sind bei QLC NAND eben noch mal schlechter als bei TLC, aber das ist relativ egal, zumal wenn man so viele NANDs verbaut bekommt man wenigstens bei der Schreibperformance der SSD dann über die Parallelität wieder gute Werte hin.
Das NAND ist aber nicht wirklich für kleine Consumer SSDs geeignet, die Dies werden groß sein und die Schreibperformance bei den wenigen Dies die man für eine SSDs mit einigen 100GB braucht dann entsprechend schwach. dann hat man nur 150 P/E Zyklen, was für eine SSD als Systemlaufwerk doch schon sehr wenig ist, aber das wird sicher nicht alle SSD Anbieter davon abhalten es nicht doch dafür zu nehmen. Nur wie gut diese SSDs dann noch im Alltag sind, wird man sehen müssen, ebenso ob es überhaupt günstige Controller gehen wird, die mit solchen NANDs umgehen können. Wenn nicht, werden die kleinen SSDs preislich überhaupt nicht von der Entwicklung profitieren.
Dario schrieb:
Was glaubst du, daß 2019 allein nur eine 100 TB SSD kosten wird?
Also ich fürchte wir können schon froh sein, wenn sie die Preise pro GB gegenüber heute dann halbiert haben, zumindest für die billigsten NANDs. Wie diese dann genau aussehen und was für Eigenschaften sie haben, wird man sehen müssen, aber die dürften eher noch schlechter als bei den derzeitig billigsten NANDs, also planaren 15/16nm TLC NANDs sein. Bei besseren NANDs wie Samsungs V-NANDs ist das Potential für Kostensenkungen wohl geringer.
Dario schrieb:
Wieviele davon passen in ein Rack und wie klein wird dagegen wohl die Summe der Nebenkosten sein?
SSDs mit solchen gewaltigen Kapazitäten werden eine neuen Anwendungsbereich für SSDs erschließen und da sie pro TB eben immer noch einiges teurer als HDDs sein werden, müssen die Kapazitäten sehr hoch sein um die ToC bei großen Storages von sehr vielen Peta- bis Exabytes eben durch die Eingesparte Infrastruktur zu senken. Dies wird umso eher erreicht, je mehr Kapazität eine SSD hat, da könnte die Größe des 3.5" Gehäuses schnell das Limit werden, andererseits ist nichts perfekt und auch beim Binnen von NAND Dies passieren Fehler. Wenn nun einer von 1000 Dies doch schlechter ist als die Prüfung ergeben hat, so habe ich bei einer SSD mit 10 davon eine Wahrscheinlichkeit von 1% so ein Die darin zu haben und damit einen baldigen Ausfall zu erleben. Verbaue ich 100 der Dies in einer SSDs liegt die Wahrscheinlichkeit schon bei 10% und wenn ich sogar 1000 Dies in eine SSD packen, steckt statisch in jeder so ein faules Ei. Also muss ich entweder mehr Redundanz intern verwenden um damit umgehen zu können oder die Prozesse so verbessern, dass der Faktor statt 1:1000 eben bei 1:100.000 landet um wieder auf 1% zu kommen, nur kostet Beides aber Geld.
Es ist eben wie immer, wenn man die bewährten Dimensionen verlässt, stößt man auf ganz neue Probleme und muss Lösungen dafür finden. Backe mal Deinen Lieblingskuchen, dafür brauchst Du vielleicht ein Pfund Mehl, zwei Eier.... nun nimm das mal 10 oder mal Hundert, dann ist das erste Problem schon mal, wo und wie Du den Teig anrühren willst, geht das in Badewanne oder sollte man einen Betonmischer nehmen und in welches Form willst Du den dann backen und in welche Ofen passt die dann, wie lange müsste der Kuchen dann überhaupt gebacken werden, etc.
Die sind eben für die großen Jungs wie Google und Co. die gewaltige Storagekapazitäten brauchen und dabei ganz andere Lösungen für Probleme brauchen die ein Heimanwender gar nicht hat, weil der selbst wenn er einige Dutzend TB speichert, doch noch in viel bescheideneren Dimensionen unterwegs ist.