News Seagate: Erste 12-Terabyte-HDDs stehen vor Evaluierung

Schön, dann kommen wohl nach und nach alle neuen Platten mit großer Kapazität mit Helium. Mal sehen, ob auch die günsigen HDDs irgendwann mit Helium kommen...
 
So eine 12TB HDD als Privatperson werden sich die wenigsten kaufen wegen dem Ausfallfaktor. Ehe ein Kauf von 4x4TB oder 4x3TB für seine wichtigen Daten wie z.b VHS Aufnahmen, welche jetzt digital gesichert sind.

@Koto
ein USB Stick reicht bei einem geordnetem Archivsystem. Die ganze Musiksammlung und der Rest kann auf dem Server liegen ;)
 
Limit schrieb:
Angedacht sind diese aber eher als Nachfolger für CD/DVD/BD.
Ob es da in Zeiten von schnellem Internet und Online Streaming noch so eine Nachfrage geben wird, dass es sich lohnt dafür Nachfolger zu bringen? Ich habe ewig keine solche Scheibe mehr angefasst.

Limit schrieb:
Für jeden, der nicht unbegrenzt Kapital zur Verfügung hat ist das allerdings ein KO-Kriterium.
Eben und der Preis ist der Punkt um den es sich dreht, Microsemi die PMC-Sierra übernommen haben, hat gerade einen Enterprise NVMe SSD Controller vorgestellt der bis zu 20TB Speicherplatz realisiert werden können, nur wird so eine SSD eben nicht billig und niemand wird solche SSD dort einsetzen, wo deren Leistung den Preis nicht rechtfertigt.

HDDs überleben wegen deren günstiger Preise pro TB und die werden die SSDs nicht so bald und ich vermute sogar nie, einholen, denn:
Limit schrieb:
Alle bisherigen Methoden um die Datendichte zu erhöhen und die Kosten zu senken sind bei Flashspeicher bereits stark ausgereizt. Shrinks und TLC/QLC gehen auf die Geschwindigkeit und/oder Haltbarkeit. Einzig bei der Anzahl der Lagen ist noch ein gewisser Spielraum,.
Eben und auch bei den Layern wird derzeit das Limit bei 128 vermutet, also etwa Doppelt so viel wie schon angekündigte Produkte heute haben. Nur kostet jeder Layer Geld, Samsung aktuelles V-NAND mit 48 Layer soll trotz etwa doppelter Datendichte im Vergleich zu planaren 16nm NANDs sogar teurer zu fertigen sein, also sollte man bei Verdoppelung der Anzahl der Layer keine Halbierung der Preis pro GB erwarten.

Kleinere Zellen und Zellabstände verschlechtern die technischen Eigenschaften und stehen mehr Bits pro Zelle im Weg, Potential für so große Preissenkungen wie in der Vergangenheit gibt es also nicht mehr und wenn sich im Ganzen die Preise von den aktuellen etwa 0,20USD/GB noch einmal halbieren, dürfte das schon eine tolle Leistung sein.
Limit schrieb:
Dem möchte ich nicht grundsätzlich widersprechen, allerdings bedarf es nicht zwingend kleinerer Zellgrößen um die Kosten/TB zu senken, denn einige der Konkurrenztechnologien haben zwar nur vergleichbare oder sogar größere Zellen, erlauben dabei aber sehr viel mehr Schreibzyklen (teils Faktor 10^10 mehr). Dadurch besteht bei diesen das Potential sie noch sehr viel stärker shrinken zu können und dadurch höhere Datendichten zu erreichen.
Erstens gab es mal irgendwo ein Zitat einer Studie nach der rund 2/3 der SSD im realen Unternehmenseinsatz nicht mehr als 0,1 (oder war es 0,3) DWPD machen, es gibt eben nicht so viele heiße Daten die sich ständig ändern und gerade wenn man an vielen Stellen SSDs einsetzt, werden viele davon auch mit Cold Data befüllt sein, die sich kaum ändern. Dann würde ich auch nicht unbedingt unterstellen das man Technologien wie 3D XPoint die eine sehr hohe Zyklenfestigkeit haben, nun unbedingt billiger machen kann indem man da mit weniger zufrieden ist. Vielleicht gibt es auch dort mindere Qualitätsstufen die weniger Haltbarkeit haben und daher dann günstiger angeboten werden, aber ob die Technologie es erlaubt die Datendichte zu steigern und dabei dann weniger Zyklenfestigkeit raus kommt, ähnlich wie bei NAND, muss nicht zwangsweise so sein.
Limit schrieb:
Faktor 100 bezieht sich auf die physikalisch mögliche Datendichte.
Seagate geht wohl realistischer von einem Faktor 5 aus und dann wäre es Zeit für die nächste Technologie: HDMR.
Limit schrieb:
Wie so oft wird es immer aufwendiger und teurer, je näher man sich dieser Grenze nähert, so dass häufig vorher bereits der Punkt kommt, an dem es sich nicht mehr lohnt.
So ist es und jede Technologie hat Grenzen, auch die NAND Technologie.
aklaa schrieb:
So eine 12TB HDD als Privatperson werden sich die wenigsten kaufen wegen dem Ausfallfaktor.
Dagegen helfen Backups! Außerdem werden die wenigstens solch große HDDs kaufen, wenn sie mit nur einer oder zwei auskommen, die sind vor allem für Leute interessant die durch deren Einsatz eben entweder eine bestimmte Storagegröße mit weniger HDDs oder eben mit der vorhandenen HW mehr Kapazität realisieren können ohne Kosten für Erweiterungen zu haben die nötig sind um die zusätzlichen HDDs unterzubringen. Es kostet eben auch jeder Platz wo eine Platte betrieben wird Geld, sobald man die vorhandenen Einbauplätze und Ports belegt hat.
 
So ist es und jede Technologie hat Grenzen, auch die NAND Technologie.

Ja aber diese muss ja nicht das ende sein. Wobei die Frage ist bei wie vielen TB man ist wenn die Entwicklung am ende ist.

Zwar ist man zunächst auf 256 Gigabit pro Speicherchip beschränkt, doch mit Quad-Level-Cell (QLC; 4 Bit pro Speicherzelle) plant man künftig bis zu 1 Terabit.

Der nächste Meilenstein in Toshibas BiCS-Roadmap sei die Entwicklung von 3D-NAND mit der doppelten Kapaztät von 512 Gigabit, wobei ebenfalls 64 Lagen verwendet würden.

Was wäre dann die Kapazität. Und ob das, das ende ist. Steht wohl in den Sternen. Irgendwann klar aber da werden auch noch andere Techniken kommen. Da mache ich mir keine Sorgen.
 
Nein, wenn man wollte könnte man sehr, sehr viele TB in einer SSD realisieren, die Frage ist bei viel wenige ct/GB man dann angekommen ist. Wie viele GBit ein NAND Die hat, ist auch nur im Zusammenhang mit dessen Größe und Fertigungskosten interessant, wenn man 1Tbit auf ein Die packt aber es auch viermal so viel kostet wird eines mit 256Gbit, dann hat man bzgl. des Preises ja nichts gewonnen.
 
Holt schrieb:
Ob es da in Zeiten von schnellem Internet und Online Streaming noch so eine Nachfrage geben wird, dass es sich lohnt dafür Nachfolger zu bringen? Ich habe ewig keine solche Scheibe mehr angefasst.
Da ist schon was dran, aber andererseits wäre ein Medium mit mehreren TB Speicherkapazität, höherer Geschwindigkeit als HDDs, jahrzentelanger Lagermöglichkeit und Kosten im Cent-Bereich durchaus interessant für ein paar Anwendungengebiete. Die aktuellen Prototypen sind allerdings noch sehr weit davon entfernt. Man muss also einfach abwarten und schauen, wie sich die Sache entwickelt.

Holt schrieb:
Eben und auch bei den Layern wird derzeit das Limit bei 128 vermutet, also etwa Doppelt so viel wie schon angekündigte Produkte heute haben.
128 Lagen gilt als sicher, 256, 512 und sogar 1024 Lagen gelten als technisch machbar, aber wie du bereits ausgeführt hast, wird das ganze immer teurer, so dass man Flash-Speicher mit 256 Lagen vielleicht noch sehen wird, mehr ist aber sehr unwahrscheinlich.

Holt schrieb:
Seagate geht wohl realistischer von einem Faktor 5 aus und dann wäre es Zeit für die nächste Technologie: HDMR.
Faktor 5 ist das, was für 2020 geplant ist und nicht das Limit was mit HAMR-Technologie generell realisiert werden kann. Der Grund, warum man das Jahr 2020 nimmt ist, dass bis dahin Bit-Patterned-Media verfügbar sein sollen, die etwas höhere Datendichten erlauben ohne, dass man einen Laser braucht. Ein paar Jahre später sollen dann beide Technologien zusammen verwendet werden (HDMR) um noch höhere Datendichten zu erreichen. Sollten sich BPM aber verzögern, wird man auch mit HAMR alleine noch sehr viel höhere Datendichten erreichen können, ähnlich wie das bei PMR der Fall war, die eigentlich schon ab 2012 abgelöst werden sollte. Seitdem wurde die Kapazität von damals max. 4TB (3.5") auch ohne HAMR auf mittlerweile 10 bzw. 12 TB erhöht.


Koto schrieb:
Was wäre dann die Kapazität. Und ob das, das ende ist. Steht wohl in den Sternen.
Du solltest dazu sagen, dass Toshiba diese QLC-Flashzellen nur für Archivmedien verwenden will, da Zyklenfestigkeit viel zu gering für den normalen Gebrauch ist.
 
128 Lagen gilt als sicher, 256, 512 und sogar 1024 Lagen gelten als technisch machbar, aber wie du bereits ausgeführt hast, wird das ganze immer teurer, so dass man Flash-Speicher mit 256 Lagen vielleicht noch sehen wird, mehr ist aber sehr unwahrscheinlich.

Wieso? Warum sollten Preise für Lagen für immer unnachgiebig sein? Ich mein mit der Massenfertigung und Produktivität und Technische Entwicklung warum sollten Preise bzw Kosten halten?

Das wäre ja wie wenn man Damals gesagt hätte. Die Preise für DVD Rohlinge werden nie Sinken Fertigungskosten sind fix. Oder OLDs wird nie billiger usw.

Du solltest dazu sagen, dass Toshiba diese QLC-Flashzellen nur für Archivmedien verwenden will, da Zyklenfestigkeit viel zu gering für den normalen Gebrauch ist.

Ob der Drops schon gelutsch ist. Schauen wir mal. Oder was danach kommt oder Parallel.

Ich will nicht mal sagen das die Technik nicht mal ans ende kommt. Wo wir dann aber sind. Was es kostet. Was danach kommt. Und ob. Das steht doch komplett in den Sternen.

Das wäre ja das erste mal das mit der Zeit, bei einer eine Technik. Der Preis ewig stabil ist. Das gabs ja noch nie? Vor allem wenn etwas zum Massenmedium wird.

Und das ist für mich keine frage ob, sondern allein wann bei SSDs.
 
Die Layer kosten Geld, weil die Maschinen und Masken die man dazu braucht eben auch Geld kosten und wenn man viele Bearbeitungsschritte machen muss, dann dauert es länger bis ein Wafer fertig ist und man braucht mehr Maschinen, also auch mehr Raum um diese aufzustellen, um die gleiche Anzahl an Wafern zu fertigen oder man bekommt eben auf der gleichen Anzahl Maschinen weniger Wafer gefertigt. Außerdem gibt es bei aller Präzision immer noch bei jedem Bearbeitungsschritt das Risiko das ein Fehler passiert und dann ist der Wafer Schrott.

Aber selbst wenn das nicht passiert, die Reinräume sind nicht unendlich rein, eine minimale Verunreinigung der Luft ist auch da nicht zu verhindern und wenn nun z.B. pro 1000mm² pro Stunde ein Staubkorn auf einen Wafer fällt und dort an der Stelle einen Schaden anrichtet, so ist es nur eines pro 2000mm² wenn die Bearbeitung nur eine halbe Stunden dauert. Müssen aber sehr viele Layer gefertigt werden, werden aus der halben Stunden eben viele Stunden und dann wäre bei 10 Stunden Bearbeitungsdauer pro 100mm² mit einer wegen der Verschmutzung schadhaften Stelle zu rechnen und daher mit weniger Ausbeute. Es hat eben alles Grenzen und manche unerwünschten Effekte kann man nicht aus der Welt schaffen, so schafft man es eben nicht immer wieder Tausende höchstpräziser Bearbeitungsschritte perfekt ablaufen zu lassen oder Verschmutzungen komplett zu verhindern. Selbst wenn man es könnte, wäre da noch die Frage wie wirtschaftlich dies wäre und daher ist es eben immer eine Sache was vielleicht technisch machbar wäre und eine andere was wirtschaftlich sinnvoll machbar ist.

Technisch wäre es vielleicht möglich auch NANDs mit 1024 Layern und der Größe des ganzen Wafers zu fertigen, aber was nutzt das, wenn man dann mit viel Glück einmal im Jahr einen bekommt der wirklich funktioniert und der Rest der Wafer nur Müll ist?
 
Oh Mann jetzt laß doch das ganze Gerede über Reinraum... Da kommen unangenehme Erinnerungen hoch, die ich schon erfolgreich verdrängt habe. Dieses ganze rein und raus in die Klamotten-Pariser, und die blöden tuntigen Hauben. Wenigstens mußten wir kein Mundschutz tragen. Und als dann ein neuer Beauftragter für die Reinraum-Überwachung gesucht wurde, wer machte nicht schnell genug einen Schritt nach hinten? Dreimal darfst Du raten... Wobei so eine Reinraum-Messung dann so ähnlich ablief wie AU in der Praxis. Man hat solange eine unbenützte Ecke im Raum abgesucht mit dem Meßgerät, bis die vorgegebenen Werte halt ausnahmsweise nicht überschritten wurden.:evillol:

Eines der Jobs, die ich nie wieder machen wollen würde: Reinraum.
 
Koto schrieb:
Wieso? Warum sollten Preise für Lagen für immer unnachgiebig sein? Ich mein mit der Massenfertigung und Produktivität und Technische Entwicklung warum sollten Preise bzw Kosten halten?
Die Aussagen bzgl. der Anzahl der Layer kommt vom Herstellerverband und ich nehme stark an, dass sie Skaleneffekte dabei schon berücksichtigt haben und es sich dennoch nicht lohnen würde. Niemand schließt aus, dass mehr Layer nicht vielleicht doch noch kommen. Dazu müsste aber irgendjemandem etwas Geniales einfallen, denn die Technologien, die es momentan gibt bzw. die zur Zeit in der Entwicklung sind, sind in der Prognose bereits enthalten.

Koto schrieb:
Das wäre ja wie wenn man Damals gesagt hätte. Die Preise für DVD Rohlinge werden nie Sinken Fertigungskosten sind fix.
Die frühen Rohlingen setzten auf metallische Farbstoffe, die späteren auf wesentlich empfindlichere und weniger haltbare organische Farbstoffe. Zusätzlich wurden die Stamperlaufzeiten deutlich erhöht und bei der Qualitätskontrolle gespart (Randversiegelung), was die Qualität weiter verschlechterte. Schließlich wurde dann die Produktion von Europa/USA/Japan nach Indien/China/Vietnam verlagert, da dort die Lohn- und Energiekosten sowie Umweltauflagen deutlich niedriger sind.
Bei SSDs wird das im Prinzip ja auch gemacht, MLC/TLC/QLC sowie Shrinks verschlechtern allesamt die Haltbarkeit, aber sind auch billiger. Aber genau wie bei den Rohlingen ist irgendwann ein Punkt erreicht, an dem die Kunden keine weitere Verschlechterung der Haltbarkeit akzeptieren, selbst wenn die Preise dadurch noch günstiger würden.
 
Durch MLC/TLC-NAND wird aber nicht nur der Preis gesenkt, sondern gleichzeitig die Kapazität erhöht. Der Nachteil der geringeren Haltbarkeit ist zu 99,9 % irrelevant, selbst hier im Forum wird es wahrscheinlich kaum einen geben, der eine moderne SSD kaputt schreiben könnte - und wenn doch, dann hat sich die SSD ihren Ruhestand aber verdammt nochmal verdient. Es ist schon krass, was von den Herstellern verlangt wird...

Bald gibt es ja superschnellen SLC Speicher, dann aber auch erstmal nicht für Endverbraucher und zu krassen Preisen.
 
Meinst Du statt SLC Speicher nicht eher 3D XPoint?
 
Bei den Konkurrenzprodukten wird doch auch nur Speicher mit 1Bit pro Zelle verwendet, oder nicht?
 
Welche Konkurrenzprodukte meinst Du? SLC NAND ist selbst bei Enterprise SSDs so gut wie ausgestorben und wie viele Bit pro "Zelle" bei 3D XPoint gespeichert werden, dazu ist mir nichts bekannt, vermutlich aber nur eines.
 
Zurück
Oben