Wattwanderer schrieb:
Mit einer doch relativ aufwendiger Technik gerade einmal 2TB mehr reinbekommen.
Helium ist eben nötig um noch den 7. Platter ins Gehäuse zu bringen, mehr bringt es aber eben auch nicht.
Wattwanderer schrieb:
Hatte gehofft die Technik würde mindestens für eine Verdoppelung reichen. Ob HAMR auch nicht viel weiter bringt?
Dazu
gibt es bei Anandtech diesen Artikel und dort wird für 2016 mit HAMR gerechnet und für die nächsten 20 Jahre mit Steigerungen der Datendichte um noch mal den Faktor 10 verglichen zu heute:
Wattwanderer schrieb:
So muss sich der Preis der Flashspeicher "nur" dreimal halbieren, dann sind sie auch noch billiger als HDD. Ob das viel länger als 10 Jahre dauert?
Innerhalb des nächsten Jahres wird bei NAND nur mit 25% Preisverfall gerechnet und die Kurve dürfte immer flacher werden, während man bei den HDD in 10 Jahren dann auch noch mal eine Steigerung um bis zu Faktor 5 bei der Kapazität innerhalb von 10 Jahren erreichen könnte, wobei dort weiterhin die Kosten dann sicher weit weniger stark steigen werden wie die Kapazitäten.
chithanh schrieb:
Das Problem bei Flash ist dass die elektrische Ladung mit der Zeit verloren geht.
Ja. aber dafür haben die SSD Controller ja Technologien der Fehlerkorrektur um das auszugleichen und diese werden immer ausgereifte wie LDPC zeigt. Wie ich schon geschrieben habe, hängt das von den jeweiligen NANDs ab, davon wie sehr diese schon verschließen sind und vor allem bei welcher Temperatur diese genutzt und gelagert werden.
Außerdem sind SSDs teuer und wer will sich schon den teuren Speicherplatz auf einer SSDs in die Schublade lagen?
chithanh schrieb:
Siehe auch den 30C3-Vortrag zum Thema Flash-Mikrokontroller:
Was hat das damit zu tun? Außerdem sind HDDs auch nicht so genau und auch dort kippen immer wieder Bits, weshalb die hinter jedem Sektor eine ECC haben um das zu korrigieren und die Hersteller selbst angeben, dass dies bei den 3.5" Platten je nach Modell alle 10^14 oder 10^15 gelesenen Bits (etwa 12TB bzw. 120TB) auch mal nicht mehr klappen wird, genau das sagt nämlich die UBER aus. Bei SSDs ist diese UBER im Grunde nicht bestimmbar, weil die im Neuzustand fast gar keine unkorrigierbaren Fehler haben und diese erst im Alter auftreten, wenn sie an der Verschleißgrenze sind (also wenn die seriös spezifizierten P/E Zyklen dann erreicht sind), dann aber auch umso mehr werden.
chithanh schrieb:
Zur Langzeitaufbewahrung von Daten sind Festplatten aber nur begrenzt besser als SSDs.
Aber auch nur sehr eingeschränkt, ich würde eher empfehlen die Daten wie von Herdware aufzubewahren.
yetisports schrieb:
Die IronWolf-Platten sind ja für NAS-Geräte mit 1-8 Laufwerksschächte ausgelegt. Kann man auch 10-12 Platten laufen lassen oder ist davon komplett abzuraten?
Das Problem sind die Vibrationen und bei mehr HDDs im Gehäuse werden diese eben auch stärker ausfallen. In der
NAS Drive Selection Guide von Seagate eine schöne Übersicht:
Die ist nicht mehr ganz aktuell, die NAS ist inzwischen für bis zu 8 ausgelegt und Enterprise NAS sind dort gar nicht enthalten, aber es zeigt eben doch gut, dass für mehr HDDs im einem Gehäuse auch aufwendigere Lösungen nötig sind um mit den Vibrationen umgehen zu können.
yetisports schrieb:
Die Platten sind ja ohnehin schon deutlich besser geeignet als meine Seagate Desktop Platten.
Das auf jeden Fall, wobei diese neue 10 TB Barracuda Pro eben von den restlichen Daten wie eine Enterprise NAS aussieht und daher vielleicht auch die gleichen Lösungen zum Umgang (nicht zum Verhindern wie es im Artikel steht) mit Vibrationen hat, aber scheinbar werden die Enterprise NAS künftig dann als IronWolf Pro bezeichnet werden.
yetisports schrieb:
Hab mir die Frage selbst beantwortet, scheint für 1-16 Laufwerke geeignet zu sein (laut Grafik), obwohl im Text auch 1-8 bay zu finden ist:
Damit sowas aus so eine Grafik abzuleiten, wäre ich vorsichtig, die könnte auch die IronWolf Pro zeigen, man kann ja nicht lesen was da steht und außerdem sind solche Artikel auch gerne voller Fehler. So steht bei
Storagereview im Review der Barracuda Pro 10TB einmal "The drive has decent endurance as well for a desktop HDD at 300TB per year or 820GB per day workload rate with 24x7 usage", dann aber bei den Spezifikationen "◦Power-On hours per year: 2400", was falsch ist und schon dem Text darüber widerspricht und "◦Nonrecoverable read errors per bits: 1 per 10^14" stimmt auch nicht, denn
schon im Datenblatt steht "Nonrecoverable Read Errors per Bits Read, Max 1 per 10E15" (und auch "Power-On Hours (per year) 8760").
NoD.sunrise schrieb:
Warum sollte die Platte bei einer anderen Anzahl nicht funktionieren? Das ist doch nur ne grobe Einordnung des Herstellers um eben die verschiedenen Klassen gegeneinander abzugrenzen.
Das hat, wie Du etwas weiter oben sehen kannst, auch technische Gründe, denn nicht alle Platten haben die gleichen aufwendigen und damit teuren Technologien um mit den Vibrationen umgehen zu können, die umso stärker sind je mehr HDDs in einem Gehäuse stecken. Die Unterschiede immer nur als Marketing abzutun, ist ziemlich dumm, denn die Unterschiede sind den unterschiedlichen Kostenoptimierungen geschuldet. Man kann HDDs eben billiger bauen, wenn man sie an bestimmten Stellen einfacher gestaltet und dies geht eben auf Kosten der Eigenschaften, schränkt also deren Verwendungsmöglichkeiten ein oder vermindert die Lebensdauer, wenn man sie dann überfordert.
Es will eben nicht jeder das Geld für eine Enterprise Nearline HDD wie die
Enterprise Capacity 10TB die ab 581€ kostet, ausgeben und es braucht auch nicht jeder die ganze Eigenschaften wie den Workload von 550TB/Jahr und die aufwendigste Technologie bzgl. Vibrationsschutz, die diese mitbringt. Also gibt es eben unterschiedliche Klassen für die unterschiedliche Anforderungen die dafür typischerweise nötigen Eigenschaften haben, wo an andere Stellen aber gespart wurde um sie gegenüber den Enterprise Nearline Platten, die von allem die besten Eigenschaften mitbringen aber auch am teuersten sind, günstiger anbieten zu können.
NoD.sunrise schrieb:
Für die Platte machts keinen relevanten Unterschied ob sie jetzt mit 8 oder mit 10 Platten zusammen läuft
Die Platte weiß zwar nicht wie viele andere Platten noch im Gehäuse sind, sie spürt aber deren Vibrationen und natürlich kann es bei 10 Platten sogar weniger Vibrationen geben als 8, aber normalerweise sind es eben nicht so und wenn der Hersteller die für bis zu 8 freigibt, dann wird er natürlich auch noch einen gewissen Sicherheitspuffer eingeplant haben, nur weiß man dann trotzdem nicht ob dieser bei der konkreten Konfiguration mit den 10 Platten noch ausreicht.
Love Guru schrieb:
Wo hast du die info gefunden, dass die drei seagates alle mit PMR sind?
Steht in den Produkt Manuals und man kann es aus dem Verhältnis der Track density zur Areal density auch ablesen, denn das ist bei SMR Platten höher. Die Bareracuda Pro 10TB hat 867Gb/in² Areal density bei 386KTPI Track density und die Archive v2 8TB hat mit 848Gb/in² sogar eine etwas geringere Datendichte, aber mit 435KTPI eine deutlich größere Spurdichte.
trollseidank schrieb:
Die HDD Hersteller geben sogar zeiträume von nur 30-90 Tagen an!
Zum Thema der Lagerung steht
im Benutzerhandbuch der ST10000DM0004 (Barracuda Pro 10TB):
Also länger als ein Jahr sind selbst bei 25°% und maximal 40% Luftfeuchtigkeit nicht zu empfehlen, 60 Tage sollte sie aber auch sonst mindestens durchhalten.
trollseidank schrieb:
Ich halte fest. Die HDD Technologie pfeift mittlerweile als dem letzten loch.
Aus dem Loch pfeifen würde ich es nicht nennen, aber die gesteigerten Datendichten haben eben auch technisch ihren Preis und so wie bei NAND mit kleinen Strukturbreiten die technischen Eigenschaften und vor allem die Robustheit gelitten haben und nur der Preis geringer ist, haben auch HDDs mit den heutigen Datendichten mit ganz anderen Problemen zu kämpfen als vor 10 Jahren oder noch viel ältere Modelle, die im Vergleich wie die Grobmechanik einer alten Windmühle zur Präzision einer Schweizer Armbanduhr wirken.
trollseidank schrieb:
die unbekannte Strukturbreit bei der 2. Gen der beliebten 850evo
Dazu gibt es
hier eine Untersuchung und demnach sind die Zellen nicht wirklich kleiner geworden und immer noch weitaus größer als bei planaren NANDs.
2,57Gb/mm² für 48 Lagen, sind 0,0535Gb/mm² pro Layer und damit etwa Faktor 24 weniger als bei den Toshibas planaren 15nm NAND. Die Größen und Abstände der Zellen ist der entscheidende Punkt wenn es um die Eigenschaften von NANDs geht. Außerdem besteht auch nicht das ganze Die aus NAND Zellen, die machen nur einen Teil aus: "The NAND memory array area increased from 48.9 mm² to 68.7 mm² which is 40.3% larger." Die Fläche die die Zellen belegen ist also um 40,3% gestiegen und dazu kommen 50% mehr Layer (48 statt 32), was also zusammen 1,403*1,5 = 2,1045 macht, aber die Kapazität pro Die hat sich nur verdoppelt, womit die Datendichte der eigentlichen Zellen sogar leicht gefallen ist, die Zellen sind also entweder größer oder haben mehr Abstand. Der Shrink von einem 40nm Prozess auf vermutlich 21nm hat bei Samsungs V-NAND der 3. Generation eben nicht zu einer Verkleinerung der Zellen und damit einer Verschlechterung der Eigenschaften geführt wie es bei planaren NANDs üblich ist, sondern dazu die andere Bereiche des Chips zu verkleinern und damit den Anteil den die Zellen belegen zu vergrößern. Die alten Dies der zweiten Generation waren 84.3 mm² groß, davon waren 48,9mm², also nur 58% wirklich mit NAND Zellen belegt. Die der dritten Generation sind 99.8 mm² groß und nutzen davon 68,7mm² für die Speicherzellen, also 68,8% der Fläche.
Das die kleinere Fertigungsstruktur eben nicht auf Kosten der Eigenschaften ging, kann man anhand der Schreibnperformance und Leistungsaufnahme sehen, denn je kleiner die Zellen sind, umso aufwendiger wird der Schreibvorgang und umso mehr Leistung wird dabei auch aufgenommen.
trollseidank schrieb:
Überall wird klammheimlich der rotstift angesetzt.
Es soll doch immer billiger werden, genau das wird von den Kunden verlangt und von der Industrie geliefert. Das dies nicht immer mit besseren Eigenschaften einher geht, sollte auch klar sein, man stößt halt an immer mehr Grenzen, wenn billiger wird Speicher- und allgemein Halbleitertechnologie nur durch Verkleinerung der Strukturen, also Steigerung der Datendichte.