resurrection schrieb:
Festplatten sind halt tot ;-)
Nein, noch lange nicht, da die SSDs pro TB viel teurer sind und dies noch lange und vermutlich für immer auch bleiben werden. Ich sehe nämlich nicht welches Kaninchen die NAND Hersteller noch aus dem Hut zaubern könnten, um die Preise so massiv zu senken um die HDDs einzuholen. Man ist bei planaren NANDs bei so 14 bis 16nm an die Grenze der Größen und Abstände der Zellen gekommen, nun bei 3D NAND hat man da erstmal wieder deutlich zugelegt und kann diese wieder schrumpfen, bekommt dann aber wieder die Nachteile die man schon bei planaren NANDs unter 20nm deutlich sehen konnte und kann dann auch nicht mehr Bits pro Zelle speichern, wie es derzeit mit QLC NAND gerade gemacht wird. Hier muss man also einen Kompromiss zwischen der Anzahl der Bits pro Zelle und den Größen und Abständen der Zellen eingehen.
Dann sehen wir gerade ein Rennen um die meisten Layer, aber jeder Layer erfordert zusätzliche Bearbeitungsschritte, die kosten Geld und erhöhen das Risiko durch einen Fehler den Wafer zu verlieren. Man erwartete schon vor Jahren das die wirtschaftliche Grenze bei so 128 Layern liegen würde. Nun ist schon von 500 Layern die Rede, aber da muss man genau hinsehen, denn genau wie bei einigen (allen?) 96 Layer NANDs, sind diese keine nativen Layer, sondern gestapelte Dies, also zwei Dies mit 48 Layern die übereinander gelegt werden und womit man dann allenfalls durch die gemeinsame Logik Geld spart, denn wenn man mehrere Dies stapelt, bekommt man eben am Ende weniger Chips von einem Wafer.
Der jüngste Preisrutsch bei NAND ging vor allem auf Kosten der Margen der Hersteller und zum Teil durch Einparungen aufgrund des Wechseln auf 3D NAND, welches aber eben auch erst ab einer bestimmten Anzahl von Layern günstiger zu fertigen ist als planares NAND. Bei Samsung soll die Schwelle bei 64 Layern gelegen haben, bei anderen ggf. geringer, aber außer Samsung hat sonst kein Hersteller 3D NAND in Großserie gefertigt, bevor er diese Schwelle erreicht hatte.
Dan die R&D Kosten der NAND Hersteller auch nur bei weniger als 10% des Umsatzes lagen, lässt sich auch hier nicht sehr viel einsparen, bei Verdoppelung des Fertigungskapazität würden sie bei gleichbleibenden R&D Aufwendungen dann auf 5% fallen, damit wären dann 5% Kostensenkung drin.
Wattwanderer schrieb:
während der Preisverfall bei SSDs so gut wie sicher scheint. Wenn die Fertigungsanlagen die in Korea und China hochgezogen sind wird man da auch etwas produzieren wollen.
In China ist es ja nicht unüblich das die Regierung die Hersteller subventioniert, wie man es bei der Solarbranche gesehen hat, aber wenn dies nicht erfolgt, dann werden die auch nicht so viel billiger fertigen können und selbst wenn sie sich die Kosten für R&D komplett sparen, macht dies eben nicht so viel aus wie nötig wäre um die Kosten pro TB von SSDs auf das Niveau von HDDs zu bekommen. Diese Lücke wird sich verringern, aber noch lange nicht und vermutlich nie schließen.
pakichaggi schrieb:
100 MB/s reichen locker für 4K Videostreaming und auch in Zukunft für höhere Bandbreiten. Das Netzwerk limitiert ja auch noch.
Für Dich vielleicht, aber es gibt auch andere Anwendung und da möchte man schon mehr Bandbreite haben. Außerdem ist Multi-Gigabit Ethernet auch bei Heimanwendern so langsam auf dem Vormarsch, es gibt auch immer mehr erschwingliche NAS die 10GbE bieten und nach so vielen Jahren mit Gigabit Ethernet, wird es ja auch langsam mal Zeit.
pakichaggi schrieb:
Jeder heute mir denkbare Einsatz einer HDD im privaten Rahmen
HDDs werden aber oft auch in Unternehmen eingesetzt, gerade auch die mit den größten Kapazitäten. Der private Rahmen ist also sicher nicht das an dem die HDD Hersteller sich orientieren.
pakichaggi schrieb:
Frage mich manchmal, ob man sich nicht besser auf die reine Kapazität konzentrieren sollte, meinetwegen auf Kosten der Leistung.
Die Leistung gibt es zum Teil umsonst, denn die seq. Transferraten steigen mit der Datendichte automatisch, da eben einfach mehr Daten unter den Köpfen vorbeikommen, wenn mehr Sektoren auf einer Spur Platz haben. Wenn man die Kapazität durch mehr Platter oder SMR steigert, dann gibt es natürlich keine besseren Transferraten, da es nicht mehr Sektoren pro Spur gibt, sondern nur insgesamt mehr Spuren. Die IOPS zu steigern ist aufwendiger, daher versucht es Seagate eben mit dem Multi Actuator, aber es soll ja auch Modelle ohne geben.
Übrigens schaffen die HDDs mit mehr Kapazität in den Benchmarks meist mehr IOPS, einfach weil diese nur über einen festen, recht kleinen Adressraum gebencht werden und dieser Adressraum bei Platten mit hoher Kapazität über wenige Spuren reicht und sich die Köpfe damit nicht so oft und weit bewegt werden müssen. Sinnvoller wäre es die IOPS immer über den ganzen Adressraum zu ermitteln.
Wattwanderer schrieb:
bis sie sich in die Nische für spezielle Anwendungsfälle verabschieden.
Die Anwendungsfälle für HDDs werden immer geringer, aber da der weltweite Speicherbedarf weltweit weiter massiv steigt, bei der Cloud stehen die Daten ja nicht in den Wolken, sondern eben auf den Storages in den Rechenzentren der Anbieter, dürfte der Bedarf an Kapazitäten die keine besonderen Anforderungen an die Performance stellen, weiter steigen und keine Nische sein.
andr_gin schrieb:
jedoch ist der Preisunterschied immer noch bei Faktor 5-6 und das obwohl die Flashpreise gerade sehr niedrig sind
Eben und die Lücke zu schließen, dürfte schwer werden bis auf absehbare Zeit unmöglich sein. Dazu müsste man einen Sprung bei der NAND Technologie machen, der bisher überhaupt nicht absehbar ist.
ZeXes schrieb:
Ein Traum für jede zukünftige Pornosammlung.
Dann pass mal auf das die Palme nicht bringt
werpu schrieb:
Das ist ein Synonym für den St. Nimmerleinstag
Shoryuken94 schrieb:
Davon ab sind die Speicher in einem großen Storage Durchlaufware und müssen regelmäßig ausgetaucht werden
Dies gilt für jede Hardware, die Hersteller legen diese in aller Regel (außer bei Long-Lifecycle Produkten wie eben z.B. für Industrial oder Automotiveanwendungen) nur auf eine Nutzungsdauer von 5 Jahren aus. Spätestens dann ist es meist auch wegen der Steigerungen der Leistung (bei HDDs eben vor allem Kapazität) und Effizienz meist unwirtschaftlich alte Hardware weiter zu nutzen.
cliscan schrieb:
Auch wenn SSDs billiger wären als HDDs würde ich schon der Datensicherheit wegen immer noch auf Festplatten setzen. Magnetplatten halten die Daten länger und zuverlässiger als Speicherzellen.
Nein, auch HDDs kann man nicht endlos lagern, die Mechanik und Schmierstoffen in den Platten halten auch nicht ewig.
Daher schreibt Seagate z.B. hier und auch in einigen anderen Product Manuals für die Lagerbarkeit:
Wenn also die Lagerbedingungen nicht eingehalten werde, sind 90 Tage und zwar in der ungeöffneten Originalverpackung, sonst bestenfalls 1 Jahr. Nach dem Öffnen sollten HDD nicht länger als 30 Tage stromlos sein:
Bei der neuen Barracuda Pro 10TB mit Heliumfüllung schreibt Seagate:
Also hier nur ein halbes Jahr in der ungeöffneten originalen Versandverpackung von Seagate und sonst 2 Monate, nur bei optimalen Bedingungen bis zu einem Jahr.
HGST schreibt für die die meisten Modelle wie z.B. hier für die Megascale:
Nach der JEDEC JESD218 müssen auch Client SSD bis sie ihre TBW erreicht haben, die Daten für 12 Monate bei 30°C Lagertemperatur halten. Bei geringeren Temperaturen (je nach Quelle pro 5°C oder 10°C weniger verdoppelt sich die Zeit) und wenn je neuwertiger die NANDs sind, umso länger halten die SSDs die Daten.
In beiden Fällen sind die Mindestanforderungen, die Zeit überschreiten bedeutet also nicht automatisch das die Daten weg sind oder die HDD kaputt ist, nur kann es eben passieren und gerade bei HDDs kann es dann auch recht bald zu Problemen bis hin zu Ausfällen kommen, was auch schon Leuten hier im Forum passiert ist.
HDDs oder SSDs einfach jahrelang im Schrank liegen zu lassen, ist also nicht zu empfehlen und keine geeignete Methode für die Langzeitarchivierung digitaler Daten!
Simon schrieb:
Ansonsten kann man viele Datenbestände heute mit Data-Reduction-Technologien problemlos zu annähernd gleichen Kosten wie auf HDD auch auf Flashspeichern ablegen.
Dies kann man aber erstens genauso mit HDDs machen und zweitens hängt es extrem von der Art der Daten ab, ob und wie weit diese noch mit solchen Technologien komprimierbar sind. Ein großer Teil der weltweit anfallenden Daten sind Mediendaten, schau nur welchen Zuwachs YouTube so hat und diese sind, sofern es keine Rohdaten mehr sind, nicht mehr weiter verlustfrei komprimierbar und solche Technologien können eigentlich nur verlustfreie Komprimierungen nutzen, da sie sonst die Daten selbst verändern (also deren Qualität verringern).
helionaut schrieb:
könnten sie doch gleich wieder 5,25" HDDs bauen?
Weil dies nichts als einen Rückschritt bringen würde. WinnieW2 hat es ja schon richtig geschrieben:
WinnieW2 schrieb:
Nö, die Stabilität der Mechanik, Massenträgheit und die erforderliche Präzision bei der Positionierung der Köpfe sprechen gegen neue Festplatten der Bauform 5,25".
Scheiben mit größerem Durchmesser würden stärker vibrieren.
Deswegen wurden die Forfaktoren eben auch immer kleiner, je höher die Datendichte und damit die Anforderung an die mechanische Präzision gestiegen ist.
Simon schrieb:
Google hat vor rund 2,5 Jahren mal ein Whitepaper veröffentlicht, dass man gerne "dickere" Platten mit mehr Magnetscheiben hätte.
Was auch Unsinn ist, denn die längere Achse würde nur zu größeren Ausschlägen bei den unvermeidbaren Vibrationen führen. Wäre es einfach machbar, hätten die HDD Hersteller da längst einen anderen Formfaktor mit mehr Bauhöhe eingeführt. Aber wie man
hier sieht, waren bei 5¼" die Datendichten bei denen mit voller Bauhöhe (FH) geringer als bei denen mit halber Bauhöhe (HH).
Wattwanderer schrieb:
Löschen sie da Inhalte oder warum sollte man sie herunterladen wollen statt zu streamen?
Bei jedem Video steht doch: "Video verfügbar bis" dabei, Du hast wohl noch nie die Mediathek des ZDF besucht.
[wege]mini schrieb:
die uralten festplatten laufen fast alle immer noch. manche mit unterirdischen raten von 8mb/s und weniger
So uralte Platten haben in der Tat viel länger als moderne Platten gehalten, die Technologie war damals aber auch viel einfacher und anspruchsloser.
werpu schrieb:
Festplatten fangen nach 3 Jahren zum Bitrotten an
So ein Quatsch, zumal HDDs hinter jedem Sektor eine ECC speichern und in dem Fall das die Daten nicht zur ECC passen und auch damit nicht mehr korrigierbar sind, dann keine falschen Daten, sondern einen Lesefehler ausgeben. Außer man konfiguriert sie anders, was bei den SAS Platten üblich ist, wenn diese auf 520/528 Byte pro Sektor formatiert werden, denn dann speichert der RAID Controller dort selbst eine ECC um die Daten selbst zu prüfen und sofort über die Redundanz wiederherstellen zu können, ohne dass die Platte wiederholte Leseversuche ausführen wird. Das macht man eben damit das Storage nicht so lange stillsteht. Eine andere Ausnahme sind die ATA Streamingbefehle für Echtzeitvideoaufzeichnungen, die jeweils einen eigenen Timeout mitbekommen und um keine Unterbrechung des Streams zu bekommen, die störender wäre als ein paar Pixelfehler im Bild, liefert die Platte dann ggf. auch nicht korrekte Daten zurück. Beides sind aber Ausnahmen die der normale Windows Nutzer nie erleben wird und wer so spezielle Hardware nutzt, der sollte schon wissen was er macht.