News Seagate Guardian Serie: Dreimal 10 TByte mit Helium-Füllung

chithanh schrieb:
Zur Langzeitaufbewahrung von Daten sind Festplatten aber nur begrenzt besser als SSDs. Da nimmt man besser für die Archivierung entwickelte Medien wie Blu-Ray oder Band.

Oder man nutzt ein RAID mit Redundanz (und natürlich zusätzlich Backups) und tauscht die Datenträger einfach nach und nach aus, wenn sie ans Ende ihrer Lebenszeit kommen. Bzw. lässt man die Daten insgesamt über die Jahre immer wieder von Datenträger zu Datenträger weiter wandern.

Das dürfte in den meisten Fällen für Privatanwender und kleinere Unternehmen praxistauglicher sein, mit zumindest zum Teil "lebenden" Datenbeständen. Vor allem ist es auch viel bequemer, als die Daten immer wieder aus einer Sammlung von Bändern und/oder Discs aus einem Regal heraus suchen zu müssen.
Man erspart sich außerdem auch das Aufbewahren von geeigneten Lesegeräten und die Sorge, ob die denn mit Computern in 20 oder 30 Jahren überhaupt noch verwendbar sind.
 
Die IronWolf-Platten sind ja für NAS-Geräte mit 1-8 Laufwerksschächte ausgelegt. Kann man auch 10-12 Platten laufen lassen oder ist davon komplett abzuraten? Die Platten sind ja ohnehin schon deutlich besser geeignet als meine Seagate Desktop Platten. Die Seagate Capacity 10TB ist mir da eben etwas zu teuer bzw habe ich auch keine riesigen Workloads.

EDIT:
Hab mir die Frage selbst beantwortet, scheint für 1-16 Laufwerke geeignet zu sein (laut Grafik), obwohl im Text auch 1-8 bay zu finden ist:
http://images.anandtech.com/doci/10496/ironwolf.png?_ga=1.210504471.326398377.1468567983

Quelle: http://www.anandtech.com/show/10496...s-10tb-hdd-portfolio-brings-helium-mainstream
 
Zuletzt bearbeitet:
NoD.sunrise schrieb:
Warum sollte die Platte bei einer anderen Anzahl nicht funktionieren? Das ist doch nur ne grobe Einordnung des Herstellers um eben die verschiedenen Klassen gegeneinander abzugrenzen.

Darum geht es ja nicht. Meine 12 Desktop-Platten gehen ja auch, sind aber aus noch ganz anderen Gründen nicht in einem (so großen) Verbund zu empfehlen.

Geht eher darum dass es interessant wäre was ein Fachmann von dieser Abgrenzung hält. Ob es bspw. wirklich nicht ratsam ist 10+ Platten zusammenzustecken, die für max. 8bay-Gehäuse ausgelegt sind.
 
Kannst du so pauschal ja nicht sagen. Für die Platte machts keinen relevanten Unterschied ob sie jetzt mit 8 oder mit 10 Platten zusammen läuft - viel relevanter wird die Frage sein mit welcher Last sie läuft, was die Anforderungen sind, wie wichtig die Garantie ist usw usf.
 
Wenn man schon am Füllstoff rumdoktert um die Umgebungsdichte der sich bewegenden Teile zu reduzieren, warum nimmt man dann nicht direkt ein Vakuum?
 
@Holt

Wo hast du die info gefunden, dass die drei seagates alle mit PMR sind?
 
LegeinEi schrieb:
warum nimmt man dann nicht direkt ein Vakuum?

Das wäre wahrscheinlich noch viel schwerer dauerhaft dicht zu halten, als die Helium-Füllung.
Durch das Helium gibt es keinen größeren Druckunterschied zwischen innen und außen. Da werden mit der Zeit immer nur einzelne Helium-Atome entwischen und/oder welche aus der umgebenden Luft eindringen. Aber ein (annäherndes) Vakuum würde sich wegen des großen Druckunterschiedes viel schneller durch unvermeidliche, mikroskopisch kleine Spalte mit Luft füllen.

Außerdem ist die Helium-Füllung wahrscheinlich auch einfach leichter herzustellen, als ein möglichst gutes Vakuum.
 
Love Guru schrieb:
@Holt

Wo hast du die info gefunden, dass die drei seagates alle mit PMR sind?

"One of the important aspects to note here is that only the 10TB drives are helium-based. All the drives being launched today are 7200 RPM drives and use traditional perpendicular magnetic recording (PMR) technology."

http://www.anandtech.com/show/10496...s-10tb-hdd-portfolio-brings-helium-mainstream
Ergänzung ()

NoD.sunrise schrieb:
Kannst du so pauschal ja nicht sagen. Für die Platte machts keinen relevanten Unterschied ob sie jetzt mit 8 oder mit 10 Platten zusammen läuft - viel relevanter wird die Frage sein mit welcher Last sie läuft, was die Anforderungen sind, wie wichtig die Garantie ist usw usf.

Die 180-300 TB / Jahr - je nach Modell - reichen mir auf jeden Fall. Da sind halt gerade meine jetzigen Desktop-Platten über ihrem Limit. 3 Jahre Garantie reichen mir eigentlich auch. Sonst blieben ja bei 10TB mit größerem Workload und mehr Garantie nur noch die Capacity und die HGST übrig.
 
Das wäre wahrscheinlich noch viel schwerer dauerhaft dicht zu halten, als die Helium-Füllung.
Durch das Helium gibt es keinen größeren Druckunterschied zwischen innen und außen.

Genau so ist es.
 
Das ein gasförmiges Medium in der Platte ist und kein Vakuum hängt damit zusammen, daß dadurch der Kopf nicht direkt auf der Platte aufsetzt, sondern auf einem "Luftkissen" oder "Heliumkissen" schwebt.
 
NoD.sunrise schrieb:
Kannst du so pauschal ja nicht sagen. Für die Platte machts keinen relevanten Unterschied ob sie jetzt mit 8 oder mit 10 Platten zusammen läuft - viel relevanter wird die Frage sein mit welcher Last sie läuft, was die Anforderungen sind, wie wichtig die Garantie ist usw usf.

Es geht wohl mehr um die Vibrationen bzw. die Möglichkeit der Platten diese auszugleichen. Mehr Platten im Gehäuse > mehr Vibration. Deshalb ist die Enterprise Nas auch für 16 Platten/Verbund ausgelegt (pro Shelf).
 
chithanh schrieb:
Das Problem bei Flash ist dass die elektrische Ladung mit der Zeit verloren geht.
Siehe auch den 30C3-Vortrag zum Thema Flash-Mikrokontroller:
https://events.ccc.de/congress/2013/Fahrplan/events/5294.html
http://www.bunniestudios.com/blog/?p=3554
http://media.ccc.de/browse/congress...ion_of_an_sd_memory_card_-_bunnie_-_xobs.html
"Faking Reliability"
"Flash memory is incredibly unreliable."
"You are not storing data, you are storing probabilistic approximation of your data."

Zur Langzeitaufbewahrung von Daten sind Festplatten aber nur begrenzt besser als SSDs. Da nimmt man besser für die Archivierung entwickelte Medien wie Blu-Ray oder Band.

Nun ja aber das die Zellen irgendwann die Daten verlieren. Wer hat dann die SSD mit Daten nicht vorher mal am Strom hängen. Ein Backup oder Datenarchiv wird ja auch mal Aktualisiert. Also das ist in der Praxis kein Problem meiner Meinung nach.

Zu den HDDS.
Eben wer 30 oder 60 Jahre seine Daten einlagern will. Und die nicht mehr anfasst. Sollte auch keine HDDs nehmen. Da würde wohl auch Schmierung der lager eintrocknen.

Wie lange es braucht bis die SSD die HDD überflüssig macht. Schwer zu sagen. Aber es wird kommen keine Frage. Es ist ja keine Frage der Technik mehr sondern des Preises. Technisch können SSD eben HDDs schon lange schlagen. Samsung sagte vor Jahren schon das Sie Theoretisch 20 TB und mehr bauen können. Ist halt nur nicht bezahlbar.
 
Zuletzt bearbeitet:
Koto schrieb:
Nun ja aber das die Zellen irgendwann die Daten verlieren. Wer hat dann die SSD mit Daten nicht vorher mal am Strom hängen. Ein Backup oder Datenarchiv wird ja auch mal Aktualisiert. Also das ist in der Praxis kein Problem meiner Meinung nach.

Zu den HDDS.
Eben wer 30 oder 60 Jahre seine Daten einlagern will. Und die nicht mehr anfasst. Sollte auch keine HDDs nehmen. Da würde wohl auch Schmierung der lager eintrocknen.
r.

hast du holts zitate nicht gelesen?
Die HDD Hersteller geben sogar zeiträume von nur 30-90 Tagen an!

Ich halte fest. Die HDD Technologie pfeift mittlerweile aus dem letzten Loch.
Ob ne ssd die Lösung ist? Siehe 750evo sowie
die unbekannte Strukturbreit bei der 2. Gen der beliebten 850evo
Überall wird klammheimlich der Rotstift angesetzt.

Ohne social communitys würde man als normalanwender solche sauereien gar nicht mitbekommen. :(
 
Zuletzt bearbeitet:
Herdware schrieb:
Man erspart sich außerdem auch das Aufbewahren von geeigneten Lesegeräten und die Sorge, ob die denn mit Computern in 20 oder 30 Jahren überhaupt noch verwendbar sind.
Das Problem hat man vor allem bei Magnetbändern. Wenn man auf verbreitete Technologien setzt, dann wird man auch noch in 30 Jahren an die Daten kommen. Die Compact Disc (Markteinführung 1982) ist mit heutigen Laufwerken immer noch lesbar.

Koto schrieb:
Nun ja aber das die Zellen irgendwann die Daten verlieren. Wer hat dann die SSD mit Daten nicht vorher mal am Strom hängen. Ein Backup oder Datenarchiv wird ja auch mal Aktualisiert. Also das ist in der Praxis kein Problem meiner Meinung nach.
Es ist in der Tat eher ein Problem wenn das Backup-Medium länger ungenutzt herumliegt (z.B. wenn es voll ist). Ein USB-Stick nach einem Jahr in der Schublade wird möglicherweise nicht alle Daten behalten haben.
Koto schrieb:
Zu den HDDS.
Eben wer 30 oder 60 Jahre seine Daten einlagern will. Und die nicht mehr anfasst. Sollte auch keine HDDs nehmen. Da würde wohl auch Schmierung der lager eintrocknen.
Bei Festplatten geht man von 5-10 Jahren Lagerdauer aus.
 
Wattwanderer schrieb:
Mit einer doch relativ aufwendiger Technik gerade einmal 2TB mehr reinbekommen.
Helium ist eben nötig um noch den 7. Platter ins Gehäuse zu bringen, mehr bringt es aber eben auch nicht.
Wattwanderer schrieb:
Hatte gehofft die Technik würde mindestens für eine Verdoppelung reichen. Ob HAMR auch nicht viel weiter bringt?
Dazu gibt es bei Anandtech diesen Artikel und dort wird für 2016 mit HAMR gerechnet und für die nächsten 20 Jahre mit Steigerungen der Datendichte um noch mal den Faktor 10 verglichen zu heute:



Wattwanderer schrieb:
So muss sich der Preis der Flashspeicher "nur" dreimal halbieren, dann sind sie auch noch billiger als HDD. Ob das viel länger als 10 Jahre dauert?
Innerhalb des nächsten Jahres wird bei NAND nur mit 25% Preisverfall gerechnet und die Kurve dürfte immer flacher werden, während man bei den HDD in 10 Jahren dann auch noch mal eine Steigerung um bis zu Faktor 5 bei der Kapazität innerhalb von 10 Jahren erreichen könnte, wobei dort weiterhin die Kosten dann sicher weit weniger stark steigen werden wie die Kapazitäten.

chithanh schrieb:
Das Problem bei Flash ist dass die elektrische Ladung mit der Zeit verloren geht.
Ja. aber dafür haben die SSD Controller ja Technologien der Fehlerkorrektur um das auszugleichen und diese werden immer ausgereifte wie LDPC zeigt. Wie ich schon geschrieben habe, hängt das von den jeweiligen NANDs ab, davon wie sehr diese schon verschließen sind und vor allem bei welcher Temperatur diese genutzt und gelagert werden.

Außerdem sind SSDs teuer und wer will sich schon den teuren Speicherplatz auf einer SSDs in die Schublade lagen?
chithanh schrieb:
Siehe auch den 30C3-Vortrag zum Thema Flash-Mikrokontroller:
Was hat das damit zu tun? Außerdem sind HDDs auch nicht so genau und auch dort kippen immer wieder Bits, weshalb die hinter jedem Sektor eine ECC haben um das zu korrigieren und die Hersteller selbst angeben, dass dies bei den 3.5" Platten je nach Modell alle 10^14 oder 10^15 gelesenen Bits (etwa 12TB bzw. 120TB) auch mal nicht mehr klappen wird, genau das sagt nämlich die UBER aus. Bei SSDs ist diese UBER im Grunde nicht bestimmbar, weil die im Neuzustand fast gar keine unkorrigierbaren Fehler haben und diese erst im Alter auftreten, wenn sie an der Verschleißgrenze sind (also wenn die seriös spezifizierten P/E Zyklen dann erreicht sind), dann aber auch umso mehr werden.
chithanh schrieb:
Zur Langzeitaufbewahrung von Daten sind Festplatten aber nur begrenzt besser als SSDs.
Aber auch nur sehr eingeschränkt, ich würde eher empfehlen die Daten wie von Herdware aufzubewahren.

yetisports schrieb:
Die IronWolf-Platten sind ja für NAS-Geräte mit 1-8 Laufwerksschächte ausgelegt. Kann man auch 10-12 Platten laufen lassen oder ist davon komplett abzuraten?
Das Problem sind die Vibrationen und bei mehr HDDs im Gehäuse werden diese eben auch stärker ausfallen. In der NAS Drive Selection Guide von Seagate eine schöne Übersicht:
Die ist nicht mehr ganz aktuell, die NAS ist inzwischen für bis zu 8 ausgelegt und Enterprise NAS sind dort gar nicht enthalten, aber es zeigt eben doch gut, dass für mehr HDDs im einem Gehäuse auch aufwendigere Lösungen nötig sind um mit den Vibrationen umgehen zu können.
yetisports schrieb:
Die Platten sind ja ohnehin schon deutlich besser geeignet als meine Seagate Desktop Platten.
Das auf jeden Fall, wobei diese neue 10 TB Barracuda Pro eben von den restlichen Daten wie eine Enterprise NAS aussieht und daher vielleicht auch die gleichen Lösungen zum Umgang (nicht zum Verhindern wie es im Artikel steht) mit Vibrationen hat, aber scheinbar werden die Enterprise NAS künftig dann als IronWolf Pro bezeichnet werden.

yetisports schrieb:
Hab mir die Frage selbst beantwortet, scheint für 1-16 Laufwerke geeignet zu sein (laut Grafik), obwohl im Text auch 1-8 bay zu finden ist:
Damit sowas aus so eine Grafik abzuleiten, wäre ich vorsichtig, die könnte auch die IronWolf Pro zeigen, man kann ja nicht lesen was da steht und außerdem sind solche Artikel auch gerne voller Fehler. So steht bei Storagereview im Review der Barracuda Pro 10TB einmal "The drive has decent endurance as well for a desktop HDD at 300TB per year or 820GB per day workload rate with 24x7 usage", dann aber bei den Spezifikationen "◦Power-On hours per year: 2400", was falsch ist und schon dem Text darüber widerspricht und "◦Nonrecoverable read errors per bits: 1 per 10^14" stimmt auch nicht, denn schon im Datenblatt steht "Nonrecoverable Read Errors per Bits Read, Max 1 per 10E15" (und auch "Power-On Hours (per year) 8760").

NoD.sunrise schrieb:
Warum sollte die Platte bei einer anderen Anzahl nicht funktionieren? Das ist doch nur ne grobe Einordnung des Herstellers um eben die verschiedenen Klassen gegeneinander abzugrenzen.
Das hat, wie Du etwas weiter oben sehen kannst, auch technische Gründe, denn nicht alle Platten haben die gleichen aufwendigen und damit teuren Technologien um mit den Vibrationen umgehen zu können, die umso stärker sind je mehr HDDs in einem Gehäuse stecken. Die Unterschiede immer nur als Marketing abzutun, ist ziemlich dumm, denn die Unterschiede sind den unterschiedlichen Kostenoptimierungen geschuldet. Man kann HDDs eben billiger bauen, wenn man sie an bestimmten Stellen einfacher gestaltet und dies geht eben auf Kosten der Eigenschaften, schränkt also deren Verwendungsmöglichkeiten ein oder vermindert die Lebensdauer, wenn man sie dann überfordert.

Es will eben nicht jeder das Geld für eine Enterprise Nearline HDD wie die Enterprise Capacity 10TB die ab 581€ kostet, ausgeben und es braucht auch nicht jeder die ganze Eigenschaften wie den Workload von 550TB/Jahr und die aufwendigste Technologie bzgl. Vibrationsschutz, die diese mitbringt. Also gibt es eben unterschiedliche Klassen für die unterschiedliche Anforderungen die dafür typischerweise nötigen Eigenschaften haben, wo an andere Stellen aber gespart wurde um sie gegenüber den Enterprise Nearline Platten, die von allem die besten Eigenschaften mitbringen aber auch am teuersten sind, günstiger anbieten zu können.

NoD.sunrise schrieb:
Für die Platte machts keinen relevanten Unterschied ob sie jetzt mit 8 oder mit 10 Platten zusammen läuft
Die Platte weiß zwar nicht wie viele andere Platten noch im Gehäuse sind, sie spürt aber deren Vibrationen und natürlich kann es bei 10 Platten sogar weniger Vibrationen geben als 8, aber normalerweise sind es eben nicht so und wenn der Hersteller die für bis zu 8 freigibt, dann wird er natürlich auch noch einen gewissen Sicherheitspuffer eingeplant haben, nur weiß man dann trotzdem nicht ob dieser bei der konkreten Konfiguration mit den 10 Platten noch ausreicht.
Love Guru schrieb:
Wo hast du die info gefunden, dass die drei seagates alle mit PMR sind?
Steht in den Produkt Manuals und man kann es aus dem Verhältnis der Track density zur Areal density auch ablesen, denn das ist bei SMR Platten höher. Die Bareracuda Pro 10TB hat 867Gb/in² Areal density bei 386KTPI Track density und die Archive v2 8TB hat mit 848Gb/in² sogar eine etwas geringere Datendichte, aber mit 435KTPI eine deutlich größere Spurdichte.

trollseidank schrieb:
Die HDD Hersteller geben sogar zeiträume von nur 30-90 Tagen an!
Zum Thema der Lagerung steht im Benutzerhandbuch der ST10000DM0004 (Barracuda Pro 10TB):
Also länger als ein Jahr sind selbst bei 25°% und maximal 40% Luftfeuchtigkeit nicht zu empfehlen, 60 Tage sollte sie aber auch sonst mindestens durchhalten.

trollseidank schrieb:
Ich halte fest. Die HDD Technologie pfeift mittlerweile als dem letzten loch.
Aus dem Loch pfeifen würde ich es nicht nennen, aber die gesteigerten Datendichten haben eben auch technisch ihren Preis und so wie bei NAND mit kleinen Strukturbreiten die technischen Eigenschaften und vor allem die Robustheit gelitten haben und nur der Preis geringer ist, haben auch HDDs mit den heutigen Datendichten mit ganz anderen Problemen zu kämpfen als vor 10 Jahren oder noch viel ältere Modelle, die im Vergleich wie die Grobmechanik einer alten Windmühle zur Präzision einer Schweizer Armbanduhr wirken.
trollseidank schrieb:
die unbekannte Strukturbreit bei der 2. Gen der beliebten 850evo
Dazu gibt es hier eine Untersuchung und demnach sind die Zellen nicht wirklich kleiner geworden und immer noch weitaus größer als bei planaren NANDs.
2,57Gb/mm² für 48 Lagen, sind 0,0535Gb/mm² pro Layer und damit etwa Faktor 24 weniger als bei den Toshibas planaren 15nm NAND. Die Größen und Abstände der Zellen ist der entscheidende Punkt wenn es um die Eigenschaften von NANDs geht. Außerdem besteht auch nicht das ganze Die aus NAND Zellen, die machen nur einen Teil aus: "The NAND memory array area increased from 48.9 mm² to 68.7 mm² which is 40.3% larger." Die Fläche die die Zellen belegen ist also um 40,3% gestiegen und dazu kommen 50% mehr Layer (48 statt 32), was also zusammen 1,403*1,5 = 2,1045 macht, aber die Kapazität pro Die hat sich nur verdoppelt, womit die Datendichte der eigentlichen Zellen sogar leicht gefallen ist, die Zellen sind also entweder größer oder haben mehr Abstand. Der Shrink von einem 40nm Prozess auf vermutlich 21nm hat bei Samsungs V-NAND der 3. Generation eben nicht zu einer Verkleinerung der Zellen und damit einer Verschlechterung der Eigenschaften geführt wie es bei planaren NANDs üblich ist, sondern dazu die andere Bereiche des Chips zu verkleinern und damit den Anteil den die Zellen belegen zu vergrößern. Die alten Dies der zweiten Generation waren 84.3 mm² groß, davon waren 48,9mm², also nur 58% wirklich mit NAND Zellen belegt. Die der dritten Generation sind 99.8 mm² groß und nutzen davon 68,7mm² für die Speicherzellen, also 68,8% der Fläche.

Das die kleinere Fertigungsstruktur eben nicht auf Kosten der Eigenschaften ging, kann man anhand der Schreibnperformance und Leistungsaufnahme sehen, denn je kleiner die Zellen sind, umso aufwendiger wird der Schreibvorgang und umso mehr Leistung wird dabei auch aufgenommen.
trollseidank schrieb:
Überall wird klammheimlich der rotstift angesetzt.
Es soll doch immer billiger werden, genau das wird von den Kunden verlangt und von der Industrie geliefert. Das dies nicht immer mit besseren Eigenschaften einher geht, sollte auch klar sein, man stößt halt an immer mehr Grenzen, wenn billiger wird Speicher- und allgemein Halbleitertechnologie nur durch Verkleinerung der Strukturen, also Steigerung der Datendichte.
 
Außerdem sind SSDs teuer und wer will sich schon den teuren Speicherplatz auf einer SSDs in die Schublade lagen?

Ja klar noch ist das kein Thema. Aber die SSD entwickelt sich Rasant bei HDDs muss man immer mehr tricksen.

Ich mein Samsung haut nun schon 4TB SSD raus. Sind wir ehrlich jeder Technik Freak giert drauf. Nur der Preis schreckt uns ab. :-)

SSD haben gegen HDDs kaum Nachteile außer Preise. Die wo es gibt sind für die meisten irrelevant. Also Kaputt schreiben oder Ewig ohne Strom lagern. Das sind Luxus Probleme. :-)
 
Wenn Du das Tricksen nennst was man bei HDDs machen muss um die Kapazität zu steigern, was ist denn mit dem was man bei den NANDs macht? Dann ist der Gang in die 3. Dimension auch ein Tricksen und kann nicht mit einer 4. und 5. Dimension wiederholt werden. Und so rasant wie in früheren Jahren ist die Entwicklung bei den NANDs nun auch nicht mehr, es wird nur noch mit 25% Kostensenkung pro GB innerhalb eines Jahres gerechnet, früher halbierte sich der Preis noch alle 18 bis 24 Monate. Die Kurve wird auch bei den NANDs schon deutlich flacher und man kann die Strukturen nicht mehr wirklich verkleinern, mit Mühe wäre noch gerade so ein Shrink unterhalb von 15nm machbar und man wird auch nicht endlos viele Layer übereinander stapeln können. Samsung hat mit 24 angefangen, war dann bei der zweiten Generation bei 32 ist nun bei der 3. Generation bei 48 Layer. So bei 128 vermutet man derzeit das Limit dessen was wirtschaftlich machbar ist, kommen doch mit jedem Layer auch mehr Bearbeitungsschritte für den Wafer hinzu und bei jedem Schritt besteht das Risiko das er schief geht und man weniger Ausbeute hat.

Kostenprität zwischen den 3D und den planaren NANDs wird erst ab 64 Layern erwartet:
Da wachsen die Bäume also auch nicht in den Himmel und auch die HDD Hersteller arbeiten an neuen Technologien um die Datendichte und damit die Kapazität pro $ zu steigern, denn auch wenn ein Kopf mit einem Laser für eine HAMR HDD dann teurer ist als einer ohne, man dafür einen anderen Controller braucht der den Laser auch ansteuern kann und vermutlich ein anderes Schmiermittel welches nicht bei der Hitze des Lasers verdampft und vielleicht auch andere Materialien für die Beschichtung der Platter, so werden die Kosten sich nicht deswegen gleich verdoppeln, auch wenn man damit die Datendichte verdoppelt bekommt.

Also ich würde nicht so viel darauf wetten, dass SSDs die HDDs bei den Kosten pro TB einholen. Bei der Kapazität haben sie die HDDs schon überholt, die PM1633a 15,36TB bietet in einem 2.5" Gehäuse mit 15mm Bauhöhe mehr Kapazität als jede HDD, aber eben auch zu weitaus einem höheren Preis.
 
Sicher Arbeiten die an neuen Technologien. Aber ob davon je was Marktreif wird. Ist die Frage. Es war auch mal Tesa als neues Speichermedium da oder Hologramme. Nix ist wirklich zu sehen. Also wirklich in einem überschaubaren Zeitrahmen.

Wobei die SSD Hersteller ja auch noch 3.5 SSD bauen können. Also da lst wohl noch Luft.

Die Preisentwicklung finde ich recht gut. Habe mir neben meiner Crusical 2.5 1TB MX200 SSD nun noch eine Intel 540 m.2 1TB geholt für den Laptop. Also das geht schon in bezahlbare Regionen.

Ne 2 Tb EVO liegt bei 600 Euro

Ich denke Datengräber und so. Sind eh nix für den Massenmarkt. Solche Datenmengen werden immer im Freak Bereich bleiben. Wobei der Trend ja sogar zu Streming geht also gar nicht mehr auf Besitz.

10 TB Daten da werden wir eher zum ollen Opa. :-) Wobei ich da lieber Opa bin. Ich besitze die Dinge lieber statt Sie zu mieten.
 
Zuletzt bearbeitet:
Zurück
Oben