News Western Digital: Erste HDDs mit 18 und 20 TB werden bemustert

Shoryuken94 schrieb:
Preis / Leistung ist aber nicht immer das einzige Kriterium. Oftmals geht es um Praktikabilität. Gerade in Datacenterbereich. Wenn du einige Petabyte Kapazität benötigst, dann kannst du das mit ein paar Racks und großen Platten machen, oder du stellst dir ein Rechenzentrum mit kleinen voll. Da erübrigt sich der Preis pro GB aber sehr schnell wieder.

Nicht nur im Datacenter. Eine 8 Bay NAS kostet bei der Großen (Synology, QNAP) schnell an die 1000 €uro, während man für eine 4 Bay die Hälfte bezahlt. Da machen sich große Platten schnell bezahlt.
 
  • Gefällt mir
Reaktionen: Shoryuken94
RohlingX10 schrieb:
Habt ihr keine Angst wegen Verlust der Heliumfüllung?

Helium weg ist die neue Kaputtschreibangst. :)

Ich schaue auf die Produkte die eine Firma bisher gebaut hat. Wenn eine über Jahrzehnte durch das EDV Leben begleitet hat vertraue ich darauf, dass sie weiss was sie tut.

Ansonsten sind das Datenmengen wo man die Sicherung und Verfügbarkeit systematisch angeht. Dann ist eine defekte HDD ein Ärgernis aber keine Katastrophe.
 
  • Gefällt mir
Reaktionen: Smartbomb, Alpha.Male, rolandm1 und eine weitere Person
LamaMitHut schrieb:
Bei 3D NAND zu sagen, dass die Technik nach ~7 Jahren mehr oder weniger am Ende sei.
Am Ende der Entwicklung die noch deutlich Kostensenkungen verspricht, denn die Anzahl der nativen Layer ist bei etwas über 100 an einem Punkt angekommen, an dem die zusätzlichen Bearbeitungsschritte und damit das Risiko durch einen Fehler den Wafer zu schrotten, eine weitere Steigerung nicht mehr wirtschaftlich machen. Nur Samsung ist übrigens so weit, die anderen erreichten oft die 64 Layer schon nur noch durch Stacking, also das Übereinanderschichten mehrere Dies die dann durchkontaktiert und für die Berechnung der Datendichte als ein Die gezählt werden. Nur muss man bei zwei gestackten Dies halt auch zwei Dies herstellen, bekommt pro Wafer also am Ende nur halb so viele Dies als wenn es native Layer wären und daher fallen die Kosten kaum, wenn man die hohen Datendichten und Kapazitäten pro Die eben durch das Stacking von immer mehr Dies erzielt.

Das ist wie bei den HDDs, wenn man da die Kapazität der Spitzenmodelle nur dadurch steigert das man mehr Platter verbaut, fallen die Preise pro TB auch nicht und schon gar nicht bei den kleineren Modellen, die fallen nämlich nur, wenn man die gleiche Kapazität mit weniger Platter erzielt, da die Platter ein deutlicher Kostenfaktor bei der Herstellung von HDDs sind.
 
  • Gefällt mir
Reaktionen: Smartbomb, .fF und MarcoMichel
McBain schrieb:
die sollen mal mit mehr Speicher bei den 2,5" (7mm) HDD's um die Ecke kommen.
Da ist schon seit Jahren bei 2TB schluss

Also ehrlich, gibt es doch...die SSD 4 TB. Die macht die Arbeit wesentlich besser als jede Festplatte.
 
pseudopseudonym schrieb:
Hervorragend, der familiäre haushaltsübergreifende TV-Server hat schon wieder ne volle Aufnahmeplatte und niemand hat Bock auszumisten.

Schaut hier ähnlich aus.

Habe eine 10TB SkyHawk und die läuft seit 3 1/2 Jahren im 24/7 Dauerbetrieb. Keine Probleme und Top Smart-Werte.
Soviel zu Helium-Platten und Haltbarkeit.

Zudem ist sie flüsterleise bei mehreren Aufnahmen + abspielen gleichzeitig, steht offen beim Linux-Receiver neben dem TV und fällt nur auf wenn beim TV der Ton stumm gestellt wird.

Dagegen hatte ich im Desktop schon richtige Krachmacher mit Luft-Füllung, die weit hinter dem Schreibtisch durchs Gehäuse nervig wurden.

Energiesparender und damit kühler ist sie auch.

So gesehen sind Helium-HDDs nur zu empfehlen.
 
Eine SSD hält dir deine Daten im Moment maximal Monate. Die legst du in den Schrank und dann ist nichts mehr drauf. Bei den ersten TLC musste Samsung damals die Zeit für das Neuschreiben der Daten verkürzen weil die Leseraten eingebrochen sind.

Corpus Delicti schrieb:
...und Top Smart-Werte.
Hatte meine 2TB WD Green auch... dann ist der Lesekopf ausgefallen. Laut Internet Serienfehler...
 
Marflowah schrieb:
Das preisliche Optimum (Euro/GiByte) liegt noch immer weeeeiiiiit unter den vorpreschenden Kapazitäten. Irgendwo zwischen 3 und 4, je nach Anwendung auch bei 8 TB, aber dann ist Schluß.

Bei NAS-Festplatten sind es jedenfalls die 4 TB, die das beste Euro-/GiByte-Verhältnis bieten.

Es gab erst vor kurzem extern 12TB Western Desktop für 199.-
Man muss auch bisschen auf die Schnäppchen achten ;)

Es dauert immer, bis die Preise sinken. War früher so und ist jetzt auch nicht anders.
 
PS828 schrieb:
@Legolas1th würde ich nicht empfehlen. Das sind keine Platten die für 24/7 oder ähnliches zertifiziert wurden. Evtl klappt da alles ohne Probleme aber möglicherweise gibt's auch Probleme und die Dinger gehen früh kaputt und der hersteller liest die Werte aus, sieht dass sie schon extrem benutzt wurde was oberhalb der Vorgabe lag und somit entfällt die Gewährleistung.
Da ist man mit nas Platten auf der sicheren Seite. Klar können die auch kaputt gehen, aber dort ist der Umtausch abgedeckt.

Hier mal Komplettzitat, da das Unsinn ist.
Die verlinkte Platte ist eine WD MyBook, die haben nicht mal einen Aus-Schalter. Wenn du die ganz normal am PC hängen hast läuft die fast permanent mit, ist also nicht wirklich anders als im NAS oder intern. Das lustige ist, wenn man die ausbaut steht auf der Platte sogar: For internal Use.
Ist eine ganz normale WD Platte mit Helio Füllung und sonst gar nichts.
Was die Laufzeit angeht: Die liegt im Bereich der Millionen Stunden, was du nicht erreichen wirst. Du hast höchstens Probleme mit der Garantie, wenn die ausgebaut wurde, wer das geschickt macht kann sie aber wieder einbauen. Einfach Gehäuse aufheben.
Die Preisdifferenzen sind einfach gigantisch, eine 10 TB kostet als normale interne um die 300€ als externe die quasi gleiche Platte für 160 extern beim Black Friday. Das machen so viele und die laufen seit Jahren. Selbst wenn so eine Platte über den Jordan geht, kann einem bei allen passieren und hier gibt man nicht viel aus. Backup ist eh immer Pflicht, die Diskussion kann man sich sparen.
Bei mir laufen auch noch Seagates ganz normal als interne die ich mal als extern gekauft habe vor über 5 Jahren, sind wie gesagt ganz normale Consumer.
Leider habe ich beim Black Friday nicht bei den 8 TB für 100€ zugeschlagen, das war hinterher gesehen echt ein Schnapper. Zumal man die dann teurer wieder verkaufen kann.
Hab die WD 10 TB gekauft 40€ billiger...
 
  • Gefällt mir
Reaktionen: Stofftier
@Corpus Delicti
Die Lautstärke ist egal, der Server steht im Keller meiner Eltern (die haben den besten Upload und sind am ruhigsten, was den Wohnort angeht):
e1391214-98d0-4653-8a45-608567b02991.jpg

Der Client bei denen steht im Nebenraum (langes HDMI-Kabel und HDMI-CEC).
Inzwischen ist nur noch der Server mit Schlumpf in Betrieb, ein Ryzen und Virtualisierung haben den Rest obsolet gemacht.
Ist dein TV-Server auch eine VDR?

Was die HDDs angeht: Alles entspannt, ich mach mir keine Sorgen.
Und was Datenverlust angeht: Der einsame Wechelrahmen ist für physikalisch getrennte Backup Platten (wichtiges ist auch auf meiner NAS in meiner Wohnung).
 
Botcruscher schrieb:
Eine SSD hält dir deine Daten im Moment maximal Monate. Die legst du in den Schrank und dann ist nichts mehr drauf.
So ein Quatsch, die JEDEC hat in der JESD218 klar definiert wie lange SSDs die Daten Offline zu halten haben und zwar für Client SSDs 12 Monate bei 30°C Lagertemperatur und dies haben sie bis zum Erreichen der TBW einzuhalten. Ob jeder Hersteller sich daran hält, ist eine andere Frage, aber ich hatte noch bei keiner SSD und keinem USB Stick, die ich teils über Jahre Offline gelagert hatte, ein Problem die Daten auszulesen.
Botcruscher schrieb:
Bei den ersten TLC musste Samsung damals die Zeit für das Neuschreiben der Daten verkürzen weil die Leseraten eingebrochen sind.
Eben, es brachen die Leseraten ein, aber alle Daten waren noch lesbar. Die Leseraten brauchen ein, weil dann die LDPC Fehlerkorrektur angewendet werden musste, die eben aufwendiger ist und daher länger dauert. Heutzutage ist das regelmäßige Refresh Standard und wird von Phison sogar als SmartRefresh Feature beworben.
Botcruscher schrieb:
Hatte meine 2TB WD Green auch... dann ist der Lesekopf ausgefallen.
Nicht jeder Ausfall kündigt sich in den S.M.A.R.T. Werten an, erst recht bei SSDs. Eigentlich kündigen sich nur Ausfälle an, die aufgrund von Fehlern des Mediums passieren.
 
  • Gefällt mir
Reaktionen: Smartbomb und pseudopseudonym
Holt schrieb:
aber ich hatte noch bei keiner SSD und keinem USB Stick, die ich teils über Jahre Offline gelagert hatte, ein Problem die Daten auszulesen.

Ändert nichts daran, dass SSDs nicht zur Archivierung geeignet sind.
 
Holt schrieb:
Weil die USA nie das Internationale Einheitensystem oder SI (französisch Système international d’unités) verbindlich eingeführt haben: In den USA sind kg, cm oder Liter bis heute noch keine gebräuchlichen Einheiten.
Das Risiko muss jeder für sich abwägen und der Ersparnis gegenüberstellen, man sollte dann nur nicht meckern das die HDD nichts taugt oder gar meckern, die Ultrastar oder Red würden nicht taugen, wenn man in Wahrheit eine White Label Platte hat auf der weder Red noch Ultrastar draufsteht!

Gibt es irgendwo halbwegs verlässliche Erfahrungswerte zu der Qualität solcher Platten?

PS: Ich meine da schon nen größeren Vergleich.
 
Zuletzt bearbeitet:
jabba. schrieb:
Die verlinkte Platte ist eine WD MyBook, die haben nicht mal einen Aus-Schalter.
Was besagt dies? Die Aus-Schalter sind bei kaum noch einer 3.5" USB Platte zu finden und trotzdem sind die Platten die darin stecken nicht alle für den Dauerbetrieb tauglich.
jabba. schrieb:
Ist eine ganz normale WD Platte mit Helio Füllung und sonst gar nichts.
Was ist eine ganz normale Platte? Es gibt von den einfachen Desktopplatten bis zu den Enterprise Nearline HDDs eine ganze Bandbreite an unterschiedlichen Modellen mit jeweils unterschiedlichen Spezifikationen und alle sind eigentlich ganz normalen Platten. Für die Nutzung in einem USB Gehäuse braucht man aber keine besonders anspruchsvollen Spezifikationen, daher muss man eben immer damit rechnen, dass die HDDs in den MyBook oder Elements eben auch keine besonders hohen Anforderungen erfüllen. Sie brauchen es ja nicht.
jabba. schrieb:
Was die Laufzeit angeht: Die liegt im Bereich der Millionen Stunden, was du nicht erreichen wirst.
Nein, da verwechselst Du was. Die MTBF/MTTF ist in Millionen Stunden angegeben, aber die ist eine statistische Ausfallwahrscheinlichkeit während der vom Hersteller geplanten Lebensdauer des Produktes bei Einhaltung der Einsatzbedingungen ist, abzüglich der Anfangsphase in der die Ausfallraten für alle technischen Produkte immer besonders hoch sind.

Gibt der Hersteller z.B. 2 Millionen Stunden MTBF/MTTF an und
  • Hat man 2 Millionen der Geräte in einem System, kann man jede Stunde einen Fehler / Ausfall erwarten.
  • Hat man nur 2000 Geräte, so wird etwa alle 1000 Stunden eine Fehler auftreten, also so alle 43 Tage.
  • Hat man nur eines, wär ein Fehler nach spätestens 2 Millionen Stunden oder 228 Jahren zu erwarten, nur ist dann die Lebensdauer schon lange überschritten und damit ist die MTBF/MTTF bei so wenigen Geräten nicht aussagekräftig und mithin irrelevant.

Man kann die MTBF also nicht in eine Lebenserwartung umdeuten und ein kleines Beispiel zeigt warum dies so ist: Ein durchschnittlicher Mitteleuropäer von 46 Jahren mit einem BMI von 27, Nichtraucher und mäßiger Konsument von Alkohol hat eine statistische Sterberate von 1,8 Todesfällen pro 1000 solcher Personen. Damit rechnen die Versicherungen und daraus ergibt sich eine MTTF von 1000(Personen) * 365 (Tage/Jahr) * 24 (Stunden/Tag) / 1,8 (Personen, die Ausfälle pro Jahr) = 4,867 Millionen Stunden, was 555 Jahren entspricht.

So alt wird aber offensichtlich keiner, die Versicherer rechnen mit 81 Jahren Lebenserwartung, also nur etwa 0,71 Millionen Stunden.

Die vom Hersteller geplante Nutzungsdauer beträgt von i.d.R. 5 Jahre, wird natürlich meisten überschritten, damit es vorher nicht zu viele Ausfälle gibt, aber die gilt auch nur bei bestimmungsgemäßer Nutzung. Samsung hat früher die geplante Nutzungsdauer auch immer recht offen in die Datenblätter geschrieben, so wie hier:
Bei aktuellen HDDs steht das nur noch sehr selten so offen im Datenblatt, aber indirekt findet man es auch immer noch, so steht bei der ST1000VX005 im Product Manual auch noch
Aus 50.000 insgesamt und 10.000 pro Jahr ergibt sich dann aber doch wieder der Hinweis auf die geplante Nutzungsdauer von 5 Jahren. Es sind Kalenderjahre, da HDDs auch altern wenn sie nicht benutzt werden und daher auch nur beschränkt lagerbar sind.
Ergänzung ()

jabba. schrieb:
Ändert nichts daran, dass SSDs nicht zur Archivierung geeignet sind.
Das bestreite ich ja gar nicht, aber HDDs sind dafür auch nicht wirklich geeignet diese jahrelange im Schrank liegen zu lassen, denn die Altern auch wenn sie nicht benutzt werden. Dazu schreibt Seagate z.B. hier und auch in einigen anderen Product Manuals:
Und außerdem:
Wenn also die Lagerbedingungen nicht eingehalten werde, sind 90 Tage und zwar in der ungeöffneten Originalverpackung, sonst bestenfalls 1 Jahr. Nach dem Öffnen sollten HDD nicht länger als 30 Tage stromlos sein.

Bei der neuen Barracuda Pro 10TB mit Heliumfüllung schreibt Seagate:
Also hier nur ein halbes Jahr in der ungeöffneten originalen Versandverpackung von Seagate und sonst 2 Monate, nur bei optimalen Bedingungen bis zu einem Jahr.

HGST schreibt für die meisten Modelle wie z.B. für die Megascale:
Das bedeutet nicht, dass die HDDs dann automatisch Schaden nehmen oder gar komplett kaputt sind, wenn man diese Vorgaben nicht einhält. Aber ganz ignorieren sollte man es nicht, denn im Thread Festplatten sterben wie die Fliegen - was mache ich falsch? sind jemandem der ein halbes Jahr im Ausland war, binnen 3 Monaten 4 HDDs gestorben. Die HDDs waren wohl in einem NAS im Keller, also nicht unter optimalen Bedingungen gelagert und natürlich müssen solche Angaben auch unter den ungünstigsten der erlaubten Bedingungen noch eingehalten werden. Unter optimalen Bedingungen dürften die Platten auch eine weitaus längere Zeit ohne Probleme überstehen.
Auch in diesem Thread wo eine "ein paar Jahre" unbenutzt irgendwo rumgelegen hat und danach nicht erkannt wurde, dürfte Überlagerung des Problem gewesen sein.

Für Langzeitarchiv gibt es sowas Optical Disc Archive Gen 3: Sony archiviert 5,5 Terabyte für 100 Jahre auf Cartridge und vielleicht irgendwann ein Produkt auf Basis dieser Entwicklung: Project Silica (Datenträger aus Quarzglas).
 
  • Gefällt mir
Reaktionen: Smartbomb, Keiyuu, Nuon und 4 andere
Holt schrieb:
So ein Quatsch, die JEDEC hat in der JESD218 klar definiert wie lange SSDs die Daten Offline zu halten haben und zwar für Client SSDs 12 Monate bei 30°C Lagertemperatur und dies haben sie bis zum Erreichen der TBW einzuhalten.
Daten halten und Daten mit voller Geschwindigkeit auslesen sind zwei paar Schuhe. Deswegen hat Samsung auch per Firmware nachhelfen müssen. Einfach weil der Controller deutlich länger gebraucht hat und die Leseraten im A waren.

https://www.computerbase.de/2014-10/samsung-840-evo-erhaelt-firmware-gegen-altersschwaeche/

Der Grund für das aufgetretene Phänomen ist eine zu geringe Nutzung der SSD.
 
Holt schrieb:
Was besagt dies? Die Aus-Schalter sind bei kaum noch einer 3.5" USB Platte zu finden und trotzdem sind die Platten die darin stecken nicht alle für den Dauerbetrieb tauglich.

Dann wäre es eine Fehlkonstruktion, denn meine läuft quasi immer... schon komisch... ajajaj...

Holt schrieb:
Was ist eine ganz normale Platte?

Wenn du es genau wissen willst das sind die HGST Helio die WD da verbaut und auf der Platte steht (ich wiederhole mich) For internal use...
Wenn du die Definition von "normaler Platte" nicht verstehst, tust du mir Leid!

Holt schrieb:
Nein, da verwechselst Du was.

Ich verwechsle gar nichts, da die Stunden sich auf genau eben jene Garantie und Erklärung beziehen. Du hast im Posting davor behauptet der Hersteller könne überprüfen ob die Platte sozusagen unsachgemäß verwendet worden wäre bezüglich der Laufzeit, allerdings erreicht man erst nach 100 Jahren dieses Limit, genauer nach 110 Jahren, ich habe das sogar mal ausgerechnet....


Ganz zufällig hatte ich schon oft Kontakt damit, da ich in der Branche tätig bin und kein Anfänger. ;)
 
jabba. schrieb:
Dann wäre es eine Fehlkonstruktion, denn meine läuft quasi immer... schon komisch... ajajaj...
Dreht sie auch immer?
 
@pseudopseduonym
Die Verhalten sich wie ganz normale interne Platten oder wenn du es im NAS hast, die schalten nach so 20 Min im Idle, sind aber nie aus. Speziell bei der externen sollte man das bedenken, war selbst überrascht das die quasi gar nie aus ist wenn der PC eingeschalten ist. Ist 1:1 wie eine interne Platte, daher werden da eh normale Platten verbaut. Spätestens ab 10 TB kommen eh die Helio zum Einsatz, da gibt es keine großartigen Unterkategorien mehr, die White sind ganz normale interne Platten, gibt dann ja nur noch die entsprechenden NAS und Server Platten mit entsprechender Garantie und nochmal höherwertiger Langlebigkeit, das hast du aber bei keiner üblichen internen PC Festplatte und ist auch leicht übertrieben im Privatbereich, letztlich kann auch eine Red jederzeit ausfallen, Backup Pflicht.
 
Marflowah schrieb:
Hä?
Hier reden einige, wie wichtig das mehrfache Backup sei. Einerseits.
Andererseits: Der Kauf einer dieser monströsen Platten kostet aber schon irgendwie eine Stange Geld, und das ideale Preis-/Größen-Verhältnis der 4-TB-Platten wird müde belächelt....
Euch ist schon klar was bei einer drei- oder mehrfachen Sicherung einer <12-TB-Festplatte dann letztlich draufgeht?
Für mich ist nicht ersichtlich, worin jetzt der Vorteil liegen soll, statt einer 12TB-Platte 3x 4TB-Platten zu sichern? Im Gegenteil, man jongliert mit dreimal so vielen Platten, auch fürs Backup. Ich habe 3x 4TB an Datenplatten, und dazu jeweils zwei Backups, das macht 9 Festplatten! Mich nervt das langsam gewaltig, und ich warte nur auf günstigere Preise für die 16TB-Klasse, um am Ende 6 Festplatten einsparen zu können und gleichzeitig wieder etwas Luft zu bekommen.
 
  • Gefällt mir
Reaktionen: Knut Grimsrud und jabba.
RohlingX10 schrieb:
Habt ihr keine Angst wegen Verlust der Heliumfüllung?
Jain.....die Verpackung, die dünn genug ist und Heliumgas dauerhaft halten kann, muss wohl noch gefunden werden, aber das ist bei den Festplatten in sofern unproblematisch, da man sie mit Umgebungsdruck füllen kann.

Dann muss die HDD eigentlich nur dicht genug sein um keine Fremdgase hinein zu lassen...selbst wenn Helium entweicht, wird sich das mit Helium von außen die Waage halten....was anderes ist das natürlich bei Überdruck Flaschen oder Vakuum Räumen.
 
  • Gefällt mir
Reaktionen: RohlingX10 und ThommyDD
Zurück
Oben