News 14-TB-HDD: Toshiba umhüllt erstmals 9 Platter mit Helium

Crass Spektakel schrieb:
Es gab schon vorher Laufwerke mit mehr Plattern:

Die ST12400N von 1995 hatte zehn Platter, 19 Leseköpfe und einen Servokopf.

...

Ups, so ein Behemoth (oder in der Art) hab ich letztens erst geschlachtet für die Magnete. Extreme Unterschiede im Aufbau der Laufwerke, von simpel bis hyper umständlich... am man kann sagen, über die Zeit einfacher geworden.
 
edenjung schrieb:
14tb da bin ich dabei ;D

@Rock lee

Es geht. Flüchtig ja, aber bisher hat es noch keine weiteren verbrechen begangen.

Spaß beiseite.
Die werden das schon vernünftig abdichten ;D

Jetzt sag mir doch bitte mal Jemand, wie man Helium einfangen bzw. abdichten will?
Denn soweit ich es weiß funktioniert das nicht. Denn Helium ist sehr, sher diffus.
 
Nach Kaputtschreibangst bei SSDs nun Vacuumangst bei HDDs. :)

Sicherlich wird man mit gewissen Schwund rechnen und geeignete Maßnahmen ergreifen. Die Kunst wird wohl darin bestehen die Luft draußen zu halten als Helium drin?
 
Helium scheint kein Problem zu sein, denn Toshiba ist nicht der erste Hersteller der HDD damit befüllt ;)
 
Entweder war ich vorhin blind, oder die Produktseite wurde geändert. Jedenfalls steht nun die Bauhöhe drin: Wie erwartet sind es 26,1 mm. Artikel angepasst!

Industry Standard 3.5-inch 26.1 mm Form Factor
 
koech schrieb:
Was ist denn ein "nördliches" Preisniveau? Nördlich meint wohl weiter oben? Oder unten, wenn man die Karte falschrum hält?
Ein Wissenschaftler hat mal eine gewagte These aufgestellt indem er gesagt hat: "Kaum macht man's richtig, schon funktioniert's!" Man sollte es kaum Glauben, aber will dies darauf hinweisen die Karte nicht falschrum zu halten :evillol:
koech schrieb:
Welche Kartenprojektion?
Vielleicht probiert man es einfach mal mit der häufigsten verwendeten:
Im Finanzumfeld ist es nicht unüblich davon zu reden das ein Wert nach Nordern oder nach Süden abgedreht ist.
halbtuer2 schrieb:
Jetzt sag mir doch bitte mal Jemand, wie man Helium einfangen bzw. abdichten will?
Einfangen kann nicht einmal die Schwerkraft der Erde das Helium, wenn das raus ist, flüchtet es ins Weltall, einen Haftbefehl auszustellen kann man sich also sparen. Gegen den Abdichten kann man schon, die Erde schafft es seit ihrem Bestehen ja auch erfolgreich, informiert euch mal wie man überhaupt an Helium kommt, bevor es in die HDDs gelangen kann. Es ist ja überraschend wenig Leuten bekannt wie man Helium überhaupt mal in die Flasche bekommt, dabei ist dies durchaus interessant und sollte einen zum Weiterdenken über einige Anregen was einem im Alltag so erzählt wird.
Die gängige Theorie, dass Erdöl direkt aus toter organischer Materie entstand, ist falsch ? das zumindest behaupten russische Forscher. Den Schluss ziehen sie aus Experimenten und theoretischen Überlegungen.
...
Ihren Überlegungen zufolge können bei der Zersetzung von organischen Molekülen wie Zucker nur der einfachste Kohlenwasserstoff, Methan, und Kohlendioxid entstehen. Die Bildung einer komplexen Mischung längerkettiger Kohlenwasserstoffe aus stark oxidierten Kohlenstoffverbindungen, aus denen tote Lebewesen bestehen, sei aus thermodynamischen Gründen unter natürlichen Bedingungen nicht möglich.

Die Forscher schreiben in der Zeitschrift Proceedings of the National Academy of Sciences (Vorabveröffentlichung vom 12. August), dass sich Kohlenwasserstoffe wie Ethan oder Oktan jedoch bei hohen Drücken und hohen Temperaturen spontan aus Methan bilden können. Die geeigneten Bedingungen herrschen etwa in hundert Kilometer Tiefe im Erdmantel, aber nicht in den oberflächennahen Sedimentbecken, die bislang als Entstehungsort des Erdöls angenommen wurden.

Ihre Überlegungen bestätigten die Forscher experimentell, indem sie einen neuartigen Apparat bauten. Darin gaben sie Eisenoxid (FeO), Marmor (CaCO3) und Wasser zusammen und erhitzten die Mischung bei Drücken bis zum 50.000fachen Atmosphärendruck auf 1500 Grad Celsius. Dabei entstanden eine komplizierte Mischung aus Kohlenwasserstoff-Molekülen mit bis zu zehn Kohlenstoffatomen - ähnlich wie bei natürlichem Erdöl. Erdöl wäre demnach die Hochdruck-Variante von Methan, ähnlich wie sich Graphit bei hohem Druck in Diamant umwandeln kann.
Die Bildung von Erdöl aus Pflanzen- oder Tierresten konnte hingegen nie experimentell auch nur ansatzweise belegt werden. Wenn also Erdöl in 100 km Tiefen aus Erdgas entsteht, kann auch das Erdgas ja nicht organischen Ursprungs sein, sondern stammt aus dem Inneren der Erde, wo sich die schweren Moleküle in der Mitte konzentrieren, während die leichtere nach außen gedrängt werden. Genau wie das Helium:
Dann wird auch verständlich warum dies geht:
Afrikanische Länder an der Ostseite des Atlantiks fördern auch massenhaft aus dem Meer, aber vor Brasilien liegt das Erdöl (der Name sagt eigentlich alles und der Begriff Mineralöl passt auch bestens) unter allen Salzschichten, deshalb der Name "Pré-Sal", da war also auch auch historisch der Meeresboden (an dem kann sich Salz ja nur ablagern) immer über dem Erdöl und der Atlantik ist geologisch gesehen ja noch relativ neu und dort war nie eine Landfläche:
Sich mit Helium zu befassen, kann also zu interessanten Überlegungen führen und auch zu einer Erklärung warum fast überall durch Fracking Erdöl und Erdgas gefördert werden kann, eben weil das Zeug genau wie Helium überall unter der Erdoberfläche nach oben drückt und sich nur an einigen Stellen eben gut ansammelt, während die Konzentrationen an anderen Stellen geringer sind und es sich dort schwerer rausholen lässt. Die Erdoberfläche hält aber beides fest, mancherorts besser als anderswo, aber so ganz überall kommt Helium eben doch nicht einfach durch. Und fragt den nächsten der bei Erdöl und Erdags was von fossilen Energieträgern erzählt mal nach dem Beweis für seine These, denn bei allen Experimenten Pflanzen- oder Tierreste zu Erdöl zu verwandeln ist meist sowas wie Kohle rausgekommen, die Kohle ist wirklich ein fossilen Energieträger und darin lassen sich sogar zuweilen auch Fossilen finden, bei Erdöl war dies nie der Fall.

Nur ein kleiner Beitrag zu Thema: Lasst euch nicht von allen verarschen, auch wenn dies fast Alle tun und fast Alle es glauben, weil es eben so gelehrt wird, muss es nicht wahr sein! Es wurde auch mal gelehrt das die Sonne sich um die Erde drehen würde, die selbst eine Scheibe wäre und nicht daran zu Glauben könnte ein Todesurteil sein!
halbtuer2 schrieb:
Denn soweit ich es weiß funktioniert das nicht. Denn Helium ist sehr, sher diffus.
Dann ist Dein Wissen schlechter als das der Ingenieur der HDD Hersteller, denn die haben es offenbar inzwischen geschafft und vertrauen deren Methode so sehr, dass sie HDD mit Heliumfüllung mit 5 Jahren Garantie verkaufen.
 
Zuletzt bearbeitet:
Rock Lee schrieb:
Von diesen Helium-Dingern halte ich nicht viel. Helium ist doch ein flüchtiges Element?

Mir ist neulich aufgefallen, dass WD Red mit 8 TB einen neuen SMART Wert haben, der "Helium Level" (oder so ähnlich) heißt. Also werden die Hersteller schon damit rechnen, dass der Helium-Level langsam absinkt und irgendwann zu viel Luft und zu wenig Helium vorhanden sein wird.
Die Frage ist doch allerdings: wie lange dauert das, und wie lange benutzt man eine HDD normalerweise? Wenn der Heliumlevel beispielsweise im Schnitt 10 Jahre lang okay ist, dann ist mir das völlig egal.

Die Garantiezeit werden die Platten auf jeden Fall normalerweise überleben, ansonsten würden sich die Hersteller damit ja selbst ins Knie schießen.
Ich habe einige 8 TB WD Red seit etwas über einem Jahr bei der Arbeit, mit denen hatte ich bisher null Probleme. Ich müsste mal die SMART Werte anschauen um zu sehen, ob der Helium-Wert schon gesunken ist. Normalerweise sehe ich die SMART Werte von den Platten nicht, weil sie alle in mehreren Drobo 5Ds stecken.
 
Zuletzt bearbeitet von einem Moderator:
Schon heftig wie der Fortschritt sich verlangsamt.
1999 hatten ´mein erster PC 2 GIGAbyte, man muss sich das vorstellen, das sind 1000 Megabyte! Die ersten PC`S hatten 40 MB.
2004 hatte mein Rechner schon 200 GB, und seit 2010 hat mein Laptop 200GB. 2 TB Festplatte um die Daten zu speichern, und noch mal eine 2TB für Sicherungskopien.
Wäre dieser Fortschritt so weitergegangen müsste ich heute einen PC mit 20-100 Terabyte Festplatte.
Die SSD`s schätze ich werden immer billiger, bis sie die Festplattenpreise unterbieten, dann sterben die Festplatten aus...
 
MichaG schrieb:
Die ST12400N ist zwar auch 3,5 Zoll breit, aber in der Höhe (41,1 mm!!)

He he, da gab's früher auch noch mit 5,25" ganz gute Monster, die gingen dann bis 82 mm! ;)
Ergänzung ()

Holt schrieb:
Vielleicht probiert man es einfach mal mit der häufigsten verwendeten: Im Finanzumfeld ist es nicht unüblich davon zu reden das ein Wert nach Nordern oder nach Süden abgedreht ist.

Diese Ausdrücke in wirtschaftlicher Hinsicht sagen mir auch nichts, da bin ich auch nicht zuhause.
Bitte aber die Ausrichtung einer Karte nicht mit einer Projektion/Abbildung verwechseln, von der koech geschrieben hat, denn sonst bist du ja auch immer hypergenau und pingelig. ;)
 
Zuletzt bearbeitet:
shuikun schrieb:
Dauert dann ja nur mind. 15h bis sie voll ist.
Nein, mindestens fast 19½ Stunden, denn HDDS haben ja auf den äußeren Spuren mehr Sektoren pro Spur als auf den inneren und erreichen daher auf den äußeren Spuren höhere Datentransferraten als auf den inneren, da liegt etwa der Faktor 2 dazwischen. Bei maximal 250 bis 260MB/s auf den äußeren Spuren, den Wert geben die Hersteller ja immer an, dürften im Schnitt über die ganze Kapazität etwa 200MB/s möglich sein.
FossilCar schrieb:
Schon heftig wie der Fortschritt sich verlangsamt.
Das ist aber immer so, je weiter die Entwicklung schon fortgeschritten ist. Es wird eben irgendwann immer schwerer noch mehr rauszuholen.
FossilCar schrieb:
Die ersten PC`S hatten 40 MB.
Meine erste HDD hatte 20MB!
FossilCar schrieb:
Die SSD`s schätze ich werden immer billiger, bis sie die Festplattenpreise unterbieten, dann sterben die Festplatten aus...
Auch beim NAND ist die Entwicklung schon weit fortgeschritten und eine weitere Steigerung der Datendichte, die für die Senkung der Kosten pro GB immer entscheidend ist, ist bei planaren NANDs schon nicht mehr machbar, die Zellen und Zellabstände sind bei 14 bis 16nm einfach schon zu sehe am Limit. Also geht im in die 3. Dimension, aber pro Layer sind damit auch mehr Bearbeitungsschritte nötig die auch wieder Kosen verursachen. Bei Samsungs 3D NAND ist die Kostenparität wohl erst jetzt mit dem 64 Layer NAND erreicht, IMFT hat es schon bei seiner ersten Generation mit 32 Layern geschafft. Nur kann man eben auch nicht beliebig viele Layer übereinander schichten, die wirtschaftlich machbare Grenze wurde mal bei 128 vermutet und dürfte mit der Zeit weiter steigen, auch kann man die Größe und Abstände der Zellen wieder weiter verringern, nur dann verstellt man sich den Weg über mehr Bits pro Zelle die Datendichte zu steigern.

Bei NAND wachsen die Bäume also auch nicht in den Himmel und auch da fallen die Kosten pro GB (vom Schweinezyklus der derzeit für sehr hohe Preise sorgt mal abgesehen) auch immer langsamer und dürften wohl nie die von HDDs erreichen. HDDs werden also kaum jemals komplett durch SSDs ersetzt werden, weil diese ihren Kostenvorteil noch lange behalten werden, denn mit Techniken wie MAMR und HAMR haben HDDs ja noch Potential eine deutliche Steigerung der Datendichte zu erzielen. Es gab ja schon öfter solche Technologiesprünge bei HDDs, so hat man anfangs auf allen Spuren die gleiche Anzahl an Sektoren gehabt womit auf die äußeren Spuren viel Platz verschwendet wurde, oder die Umstellung auf PMR.
 
FossilCar schrieb:
Schon heftig wie der Fortschritt sich verlangsamt.
1999 hatten ´mein erster PC 2 GIGAbyte, man muss sich das vorstellen, das sind 1000 Megabyte! Die ersten PC`S hatten 40 MB.

2gb sind nicht 1024 mb sonder 2048mb ;)

Das die Entwicklung von HDD nicht mehr so arg nach vorne geht wird wohl auch darin begründet sein, daß zumindest im privaten Bereich nur wenig Nachfrage nach 100TB Platten vorhanden ist.
 
Nein, 2GB (groß geschrieben, klein geschrieben gibt es das G nicht und ein kleines b ist die Abkürzung für Bit, ein großes B die für Byte) sind 2*1000^3 Byte. 1024 ist bei Binärpräfixe, also auf Basis von Zweierpotenzen, denn wäre es aber 2GiB als Einheit für Gibibyte und die entsprechend dann 2048 MiB. Datenträgerhersteller geben die Kapazität aber immer in den nach dem Internationalen Einheitensystem (SI) definierten Dezimal-Präfix an, dies steht eigentlich auch immer in den Fußnoten der Datenblätter. Windows macht es leider bis heute so, dass zwar auf Basis der Zweierpotenzen gerechnet wird, aber statt der korrekten Einheiten für die Binärpräfixen dann die der Dezimal-Präfixe verwendet werden.
 
Zuletzt bearbeitet:
Lieber Holt, mit dieser Art von Besserwisseritis bist du gut im Forum von Golem aufgehoben.

Was du auch immer mit deinem Post sagen willst, ändert nichts daran das die Aussage von Fossilcar falsch ist.
 
Lieber tek9, mit deiner Art der Besserwisserei obwohl du es gar nicht wirklich weißt, wärst du im Forum von Computerbild besser ausgehoben, da kann der Einäugige noch König unter den Blinden sein. Was ich sagen will ist, das gb und mb keine Abkürzungen für Einheiten sind und GB und MB sind Dezimalpräfix, also auf Basis von 1000, GiB und MiB sind die Binärpräfixe, also für die Einheiten auf Basis von Zweierpotenzen.

2GB sind 2.000.000.000 Byte oder auch 2000MB. 2048MB sind 2.048.000.000 Byte, also mehr und nicht gleich viel. 2GiB sind 2*1024^3 = 2.147.483.648 Byte oder 2,147GB oder 2147MB oder 2048MiB.
 
Zuletzt bearbeitet:
tek9 schrieb:
2gb sind nicht 1024 mb sonder 2048mb ;)
gb und mb ist aber keinen Einheit für Festplattenkapazitätien, sondern GB und MB! Dann sind 2GB auch nicht 1000, 1024 oder 2048, sondern genau 2000MB, was du hoffentlich auch verstanden hast.
 
In Zeiten in deinen Leute gerne mal schnell was unterwegs zusammen tippen gehen solche Details auch mal unter.

Aber egal, dein genörgel ändert weiterhin nichts daran das die Aussage von fossilcar falsch ist.

Gehts dir ansonsten gut? Deine Beiträge wirken etwas verkrampft :D
 
Zurück
Oben