• ComputerBase erhält eine Provision für Käufe über eBay-Links.

News Mehr Kapazität dank 7-Platter-Festplatten mit Heliumfüllung

DaBzzz schrieb:
Falsch. Die Idee eines internen RAID0 über alle Leseköpfe gibts schon länger, aber aus irgendwelchen Gründen macht das kein Hersteller ;)
Ich denke mal, dass man dafür die einzelen Leseköpfe separat steuern müsste statt wie bisher alle zusammen. Das dürfte sowohl Probleme beim Preis als auch bei der Umsetzung und Empfindlichkeit der Geräte bereiten.
 
Ich glaub so einfach ist das nicht. Sicher, Diffusion und Unterdruck sind zwei unterschiedliche Kräfte. Das ändert aber nichts an der Tatsache, dass in diesem Fall diese beiden unterschiedlichen Kräfte genau gegenüber stehen, etwa wie Kapillarwirkung gegen Schwerkraft (Beispielsweise ein Wassertropfen am Wasserhahn) und das ist dann ein Bereich der wirklich ans Eingemachte geht.
Ich versuche es zu erklären.:)

Definieren wir mal Druck (in Gasen), Unterdruck usw.:
Druck ist die Eigenschaft der Gasmoleküle (oder Atome) ihren eigenen Impuls an einer Wandfläche teilweise abzugeben. Gasteilchen, bewegen sich ständig und prallen auch untentwegt aneinander. Jedes Gasteilchen hat eine bestimmt Masse und eine Geschwindigkeit --> Masse*Geschwindigkeit=Impuls. Dieser Impuls wird an die Wand abgegeben. (wir messen eine Kraft) Jede Sekunden prasseln unzählige Gasteilchen auf uns ein. Je höher der Druck ist, desto mehr Teilchen pro Sekunde. Die Einheit des Drucks ist N/mm² (oder bar, Pascal, Pounds per square inch, oder,...)
Das abgeben des Impulses kostet auch keine Energie, da das Gasteilchen in der Regel auch gleich wieder zurückprallt.

Ein Unterdruck bedeutet also nur, dass dort weniger Teilchen pro Sekunde und pro Fläche auf eine Wand treffen, als bei 1 bar (mittlerer Atmosphärendruck).
Einige dieser Teilchen vor allem sehr kleine geben aber ihren Impuls nicht an der Grenzfläche ab und flutschen rein in das Material. Unweigerlich gibt es dann nur mehr 2 Richtungen. Raus oder Rein. (und hier kommen eben die Diffusionsgesetze zur Anwendung)
 
Zuletzt bearbeitet:
Es bleibt halt wirklich die Frage, wie langlebig so eine Platte ist, denn offenbar dürfte es spätestens dann Probleme geben, wenn das Helium austritt und stattdessen Luft eintritt. Ob es gelingt in der Großserienfertigung die Dichtigkeit über Jahre hinweg zu garantieren?
 
@Sherman
Klasse und sehr verständliche Erklärung, fehlt nur noch eine Beschreibung der Diffusion selber in ähnlicher Qualität, dann wären wir am Ziel :]. Ich bin auch mal deinem Hinweis mit dem Fick'schen Gesetz nachgegangen. Bei Formelwerken à la
91b3787213e926ac9354db90b0de2f57.png
, da lese ich zwar nur Joule = -Bahnhof, aber aus der (Wikipedia-)Prinzipbeschreibung, da geht so wie ich das verstehe doch hervor dass die Diffusion und der Druckausgleich so weit weg von einander gar nicht sind. Es geht im Prinzip doch auch bei der Diffusion um Freiheitsgrade in der Bewegung und der daraus resultierenden höchstmöglichen Entropie. Ist die Frage wie diese Entropie aussieht, wenn du ein Material hast, das einen Teil der Gasmoleküle und Atome blockiert. Ich würde annehmen, dass ein Teil der Heliumatome und auch der Wasserstoffatome der Umgebungsluft ihren Weg ins Atomgitter des Gehäusematerials finden, weil dort bis zur Sättigung des Metallgitters die Freiheitsgrade für die Atome höher sind als in der Atmosphäre. Von der anderen Seite, also von Gehäuseinneren her gesehen, gilt das gleiche. Die Entropie über das gesamte System würde bedeuten, dass die Metallhülle dann sowohl gegenüber der Außen- wie auch der Innenathmosphäre mit Heliumatomen gesättigt ist, wobei im Innern ein Druck herrscht der kein Vakuum ist. Wie hoch dieser Druck ist, das ist die spannende Frage die über die Lebensdauer der Festplatte entscheidet. Bedenken muss man aber, dass sich das Helium der Umgebungsluft ständig nach oben in Richtung Weltraum verflüchtigt, weshalb das Entropiebestreben der Heliumatome zur Gehäuseaußenseite ein etwas höheres Vorzeichen haben sollte, wodurch der Innendruck immer etwas niedriger sein würde als der Außendruck. Wäre aus meiner Sicht die logisch Konsequenz.
 
Zuletzt bearbeitet:
Wie man sich den Koeffizienten D herfängt, weiß ich auch nicht.

1.Fick'sches Gesetz: Das Gesetz beschreibt die Teilchenwanderung eindimensional - entlang einer Linie.
Der Teilchenfluss ist proportional der örtlichen Änderung der Konzentration. Das bedeutet je höher der Konzentrationsunterschied zweier Positionen und je kleiner der Abstand dieser beiden Positionen ist, desto höher ist der Fluss von Teilchen.

2. Fick'sches Gesetz: In der Praxis ist meist die zeitliche Änderung der Konzentration interessanter als die örtliche --> das ist die nötige Erweiterung. Außerdem kann man über entsprechende Randbedingungen die Differntialgleichung lösen und genau bestimmen, an welchem Zeitpunkt sich 2 Stoffe vollständig (statistisch) selbst vermischen. (z.B. in der Stahlproduktion berechnet man sich Lösung der Diffgl.)


Die Entropie über das gesamte System würde bedeuten, dass die Metallhülle dann sowohl gegenüber der Außen- wie auch der Innenathmosphäre mit Heliumatomen gesättigt ist, wobei im Innern ein Druck herrscht der kein Vakuum ist.
Ich bin mir nicht ganz sicher, ob ich dich auch richtig verstehe: Die Diffusion durchs Metallgehäuse läuft solange ab, bis der Konzentrationsunterschied zwischen Außenluft und Innenluft Null ist. (und da Helium in unserer Atmosphäre so gut wie gar nicht vorkommt, bis nix mehr davon da ist)
Das sind alles mehr oder weniger Platzwecheselvorgänge.
 
Zuletzt bearbeitet:
Ok, lass mich erst mal eine Aussage von mir korrigieren: eine Sättigung im Metallgitter kann nicht stattfinden, da ja das Helium der Erdatmosphäre niemals gesättigt ist. Müsste man statt dessen vom gleichen Sättigungsgrad reden. Soviel dazu.

Davon ab ist deine Aussage die, dass bei einem Massenanteil von beispielsweise 0,01% Helium in der Erdatmosphäre der Ausgleich(oder die größtmögliche Entropie) dann erreicht sei, wenn sich im Gehäuseinneren die selbe Masse an Helium im selben Raum verteilt hätte. Also Außen beispielsweise 0,02 Milligramm Helium/Liter Luft = 0,02 Milligramm Helium/Liter (fast-)Vakuum des Gehäuseinnern? Ohne das die Bedingungen des Vakuums, sprich: die darin sehr viel höhere Bewegungsfreiheit der Atome irgendeinen Einfluss auf den Diffusionsfluss hätten? Oder bedeutet der Konzentrationsausgleich einfach, dass im Vakuum mehr Helium/Liter vorhanden sein muss, weil ein gewisser Teil des selben Volumens in der Außenluft ja schon mit anderen Gasatomen besetzt ist?

ps: Du weist was du mir damit antust! Ich werde nie wieder in meinem Leben zur Ruhe finden, bevor ich nicht auf eine meine Logik befriedigende Erklärung dieser Fragen treffe.
 
Zuletzt bearbeitet:
größere Festplatten sind zwar toll aber mir reicht eine mit ein bis zwei Plattern in 2,5 Zoll, das wichtigste was ich für mich dabei raus gelesen habe ist leiser, kühler und 23% weniger Energieverbrauch :D

aber das mit dem Helium scheint wohl nicht so einfach zu sein
 
Wäre eigentlich ein Vakuum nicht auch eine Option? Also statt Heliumfüllung oder Sonstigem einfach die Platten in einem Vakuum laufen lassen.
 
bof, die Frage hatten wir schon 6-7 Mal in diesem Thread. Einfach mal etwas blättern.
 
Ameisenmann schrieb:
Schon ne klasse Sache, aber seit bestimmte Internetseiten geschlossen haben, brauche ich erstaunlich weniger Platz :D. Jedenfalls reichen mir meine insgesamt 6,5TB noch sehr lang.

Kimble will das Angebot neu starten ;) Diesmal nur unter dem Namen "Mega"

:evillol:

crustenscharbap schrieb:
:D wie lollig. :D

Warum ist dort kein Vakuum? Dann gibt es gar keine Reibung.
Ich dachte das wäre bei Festplatten schon längst der Fall.

bof schrieb:
Wäre eigentlich ein Vakuum nicht auch eine Option? Also statt Heliumfüllung oder Sonstigem einfach die Platten in einem Vakuum laufen lassen.



zu geil.

Meine Doktorarbeit wird die Informations-Ignoranz in Internetforen oder auch IIiI ^^

Thread wird erstellt.
99% der Leute lesen die Überschrift und posten eine Anwort blind.
1% ackert sich durch die Beiträge durch, weil sie das Thema interessant finden und vorhandene Kommentare und Diskussionen sowie Antworten lesen möchten.
 
Zuletzt bearbeitet:
Und was ist, wenn das doch sehr flüchtige Helium plötzlich nicht mehr da ist?

Programmierte Festplattenlebensdauer: 2,5 Jahre
 
bof schrieb:
Wäre eigentlich ein Vakuum nicht auch eine Option? Also statt Heliumfüllung oder Sonstigem einfach die Platten in einem Vakuum laufen lassen.
Und wie schweben dann bitte die Köpfe über der Platte im laufenden Betrieb?
Bodeneffekt ist der gesuchte physikalische Effekt an dieser Stelle.

beckenrandschwi schrieb:
Und was ist, wenn das doch sehr flüchtige Helium plötzlich nicht mehr da ist?

Programmierte Festplattenlebensdauer: 2,5 Jahre
Naja, die Hersteller könnten ein Ventil einbauen über welches sich Helium nachfüllen lässt. Das würde die Nutzung allerdings parktisch auf den IT-Profisektor einschränken.
 
Ob es nun technisch nötig wäre oder nicht, so ein Nachfüllventil wäre wirklich interessant. Gute Idee! Wenn eine Möglichkeit angeboten würde die Festplatte mit Heliumkapseln(in Form der CO² Kapseln die man von Sahnespendern oder Sprudelmaschinen kennt) nachzufüllen, könnte man das sogar privat unternehmen.
 
WinnieW2 schrieb:
Naja, die Hersteller könnten ein Ventil einbauen über welches sich Helium nachfüllen lässt. Das würde die Nutzung allerdings parktisch auf den IT-Profisektor einschränken.

Oder man legt die Platten bei Nichtgebrauch in die Helium-Kammer, damit es zurückdiffundieren kann. ;)
 
Mal ehrlich: Wer hat denn bitte als Privatmann eine Gasflasche mit Helium zuhause herumstehen? Höchstens Leute die als Ballonverkäufer bei Jahrmärkten arbeiten. ;)

Ich stelle mir allerdings schon die Frage ob solche Platten für den Nutzer zuhause überhaupt sinnvoll sind, denn für Archivierungszwecke (zumindest im Privatbereich) sind diese weniger geeignet falls die nach ein paar Jahren aufgrund Gasverlust im Gehäuse nicht mehr einwandfrei funktionieren.
 
Zuletzt bearbeitet:
Blutschlumpf schrieb:
Oder man legt die Platten bei Nichtgebrauch in die Helium-Kammer, damit es zurückdiffundieren kann. ;)
Warum von Außen "nachfüllen"? Einfach Plutonium 238 als dezentrale Endlagerstätte innen reinpacken, womit durch radioaktiven Alphazerfall Helium ständig nachgeliefert wird :D
DaBzzz schrieb:
Falsch. Die Idee eines internen RAID0 über alle Leseköpfe gibts schon länger, aber aus irgendwelchen Gründen macht das kein Hersteller ;)
Cool Master schrieb:
Ich kann dir auch sagen warum :) Das liegt daran das man dem Kunde nicht vorschreiben möchte was er für einen RAID Mode zu wählen hat oder ob er überhaupt ein RAID will, wobe ich sage bei diesen größen sollte man schon zu einem RAID 1 oder 5 greifen.
DaBzzz schrieb:
Ein platteninternes RAID5 wär ja nett, aber es hilft halt bei Defekten von Mechanik und Elektronik kein bisschen ;)
Bei der angedachten Methode der parallelen Verarbeitung auf allen Oberflächen handelt es sich keineswegs um RAID, das wäre bloss eine andere Art der internen Adressierung.
Üblicherweise wird auf der ersten Spur der Reihe nach Block 0,1,2,3,... lokalisiert sein.
Bei einer HDD mit zB 4 Platter mit 8 Köpfen sind pro Cylinder also 8 Spuren, die bei paralleler Bearbeitung(so die möglich wäre) dann folgende Aufteilung aufweisen müssten:

Spur 0: Block 0,8,16,...
Spur 1: Block 1,9,17,...
...
Spur 7; Block 7,15,23,...

Da heutige HDDs bis zu 200MB/s überträgen, müssten damit 1600MB/s erreichbar sein.
Da stellt sich bloß die Frage, wohin mit den Daten? Ein SATA III-Interface schafft bloss ein Drittel davon. Also ab in den Cache, bis der voll ist, und eine weitere Umdrehung warten und dann weiterlesen, wenn die Daten aus dem Cache per DMA in den RAM übertragen wurden.
Für eine sinnvolle Arbeit müsste dann auch die Cache-Kapazität aufgeblasen werden.

Da historisch gewachsen bisher immer nur ein Kopf aktiviert wurde, müssten dann auch dementsprechend mehr durchkontaktierte Anschlüsse zur Kopfbaugruppe geschaffen werden, die gegen Übersprechen voneinander geschirmt werden müssen, um dann außen von der 8-fachen Anzahl Schaltungen zur Signalumsetzung und Fehlerkorrektur zum Cache weitergeleitet zu werden, der dann auch für 8-fachen gleichzeitigen Zugriff ausgelegt sein muss.

Das nächste Problem ist die Spurnachführung von 8 Köpfen gleichzeitig. Als Ausweg wäre die zweistufige Zugriffskaskade, wie sie ein Hersteller schon bei seinen Serverplatten zur Anwendung bringt, denkbar: Jeder Kopf kann, nachdem der Arm in der ungefähren Position ist, selbsttätig per Piezoelemente feinjustiert werden.

Das wirft ein weiteres Problem auf - positioniert ein Kopf nach rechts, wird dadurch der ganze Arm ein kleines Stück nach links versetzt, wodurch wieder die am selben Kamm sitzenden restlichen Köpfe ein Stück in die gleiche Richtung korrigieren müssen - ob man die dabei entstehenden Schwingungen in den Griff kriegt?

Gleichzeitiges Lesen und Schreiben von 8 Köpfen erfordert höhere Stromaufnahme und Wärmeabgabe.

Und wozu das Ganze? Nur um die Datentransferrate zu verachtfachen, wo die doch bloß einen Anteil von einem Tausendstel der Zeit für die vorher nötige Positionierung hat, also eine völlig sinnlose Verbesserung(wenn man von der Notwendigkeit virtuell schwanzverlängernder Benchmark-Ergebnisse im seq. Transfer absieht :D ).
Im Normalbetrieb werden bloss kleine Datenbereiche in einem Stück verarbeitet, wo das parallele Lesen/Schreiben für die Katz ist. Zum schnelleren Beschreiben einer HDD ist eine Cache-SSD die einfachere Methode.
 
Zuletzt bearbeitet:
Ich versteh es eh nicht, mit dem Speed. Schon heute kann man mit einer HDD Gigabit auslasten. Mit einem kleinen RAID5 kann man auch einen PortChannel/-Bonding mit 2 Gigabit auslasten logischerweise.
Wer braucht mehr? Storage wird doch eh immer mehr dezentralisiert, in NAS oder Server.
Ich mein, mein RAID ist ja auch ganz nett, kommt weit über 300 je nach Dateien, aber wann nutzt das? Auf einer LAN, und wenn ich gleichzeitig hin und her kopiere... Wie oft kommt das vor?

Will nur sagen, dass man mehr momentan nicht braucht. Auch QuadHD Content geht locker von ner HDD.
Und für Zugriffsgeschwindigkeiten sind es SSDs.
Alles, was man braucht, ist PLATZ. MASSIV Platz. Und daher ist dieses Ding perfekt, auch ohne "internes RAID" oder so. Zumal, wie gesagt, die Controller dann immer noch nicht redundant sind.
Daher lieber ein RAID5 mit 8 7TB Platten. (*Träum*)

Interessant sind Zugriffszeiten. Die bekommt man wiederum mit kleineren Plattern (=weniger Kapazität) oder schnelleren Umdrehungen (=mehr Wärme, mehr Lärm), oder?
 

Ähnliche Themen

Zurück
Oben