News Mehr Kapazität dank 7-Platter-Festplatten mit Heliumfüllung

@Merle

Sieben bzw. Neun, 7TB platten wären besser für RAID 5 :)
 
@Merle

Diese Festplatten taugen nur bedingt für Server egal welcher Art. Sie taugen in erster Linie zum Aufbau von Archiven und evtl., sofern sie bezahlbar sind, für den Privatanwender als günstiger Speicher mit viel Platz.

In professionellen Speichersystemen (z.B. NetApp) sind immer SAS oder FC Platten verbaut, bei NetApp mittlerweile nur noch SAS, eine ATTO- oder SAS-Bridge sorgt dann dafür das die SAS Platten wieder FC sprechen. Wie dem auch sei diese Art Festplatten, SAS und FC gibt es nur bis zu einer Größe von 600GB, dafür aber mit 10.000 oder 15.0000 U/min..
Man kann auch Disk Shelves kaufen welche mit SATA Platten bestückt sind, diese sind aufgrund der langsamen Drehzahl von 7200 U/min. und der damit verbundenen geringen Peformance in erster Linie für Archive geeignet, eben für Szenarien wo IOPs und Performance eher zweitrangig sind.
 
Ernst@at schrieb:
Das nächste Problem ist die Spurnachführung von 8 Köpfen gleichzeitig

Das dürfte wohl der Wahre Grund des Ganzen sein. Schnellere Anschlüsse währen ja sonst nicht so das Problem - das wandert so langsam mittlerweile doch sowieso schon alles direkt in die CPU/PCIe-Lanes rein..

Ich denke die meisten hier würden sich wünschen dass die einzelnen Köpfe der Platter sich völlig voneinander unabhängig bewegen könnten (was aber natürlich nicht möglich ist mit der aktuellen Bauform)..
 
@Cytrox

Die Idee dahinter ist gar nicht mal schlecht! Muss wirklich sagen das hätte mMn nur Vorteile aber wie du schon gesagt hast aktuell nicht Umsetzbar, außer das Zeug wird noch kleiner.
 
@Cool Master:
Mein LSI kann halt 8 Platten :p Also mein privater Storage :)

@Dr. MaRV:
Ich spreche von Privatszenarios. Ich weiß, für privat ist es viel. Aber meine 10 TB sind schon wieder voll. :)
Das war bewusst übertrieben. :)

In Enterpriseszenarios kenne ich mich schon aus, wir haben hier auch ein paar NetApps im Einsatz, oft aber alte mit 3,5" noch. Und ja, ich kenne SAS 2,5 usw :p
 
@Merle

I hear you ;) hab das gleiche Problem nur das es nur 4 sind :)
 
Dr. MaRV schrieb:
Diese Festplatten taugen nur bedingt für Server egal welcher Art.
Weshalb bitte das denn?

Dr. MaRV schrieb:
Sie taugen in erster Linie zum Aufbau von Archiven und evtl., sofern sie bezahlbar sind, für den Privatanwender als günstiger Speicher mit viel Platz.
Gerade für Archive bei Privatanwendern halte ich dieses Verfahren mit Helium für problematisch. Über die Jahre hinweg wird das Helium aus dem Gehäuse entweichen und ab irgendeinem Tag in der Zukunft wird die Platte nicht mehr vernüftig funktionieren.
Und der Aufwand das Gehäuse der Platte erneut mit reinem Helium zu füllen dürfte nicht gerade kostengünstig sein.
 
WinnieW2 schrieb:
Weshalb bitte das denn?


Weil Server 24/7 an sind. Diese HDDs sind Consumer HDDs ergo auf an und ausschalten Optimiert nicht auf Dauerbetrieb. Dazu wurde schon gesagt Server haben SAS oder FC und nicht SATA. Alles andere sind möchte gern Server, die Ihren Job erledigen aber eben nicht so gut wie ein "echter" Server.
 
^^
Naja, es gibt versch. Einsatzgebiete für Festplatten. So gibt es mittlerweile Festplatten für NAS mit SATA-Schnittstelle, die für Dauerbetrieb optimiert sind.
 
Cytrox schrieb:
Ich denke die meisten hier würden sich wünschen dass die einzelnen Köpfe der Platter sich völlig voneinander unabhängig bewegen könnten (was aber natürlich nicht möglich ist mit der aktuellen Bauform)..
Da müsste aber eine völlig andere Technik zu Kopfbewegung erfunden werden, auf die man in den letzen 30 Jahren noch nicht draufgekommen ist.

Dr. MaRV schrieb:
Diese Festplatten taugen nur bedingt für Server egal welcher Art. Sie taugen in erster Linie zum Aufbau von Archiven und evtl., sofern sie bezahlbar sind, für den Privatanwender als günstiger Speicher mit viel Platz.
Die Diskussion um das Einsatzgebiet ist hier völlig fehl am Platz, da es sich um eine neue Technologieerprobung im Festplattenbau handelt. Oder haben Serverplatten noch kein "perpendicular recording" oder "advanced format"?

WinnieW2 schrieb:
Über die Jahre hinweg wird das Helium aus dem Gehäuse entweichen und ab irgendeinem Tag in der Zukunft wird die Platte nicht mehr vernüftig funktionieren.
Und der Aufwand das Gehäuse der Platte erneut mit reinem Helium zu füllen dürfte nicht gerade kostengünstig sein.
Bei zu wenig Helium gibts einfach einen Headcrash, also müsste das präventiv geschehen.
Oder den Aufdruck: "Best before ...." zur geplanten Obsoleszenz, wenn sich der Deckel nach innen wölbt. Samt neuem SMART-Attribut.
 
Ernst@at schrieb:
(...)Die Diskussion um das Einsatzgebiet ist hier völlig fehl am Platz, da es sich um eine neue Technologieerprobung im Festplattenbau handelt. Oder haben Serverplatten noch kein "perpendicular recording" oder "advanced format"? (...)

Der Punkt ist der, das Serversysteme mit FC oder SAS arbeiten und es diese Platten einfach nicht größer 600 GB (15.000 U/min.) oder 900 GB (10.000 U/min.) gibt. Somit werden nach jetzigem Standpunkt auch diese 7TB Platten nicht in Servern zum Einsatz kommen. Wir reden hier nicht vom DL110 oder 115 der sich Server nennt, eigentlich aber nur ein Desktop ist und demzufolge auch mit SATA ausgeliefert wird, die es freilich größer gibt. SATA hat in einem Server aber nichts verloren. Grund für die geringeren Kapazitäten bei SAS oder FC Platten sind andere verfahren in der Aufzeichnung der Daten und der Einsatz anderer Materialien. Des weiteren haben SATA Platten mehr Platter verbaut was bei SAS oder FC aufgrund der teilweise doppelten Drehzahl zu Problemen führen könnte -> rotierende Masse.
 
Zuletzt bearbeitet:
Was aber bei Beherrschbarkeit dieser Technologie auch im Serversegment Einzug halten wird.
Heliumbefüllt sollte es ja mit besserer Wärmeabfuhr, weniger Strömungswiderstand (= weniger Vibrationen) und somit besseren Zugriffszeiten, und geringerem Energieverbrauch punkten.
Vielleicht fällt damit auch etwas an höherer Informationsdichte und damit Kapazitäts- und seq. Datenratenverbesserungen ab.

Die mitrotierende Luft zwischen den einzelnen Platterscheiben ist ja ein Gegner der dort operierenden Köpfe, und wohl auch deswegen wird man bei den Enterprise-Modellen den Platterabstand nicht beliebig verkleinern können, 10k oder 15k sind bei 3,5" technisch nicht möglich, und mehr als die paar 2,5" Platter an Kapazität hergeben, ist eben nicht drin.

Was für ein Interface da drangepappt wird, spielt ja keine Rolle.
 
Zuletzt bearbeitet:
Dr. MaRV schrieb:
Des weiteren haben SATA Platten mehr Platter verbaut was bei SAS oder FC aufgrund der teilweise doppelten Drehzahl zu Problemen führen könnte -> rotierende Masse.

Mal von dieser 7-Platter und den 5P-Designs von Hitachi abgesehen:

http://www.hgst.com/tech/techlib.nsf/techdocs/DAC6606EE8DDF5D7862576490028557B/$file/US15K600_DS_final.pdf
Capacity (GB) 600 / 450 / 300
Data heads (physical) 8/6/4
Data Disks 4/3/2
...
Rotational speed (RPM) 15,000
 
@DaBzzz

Ja, aber eben nur mit 2,5" Plattern oder Data Disks, eben wegen der Masse. Um eine Masse auf die doppelte Geschwindigkeit zu beschleunigen ist die vierfache Energie nötig.
 
@Dr. MaRV
Das mit dem Masse-Geschwindikeitsverhältnis ist aber so nicht ganz haltbar. Quadratisch steigt der aerodynamische Widerstand. Von der Aerodynamik abgesehen, ist die benötigte Energie um einen Körper um ein bestimmtes Delta V zu beschleunigen aber bei jeder Ausgangsgeschwindigkeit gleich. Das ändert sich erst wieder wenn du dich der Lichtgeschwindigkeit näherst :].

@WinnieW2
Mal ehrlich: Wer hat denn bitte als Privatmann eine Gasflasche mit Helium zuhause herumstehen?
Der Hersteller selbst wäre es natürlich der zu seiner Heliumnachfüllfestplatte auch die entsprechenden Reparaturkits oder Wartungskits anbieten müsste. Da es schon seit Jahrzehnten Kleinstmengen-Gasnachfüllsysteme für den Hausgebrauch zu günstigen Preisen gibt(CO² Kapseln für den Sahnespender in der Küche) existiert diese Hürde ja praktisch nicht. Der Hersteller könnte sogar direkt auf die bestehende Technik zurückgreifen in dem er sie schlichtweg umfunktioniert(und sie natürlich entsprechend beschriftet :]). Vollkommen ungiftig ist das Edelgas auch, wobei für mich immer noch nicht geklärt ist, ob überhaupt und wenn dann nach welcher Zeit ein kritischer Heliumverlust auftritt.

@Ernst@at
___:cheerlead: :cheerlead: :cheerlead:
 
Dr. MaRV schrieb:
Um eine Masse auf die doppelte Geschwindigkeit zu beschleunigen ist die vierfache Energie nötig.

Vidy_Z schrieb:
@Dr. MaRV
Das mit dem Masse-Geschwindikeitsverhältnis ist aber so nicht ganz haltbar. Quadratisch steigt der aerodynamische Widerstand. Von der Aerodynamik abgesehen, ist die benötigte Energie um einen Körper um ein bestimmtes Delta V zu beschleunigen aber bei jeder Ausgangsgeschwindigkeit gleich. Das ändert sich erst wieder wenn du dich der Lichtgeschwindigkeit näherst :].
Die Rotationsenergie(und damit die zu deren Erreichung nötige Arbeit) ist quadratisch von der Drehzahl abhängig. Wer's nicht glaubt, sollte > mal in Physik nachlesen <. Ist keine Schande, auch Newton hatte an Linearität gedacht. Bist also in prominenter Gesellschaft.

Die Masse der Spindel ist nur beim Anfahren relevant, die Stromaufnahme ist dann eben beim Hochdrehen höher oder länger, Serverplatten brauchen dann eben eine halbe Minute dazu.
Wenn die Platte mal ihre Arbeitsdrehzahl erreicht hat, ist zur Aufrechterhaltung der Geschwindigkeit nur mehr der Verlust durch den Strömungswiderstand auszugleichen. Der ist nicht von der Masse abhängig, und quadratisch zur Geschwindigkeit, aber linear zur Oberfläche(Platteranzahl).

Den Heliumverlust dürfte HGST ja mit speziell versiegelten Gehäusen in den Griff bekommen haben, sonst würden diese Modelle nicht für 2013 angekündigt worden sein(zum > Originallink der Meldung < hat es in den CB-News leider nicht gereicht) - was bedeutet, dass entsprechende Fertigungslinien in den Werken schon im Aufbau sind.
Heliumtankstellen werden daher vorerst nicht gebraucht, erst bei Garantieablauf :p
 
Zuletzt bearbeitet:
Zudem ist Lachgas in hohen Dosen tötlich. Helium nicht außer du atmest nur Helium ein :D

@wsxedcrfv

Jo klar ;)
 
Zuletzt bearbeitet:
Ernst@at schrieb:
Und wozu das Ganze? Nur um die Datentransferrate zu verachtfachen, wo die doch bloß einen Anteil von einem Tausendstel der Zeit für die vorher nötige Positionierung hat, also eine völlig sinnlose Verbesserung(wenn man von der Notwendigkeit virtuell schwanzverlängernder Benchmark-Ergebnisse im seq. Transfer absieht :D ).
Im Normalbetrieb werden bloss kleine Datenbereiche in einem Stück verarbeitet, wo das parallele Lesen/Schreiben für die Katz ist. Zum schnelleren Beschreiben einer HDD ist eine Cache-SSD die einfachere Methode.

Naja, die Zugriffszeit dominiert nur bei bestimmten Anwendungen, z.B. beim Programmstart, kopieren (z.B. beim Erstellen eines Backups) würde viel schneller gehen, bei großen Dateien dominiert natürlich der sequentielle Anteil 8vorausgesetzt, die Daten sind nicht zu stark fragmentiert),. Auch bei durchschnittlich großen Dateien macht der sequentielle Anteil noch etwas aus: wenn z.B. die durchschnittliche Dateigröße 1MB ist, dann dauert das Schreiben bei 100 MB/s ca. 10ms, also in der Größenordnung der Zugriffszeit, 200 MB/s hat man ja nur am Anfang der Platte und es gibt sicher genug Leute, die die ganze Platte nutzen und z.B. bei 5MB durchschnittlicher Dateigröße macht beim Kopieren der sequentielle Anteil schon mehr aus als die Zugriffszeit (sogar bei 200 MB/s). Und es gibt auch andere Beispiele außer das Kopieren großer Dateien, wo der Zeitaufwand fast ausschließlich von der sequentiellen Datenrate abhängen, z.B. das Schneiden von Videos (ohne Neukomprimierung).

Ob jetzt Anwendungen, wo die Zugriffszeit dominiert wichtiger sind oder solche, wo die sequentielle Rate dominiert, hängt wohl von den persönlichen Präferenzen und dem Einsatzgebiet ab, mir persönlich ist es z.B. wichtiger, wie lange ein Backup dauert als ob der Programmstart um ein paar Sekunden schneller startet oder ein Spielstand um ein paar Sekunden schneller geladen ist.

Dazu kommt noch Marketing, höhere Datenraten lassen sich beim normal-DAU natürlich leichter vermarkten als schnellere Zugriffszeiten.



Jesterfox schrieb:
@tombrady: das ist leider eine komplette Fehlinterpretation der Sachlage... denn nur weil das Auge ab 24 FPS eine flüssige Bewegung erkennt heißt es noch lange nicht dass es mit mehr FPS nichts Anfangen kann. Aber diese Interpretation hat sich irgendwie festgesetzt... mehr Frames als 24 pro Sekunde bringen natürlich was, ansonsten würde ein CRT mit 60Hz nicht flimmern...

Ob man wirklich einen Unterschied merkt bei mehr als 24 fps weiß ich nicht, da müsste ich 2x den selben Film schauen, einmal mit 24 fps und einmal mit 48 fps und sonst in der gleichen Qualität (am besten unkomprimiert), aber das mit dem CRT ist ein schlechtes Beispiel, weil das einen ganz anderen Grund hat als die Probleme bei Filmen mit wenig FPS: bei einem CRT wird da Bild Zeilenweise durch den Elektronenstrahl abgetastet und der Phosphor verblasst dann, bis der Elektronenstrahl das nächste mal vorbeikommt. Das Gehirn integriert tatsächlich die Lichtmenge von ca. 1/25 Sekunde, auch wenn das Signal öfter über den Sehnerv gesendet wird. Aber da der Monitor nicht mit dem Auge synchronisiert ist, kann es z.B. sein, dass bei 60Hz einmal innerhalb 1/25 Sekunde der obere Teil vom Monitor 3x abgetastet wurde und der untere nur 2x, wodurch der obere Teil heller ausschaut. Und beim nächsten Bild ist es dann vielleicht umgekehrt, daher der untere Teil wurde z.B. 3x abgetastet und der obere 2x. Ab ca. 72Hz-75Hz nimmt man kein Flimmmern mehr wahr, weil mindestens 3 Bilder in der Zeit. über die das Gehirn mittelt ankommen und die Helligkeitsunterschiede dann zu gering sind, um noch wahrgenommen zu werden. Deshalb tritt das Flimmern auch nur bei CRTs auf, bei LCDs nicht, da gibts aber andere Effekte, die im Gegensatz zum Flimmern aber nur bei bewegten Bildern auftreten. Bei diversen Kinoprojektoren gibts auch Flimmern, weil das Bild eben wie bei einem CRT nicht immer gleich hell ist (selbst wenn es sich um ein Standbild handelt, daher mehrere Frames genau identisch sind), aber das hat nichts mit den FPS zu tun, mit denen man einen Film auf einem PC oder Fernseher anschaut.

Ernst@at schrieb:
Die Rotationsenergie(und damit die zu deren Erreichung nötige Arbeit) ist quadratisch von der Drehzahl abhängig. Wer's nicht glaubt, sollte mal in Physik nachlesen [URL im Zitat herausgeschnitten, steht nicht auf der Whitelist und daher kann ich sie nicht mehr posten]. Ist keine Schande, auch Newton hatte an Linearität gedacht. Bist also in prominenter Gesellschaft.

Newton wusste sicher schon, dass die Rotationsenergie quadratisch mit der Drehzahl geht, das lässt sich für einen Physiker leicht herleiten aus Kraft = Masse*Beschleunigung (über den Zwischenschritt kinetische Energie = Masse*Geschwindigkeit²/2, was man wiederum leicht aus der allgemeinen Definition von Energie (Kraft*Weg bzw. genauer die Integration der Kraft über eine Wegstrecke, in dem Fall die Strecke, auf der beschleunigt wird) herleiten kann).



Cool Master schrieb:
Zudem ist Lachgas in hohen Dosen tötlich. Helium nicht außer du atmest nur Helium ein :D

Dann ist aber nicht das Helium tödlich, sondern der Sauerstoffmangel.
 
Zuletzt bearbeitet:
Leute, ich verstehe überhaupt nicht, wie ihr zu dem Schluss kommt, dass die Geschwindigkeit nicht linear zur eingesetzten Leistung steigen würde. Vielleicht zu kompliziert gedacht? Im Wesentlichen gilt:


Leistung = Kraft x Zeit
Beschleunigung <> Kraft
Geschwindigkeit= Beschleunigung x Zeit

Die Formelzeichen:
V(Geschwindigkeit) = F(Kraft/Beschleunigung) x T(Zeit)
V = F x T

Die Einheiten:
V in m/s (Meter pro Sekunde)
T in s (Sekunden)
F in m/s² (Meter pro Sekunde pro Sekunde)

Ein Gedankenexperiment:
Wenn ich aus dem Stand auf eine Geschwindigkeit von 4km/h(relativ zur Erde) beschleunige, dann muss ich dazu die gleiche Energie aufwenden die ich benötige um in einem fahrenden Zug aus dem Stand auf eine Geschwindigkeit von 4km/h(relativ zum Zug) zu beschleunigen. Es ist ja nicht etwa so, das sich alle Bahnreisenden nur in Zeitlupentempo in Fahrtrichtung des Zuges bewegen könnten respektive in Zeitraffa gegen die Fahrtrichtung. Das einzige was sich logarithmisch zur eingesetzten Kraft verhält ist die zurückgelegte Strecke(Damit vielleicht verwechselt?). Das gleiche gilt selbstverständlich auch für die Bahngeschwindigkeit.

Mathematisches Beispiel:
Gegeben ist eine Rakete im Weltraum mit einem idealen Antrieb ohne Massenverlust.

1. Die Rakete beschleunigt über einen Zeitraum von 4s mit Erdbeschleunigung also mit 9,81 m/s²
V= F x T
V= 9,81 m/s² x 4s
V= 39,24 m/s


2. Die Rakete beschleunigt mit der selben Kraft über einen Zeitraum von 8s
V= F x T
V= 9,81 m/s² x 8s
V= 78,48 m/s


3. Die Rakete beschleunigt in zwei Stößen von 4s jeweils mit Erdbeschleunigung 9,81 m/s²
V= V1 + V2
V= F1 x T1 + F2 x T2
V= 9,81 m/s² x 4s + 9,81 m/s² x 4s
V= 39,24 m/s + 39,24 m/s
V= 78,48 m/s



Ergo:
Doppelte Leistung = Doppelte Geschwindigkeit. Die Geschwindigkeit verhält sich linear zur eingesetzten Leistung. Das mit dem zurückgelegten Weg spare ich aus. Wäre ein bisschen weit ab vom Thema. Die Ergebnisse kann man eins zu eins auf die Bahngeschwindigkeit übertragen, also wenn die Rakete an einer verankerten Schnur befestigt wäre welche die Rakete in eine Kreisbahn zwingen würde. Und auch dort wäre die Geschwindigkeit<>Drehzahl nicht zu verwechseln mit der Bahnlänge<>Winkelsumme.
 
Zuletzt bearbeitet:

Ähnliche Themen

Zurück
Oben