Das ist ein Fehler im Text sowie in der Tabelle. Es sind Bels und keine Sone.MichaG schrieb:Die verringerte Lautstärke macht sich mit 2,0 statt 2,9 Sone im Leerlauf bemerkbar.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Helium-HDD HGST Ultrastar He6 mit 6 TB im Handel gelistet
- Ersteller MichaG
- Erstellt am
- Zur News: Helium-HDD HGST Ultrastar He6 mit 6 TB im Handel gelistet
Die Lautstärke dürfte die Firmen am wenigsten interessieren, da die Platte hauptsächlich im gekühlten Rechnerraum stehen wo es sowieso laut ist und sich kein Mensch länger als nötig aufhält. Aber bei der Lautstärke sieht man in den letzten Jahren schon einen deutlichen Fortschritt.
Ja, den im Datenblatt der He6 steht
2 Bels sind 0,15 Sone oder 20 dB(A), wären es 2 Sone wie im Artikel, so wären das immerhin 50 dB(A) oder 5 Bels, also etwa so der Unterschied von raschelnden Blättern zu einer leisen Unterhaltung.Acoustics
Idle (Bels, typical) 2.0
T
Telesto
Gast
legan710 schrieb:Zudem sinkt mit der Anzahl der Festplatten auch das Risiko, dass die Daten durch Defek verloren gehen (weniger Platten=weniger Fehlermöglichkeit)
Eher das Gegenteil ist der Fall. Wenn man 120 TB auf 20 x 6 TB verteilt, gehen bei einem Plattenausfall 5% der Daten verloren, bei 30 x 4 TB nur 3,33%.
Creeed
Captain
- Registriert
- Sep. 2002
- Beiträge
- 3.859
Da hier in der Regel mit Raidsystemen gearbeitet wird ist nicht die Größe interessant sondern eher die Anzahl der Festplatten. Um bei deinem 120 TB Beispiel zu bleiben. Bei 20 Festplatten ist das Risiko dass mehr als zwei Festplatten ausfallen geringer wie bei 30 oder sogar 40 Platten.
Auf die einzelne Platte bezogen steigt das Risiko vermutlich schon an, aber auch da sind die Plattern und Köpfe ja nur ein Teil der Komponenten, die ausfallen könnten. Aufs gesamte System bezogen Creeed recht, da ist das Risiko geringer, weil weniger der anderen Komponenten wie Controller und Spindelmotoren vorhanden sind.
Telesto weil sowas professionell wohl kaum ohne Redundanz und obendrein Datensicherung betreiben wird, dürfte man da gar nichts verlieren.
Telesto weil sowas professionell wohl kaum ohne Redundanz und obendrein Datensicherung betreiben wird, dürfte man da gar nichts verlieren.
Zuletzt bearbeitet:
Defekte bei den Schreibleseköpfen kommen bei den Festplatten allerdings am häufigsten vor. Eine Reparatur der Platte lohnt sich dann praktisch nur wenn ansonsten wichtige Daten unwiederbringlich verloren wären.
Bedeutet: Die Ausfallwahrscheinlichkeit steigt tendenziell mit der Anzahl der Schreib-Lese-Köpfe. Ich hatte dazu sogar mal eine Studie in meiner Hand die genau das bestätigt hat. Festplatten mit mehr Köpfen und welche die über längere Zeit bei hoher Temperatur gelaufen sind hatten (statistisch) höhere Ausfallraten.
Ich kaufe deshalb keine Festplatten mehr die mehr als 5 oder 6 Köpfe haben und achte auf ausreichende Kühlung.
Mich würde aber tatsächlich mal interessieren welches Datenrettungsunternehmen von den Platten mit Heliumfüllung überhaupt Daten wieder auslesen kann im Defektfall. Weil einfach öffenen und wieder zuschrauben im Reinst-Raum geht ja bei diesem Modellen nicht.
Bedeutet: Die Ausfallwahrscheinlichkeit steigt tendenziell mit der Anzahl der Schreib-Lese-Köpfe. Ich hatte dazu sogar mal eine Studie in meiner Hand die genau das bestätigt hat. Festplatten mit mehr Köpfen und welche die über längere Zeit bei hoher Temperatur gelaufen sind hatten (statistisch) höhere Ausfallraten.
Ich kaufe deshalb keine Festplatten mehr die mehr als 5 oder 6 Köpfe haben und achte auf ausreichende Kühlung.
Mich würde aber tatsächlich mal interessieren welches Datenrettungsunternehmen von den Platten mit Heliumfüllung überhaupt Daten wieder auslesen kann im Defektfall. Weil einfach öffenen und wieder zuschrauben im Reinst-Raum geht ja bei diesem Modellen nicht.
Creeed
Captain
- Registriert
- Sep. 2002
- Beiträge
- 3.859
Du darfst hier nicht von den Hinterhofanwendungen im Consumerbereich ausgehen. Wir reden hier über Enterprise Festplatten die zu Dutzenden in Racks verbaut sind. Dahinter stehen riesige Redundanzen und eine Backupstrategie mit einer Hardware die einiges an Geld kostet. Wenn da eine Festplatte ausfällt schaltet der Controller automatisch auf ein Hotspare Device um. Der Controller macht dann automatisch einen Rebuild und das in einer Geschwindigkeit die man sich nicht vorstellen kann. Man kann trotzdem weiterhin die Daten lesen, Schreibzugriffe werden gebuffert bis der Rebuild fertig ist. Das Ganze wird gemeldet, dann tigert der ein FiSi hin und tauscht das Device mit dem blinkenden roten Lämpchen aus.
Warum sollte öffnen und wieder verschließen nicht wieder gehen? Oder ein Rettungssystem in dem das Gerät in einer Heliumatmosphäre liegt. Es geht ja nicht darum dass die Festplatte repariert wird damit sie weitere 10 Jahre funktioniert. Es geht um Datenrettung, Daten auf Streamertape oder auf eine andere Festplatte sichern. Das ist alles. Die defekte Platte wird danach sowieso entsorgt bzw. der Versicherung ans Knie genagelt. Einbauen wird die keine Firma die was auf sich hält.
Warum sollte öffnen und wieder verschließen nicht wieder gehen? Oder ein Rettungssystem in dem das Gerät in einer Heliumatmosphäre liegt. Es geht ja nicht darum dass die Festplatte repariert wird damit sie weitere 10 Jahre funktioniert. Es geht um Datenrettung, Daten auf Streamertape oder auf eine andere Festplatte sichern. Das ist alles. Die defekte Platte wird danach sowieso entsorgt bzw. der Versicherung ans Knie genagelt. Einbauen wird die keine Firma die was auf sich hält.
Inzersdorfer
Admiral
- Registriert
- Juli 2010
- Beiträge
- 7.391
Nicht so kompliziert denken, zur reinen Datenrettung wird keine Heliumatmosphäre benötigt.
"Einfach" Platter um Platter auf einem konventionellen Chassis auslesen.
"Einfach" Platter um Platter auf einem konventionellen Chassis auslesen.
Creeed schrieb:Wenn da eine Festplatte ausfällt schaltet der Controller automatisch auf ein Hotspare Device um. Der Controller macht dann automatisch einen Rebuild und das in einer Geschwindigkeit die man sich nicht vorstellen kann.
Solangs kein ZFS ist (also ein besseres Software-RAID), in einer durchaus vorstellbaren Geschwindigkeit bzw. Zeit. Nämlich der, in der die betroffene Platte einmal randvoll beschrieben wird. Bei ner 6TB mit noch gütig angenommener Geschwindigkeit also in 8-12 Stunden. Unter anderem daher sind die Tage von einem RAID5 als einigermaßen "sichere" Methode für die Verfügbarkeitssteigerung gezählt. Zumindest bei mechanischen Platten. SSDs rebuilden mit wesentlich kleineren Kapazitäten und wesentlich höheren Schreibraten ja massiv schneller, gehen aber auch möglicherweise öfter kaputt.
Stimmt, allerdings dürften die Platten selbst hier nicht so häufig verbaut werden. Welches Unternehmen braucht schon RAID-Systeme auf denen sich zweistellige TB-Datenmengen speichern lassen?Creeed schrieb:Du darfst hier nicht von den Hinterhofanwendungen im Consumerbereich ausgehen. Wir reden hier über Enterprise Festplatten die zu Dutzenden in Racks verbaut sind.
Die meisten davon kommen zur Zeit mit einstelligen TB-Mengen pro RAID-System aus.
Welches Datenrettungsunternehmen wird sich ein solches System beschaffen? Sowas kostet eine Menge Geld. Alleine Helium auf Vorrat zu lagern verursacht bereits laufende Kosten. Einen bedeutenden Verbreitungsgrad haben die Platten ja (noch) nicht dass sich das finanziell rechnen würde.Creeed schrieb:Warum sollte öffnen und wieder verschließen nicht wieder gehen? Oder ein Rettungssystem in dem das Gerät in einer Heliumatmosphäre liegt.
Das dürfte die deutlich kostengünstigere Alternativlösung dafür sein.Inzersdorfer schrieb:Nicht so kompliziert denken, zur reinen Datenrettung wird keine Heliumatmosphäre benötigt.
"Einfach" Platter um Platter auf einem konventionellen Chassis auslesen.
Die Platte drüfte bei der Datendichte im Schnitt maximal so 150MB/s schaffen, braucht also alleine schon über 11 Stunden um einmal komplett linear gelesen oder beschrieben zu werden. Wenn das RAID weiterhin verwendet wird, also Zugriffe erfolgen, dann dauert es zwangsläufig länger, weil die Köpfe der anderen Platten ja dann nicht nur deren Inhalt seq. Lesen können, damit der Controller die Daten für die Ersatzplatte generieren kann. Die Geschwindigkeit kann ich mir also zumindest sehr gut vorstellen, von 11 Stunden aufwärts wird es dauern, bis ein Rebuild durch ist.Creeed schrieb:Der Controller macht dann automatisch einen Rebuild und das in einer Geschwindigkeit die man sich nicht vorstellen kann.
Weil das Helium dann raus und Luft drin ist und man sie nie wieder 100%ig dicht bekommt?Creeed schrieb:Warum sollte öffnen und wieder verschließen nicht wieder gehen?
So ist es und das sollte wohl machbar sein. Andernfalls wird HGST sicher ein Datenrettungszentrum eröffnen und diesen Service selbst anbieten, aber bei den Anwendungen für so eine Platte sollte man niemals eine Datenrettungsfirma brauchen, sonst hat man sowieso schlechte geplant.Creeed schrieb:Es geht ja nicht darum dass die Festplatte repariert wird damit sie weitere 10 Jahre funktioniert. Es geht um Datenrettung
Das wäre ja dann ein internes RAID-0, welches nach meinem Verständnis zu einer größeren Fragmentierung der Daten führt und damit zu dem, was man auf einer Festplatte unter allen Umständen zu vermeiden sucht. Im Endeffekt wäre es vermutlich kontraproduktiv. Oder können die Köpfe eventuell nur synchron bewegt werden? Ich kenne mich mit dem mechanischen Aufbau zu wenig aus, könnte mir aber vorstellen, dass eine unabhängige Steuerung der einzelnen Köpfe zu viel Platz und Aufwand bräuchte.Holt schrieb:Dafür müsste man entweder die Drehzahl erhöhen oder man müsste die Datendichte steigern, beides ist aber nicht der Fall und da die Köpfe ja nicht parallel arbeiten, warum weiß bis heute nicht, eigentlich müsste man ja alle Plattern parallel lesen bzw. beschreiben können, aber das wird eben bisher nicht gemacht und daher steigt mit mehr Plattern eben die Übertragungsrate auch nicht an und diese HDD hat eben nur mehr Plattern um mehr Kapazität zu erreichen.
Grüße,
Thomas
Inzersdorfer
Admiral
- Registriert
- Juli 2010
- Beiträge
- 7.391
Wieso würde das zu einer größeren Fragmentierung der Daten führen? Man würde die Sektoren dann nur in einer anderen Reihenfolge ansprechen. Heute werden ja erst alle Sektoren eines Zylinders vom Kopf 0, dann vom Kopf 1, etc. gelesen, wenn man sequentiell liest. Dann kommt der nächste Zylinder dran und so weiter.
Wenn man jetzt die LBAs so verteilt, dass der erste Sektor 0 Kopf 0 und der zweiten Sektor 0 von Kopf 1, Sektor 0 Kopf 2, etc. wird und dann die Sektoren 1 aller Köpfe kommen,so könnte man alle Köpfe gleichzeitig lesen, wenn der Zugriff nur lang genug ist, genau wie es bei SSDs parallel über die NAND Kanäle passiert. Der HDD Controller müsste dann natürlich so viele Signale gleichzeitig verarbeiten können, wie Köpfe vorhanden ist und diese müssten alle gleichzeitig richtig positioniert sein, was mit der Dual Stage Actuator-Technology ja heute kein Problem sein sollte. Dann hätte eine 2TB Platte den doppelten Durchsatz wie eine sonst identische mit 1TB und bei der 6TB He würde die Bandbreite der SATA 6Gb/s nicht mehr ausreichen.
Wieso das nicht umgesetzt wird? Mehr Fragmentierung hätte es jedenfalls nicht zur Folge, da sehen ich nicht woher das kommen sollte.
Wenn man jetzt die LBAs so verteilt, dass der erste Sektor 0 Kopf 0 und der zweiten Sektor 0 von Kopf 1, Sektor 0 Kopf 2, etc. wird und dann die Sektoren 1 aller Köpfe kommen,so könnte man alle Köpfe gleichzeitig lesen, wenn der Zugriff nur lang genug ist, genau wie es bei SSDs parallel über die NAND Kanäle passiert. Der HDD Controller müsste dann natürlich so viele Signale gleichzeitig verarbeiten können, wie Köpfe vorhanden ist und diese müssten alle gleichzeitig richtig positioniert sein, was mit der Dual Stage Actuator-Technology ja heute kein Problem sein sollte. Dann hätte eine 2TB Platte den doppelten Durchsatz wie eine sonst identische mit 1TB und bei der 6TB He würde die Bandbreite der SATA 6Gb/s nicht mehr ausreichen.
Wieso das nicht umgesetzt wird? Mehr Fragmentierung hätte es jedenfalls nicht zur Folge, da sehen ich nicht woher das kommen sollte.
Penman
Lieutenant
- Registriert
- Feb. 2009
- Beiträge
- 819
Es heißt doch schon, dass wir mit 4 TB an der physikalischen Grenze wären. Die werden bei HGST und Co. doch nicht nur rumsitzen und versuchen die alte Bauweise ewig zu verbessern. Helium hat doch nur das Limit etwas nach oben verlegt.Holt schrieb:Aber das größte Problem ist vor alle, dass diese Technik wenig zukunftsweisend ist, denn wie will man so eine 8TB Platte realisieren? Etwa indem man 9 Plattern dort einbaut? Selbst wenn man diese noch in ein normal hohes Gehäuse bekommt, bei 11 oder mehr Plattern ist dann irgendwann Schluss und dann? Entweder geht man wieder in die Höhe, dann passen diese Platten nicht mehr in den normalen Einbauraum, von Problemen mit Schwingungen wegen der längeren Achsen mal abgesehen.
Eine neue Alternative muss her. SSDs sollen auch schon bald an Ihr Limit stoßen und dann wird sich der Markt bis zu einer neuen Innovation erst mal nicht bewegen.
JuggernautX schrieb:Der Preis ist natürlich vollkommen indiskutabel und auch die Langzeitstabilität zweifele ich an. Da aber die Schreie nach Speicherplatz immer lauter werden, sieht die Zukunft von HGST sehr rosig aus.
espirt schrieb:Jedes mal wenn was neues auf den Markt kommt sind die meisten Antworten gleich. Es ist viel zu teuer und es lohnt nicht.
[...]
Ich freue mich darüber, den erstens kommt endlich mal wieder etwas Bewegung in den Markt und zweitens werden die Preise für die 4TB und kleiner fallen. Des weiteren handelt es sich um den UVP und nicht um den Strassenpreis.
Es passt zumindest zu meiner persönlichen Prognose, dass die HDD-Preise im Frühjahr wieder fallen werden. Ich habe nur darauf spekuliert, dass diese Platten endlich in den Handel kommen. Sobald sie ausgeliefert werden und langsam günstiger werden, werden auch die 1-4 TB Platten im Preis fallen und genau dann kann man sehr gut zuschlagen.
Neuste/Beste Technik lässt man sich eben bezahlen. Machen Intel und NVidia doch auch so.
Das klingt durchaus vernünftig, aber der nette Nebeneffekt: Wenn diese Platte ausfällt, sind auch die Daten von 3 Platten weg. Das könnte durchaus schmerzhaft sein.espirt schrieb:Und die Platten sparen erheblich Strom, den jede Platte braucht im Betrieb ca. 4 Watt weniger und statt drei Platten benötigt man nur noch zwei was zusätzlich weitere 11 Watt braucht. Macht in Summe 14,6 Watt vs. 33 Watt. Dieser Unterschied ist im Dauerbetrieb schon heftig, wenn man dann noch überlegen wie sich das bei ein paar Hundert Platten auswirkt.
Mal abwarten. Die soll im Februar ausgeliefert werden, dann wird sich alles ein wenig bewegen und wir werden sehen, ob die Festplatte einfach davonfliegt. (Ich hoff CB testet, wie gut das Dingen schweben kann )
In gewisser Weise schon, denn mehr als 1TB pro Plattern ist schwer, Seagate versucht es mit dem geschindelten Schreiben, wurde ja auch hier schon vorgestellt. 4 bis 5 Plattern sind auch das Limit, was HGST eben mit Helium etwas anheben kann.Penman schrieb:Es heißt doch schon, dass wir mit 4 TB an der physikalischen Grenze wären.
Die arbeiten ja dran, nur wird man mit kleinen Optimierungen eben nicht mehr weiter kommen, was bisher noch immer ging. Nur einmal musst man bisher wirklich eine große Änderung einführen, als man auf PMR (vertikaler Aufzeichnungsverfahren) umgestiegen ist und jetzt ist es eben wieder soweit.Penman schrieb:Die werden bei HGST und Co. doch nicht nur rumsitzen und versuchen die alte Bauweise ewig zu verbessern. Helium hat doch nur das Limit etwas nach oben verlegt.
Penman schrieb:Eine neue Alternative muss her. SSDs sollen auch schon bald an Ihr Limit stoßen und dann wird sich der Markt bis zu einer neuen Innovation erst mal nicht bewegen.Penman schrieb:SSDs stoßen noch nicht an ihr Limit, da man halt immer mehr NAND Dies in ein Gehäuse packen kann, das Problem dabei ist nur, dass man so den Preis nicht senken kann. Dafür muss man mehr Daten auf der gleichen Chipfläche unterbringen und auch da hat z.B. Samsung mit dem 3d-V-NAND schon eine Lösung präsentiert. Da ist also auch bald eine Technologiesprung nötig, aber der ist durchaus möglich.
Da ein TB pro Platten heute Standard ist, dürften die 1TB nicht so viel günstiger werden und auch bei den anderen ist da wohl nicht so viel Luft für Preissenkungen wie früher, als man bei den kleineren Platten durch die Erhöhung der Datendichte Plattern und damit Kosten einsparen konnte.Penman schrieb:Sobald sie ausgeliefert werden und langsam günstiger werden, werden auch die 1-4 TB Platten im Preis fallen und genau dann kann man sehr gut zuschlagen.
Das ist logisch, da will und muss man ja auch die Entwicklungskosten wieder einfahren und wer die gerade beste Lösung bietet, der kann dafür eben auch höhere Preise durchsetzen und wie ja schon diskutiert wurde, macht die Platte für Profis ja trotz des hohen Preises durchaus Sinn und kann sogar zu Einsparungen beitragen.Penman schrieb:Neuste/Beste Technik lässt man sich eben bezahlen. Machen Intel und NVidia doch auch so.
Dafür gibt es Backups, wer Daten aufgrund von Ausfällen seiner Platten verliert, ist selbst schuld, weil jeder weiß, dass so was immer passieren kann. Wer eine hohe Verfügbarkeit braucht, der nimmt entsprechend ein RAID mit Redundanz.Penman schrieb:Das klingt durchaus vernünftig, aber der nette Nebeneffekt: Wenn diese Platte ausfällt, sind auch die Daten von 3 Platten weg. Das könnte durchaus schmerzhaft sein.
Was soll der Test aussagen? Das wird nicht die schnellste Platte sein, den Anspruch hat sie nicht und bei der Datendichte und Drehzahl braucht man kein Prophet zu sein um das vorherzusagen. Wirklich spannend ist doch eher die Frage der Haltbarkeit, aber die kann so ein Test niemals klären.Penman schrieb:Ich hoff CB testet, wie gut das Dingen schweben kann
Ähnliche Themen
- Antworten
- 123
- Aufrufe
- 17.872
- Antworten
- 227
- Aufrufe
- 34.835