Notiz Seagate: 20-TB-Festplatten für den Massenmarkt im 2. Halbjahr

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.346
Im Earnings Call zu den jüngsten Quartalszahlen hat der Seagate-CEO Dave Mosley den Zeitraum für das Erscheinen der ersten 20-TB-HDDs mit dem Aufzeichnungsverfahren PMR eingegrenzt. Im zweiten Halbjahr soll die Auslieferung beginnen.

Zur Notiz: Seagate: 20-TB-Festplatten für den Massenmarkt im 2. Halbjahr
 
  • Gefällt mir
Reaktionen: Transistor 22
Hoffentlich kommt sowas bald als WD-Elements, dann wird's bezahlbar.
 
  • Gefällt mir
Reaktionen: Marcel Klappert, SteeL1942, MegaDriver und eine weitere Person
Wann sind nochmal 18TB gekommen?
Geizhals listet die Seagate Exos X18 seit 09/2020

So wirklich rasanter Fortschritt in der verfügbaren Kapazität ist das nicht.
 
  • Gefällt mir
Reaktionen: Marcel Klappert, Hendrik2, pix0n und 3 andere
Und alles kein SMR? Hoffe ja, dass diese Zeiten vorbei sind.
 
  • Gefällt mir
Reaktionen: Marcel Klappert, Kitsune-Senpai, H3llF15H und eine weitere Person
Solange die UBER nicht endlich mal steigt ist das doch alles für die Katze. Solche Kapazitäten muss man im Prinzip im RAID betreiben. Bei der üblichen 10^14 oder 10^15 ist da schon lange Ende und es wird auf jeden Fall zu einem Lesefehler kommen.
 
  • Gefällt mir
Reaktionen: Marcel Klappert, tony_mont4n4, Topflappen und 5 andere
Könnte sich evtl positiv auf die kleineren Platten auswirken. Das ist doch was. Ich freue mich schon drauf wenn die neuen Verfahren zum Einsatz kommen und wie stark die Kapazität hoch geht :)
 
  • Gefällt mir
Reaktionen: ThePlayer und AlphaKaninchen
Cool Master schrieb:
Solange die UBER nicht endlich mal steigt ist das doch alles für die Katze. Solche Kapazitäten muss man im Prinzip im RAID betreiben. Bei der üblichen 10^14 oder 10^15 ist da schon lange Ende und es wird auf jeden Fall zu einem Lesefehler kommen.
Stimmt so nicht.
1. Ich habe schon mehrere Rebuilds mit so großen Platten durch (Kapazitätserweiterungen, keine Ausfälle) und hatte noch keinen Nonrecoverable Read Error.
2. 10^14 und 10^15 Bits sind ~11,25 TB bzw 112,5 TB. Bei WD gibt es soweit ich weiß immer noch nur 10^14, bei Seagate, zumindest bei den Ironwolf Pro 10^15,
3. Die UBER sagt nicht aus, dass nach X Bytes definitiv ein URE auftritt.
4. Wer solche großen Platten ohne Redundanz nutzt, nun, naja... Nicht nur durch UREs können Daten verloren gehen. :hammer_alt:

/edit Ups, UBER wird in Bit, nicht Bytes gemessen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlanK, NMA, [ACE].:SHARK:. und 2 andere
Die UBER werte sind reine Wahrscheinlichkeiten. Da ist nicht garantiert dass bitfehler auftreten. Außerdem gibt's für gekippte Bits Korrekturen sodass das passt.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, SteeL1942, McConsington und eine weitere Person
PS828 schrieb:
Könnte sich evtl positiv auf die kleineren Platten auswirken. Das ist doch was. Ich freue mich schon drauf wenn die neuen Verfahren zum Einsatz kommen und wie stark die Kapazität hoch geht :)
Wichtiger: Der Preis pro Terabyte muss endlich fallen der abstand zur SSD wird kleiner und kleiner...
 
  • Gefällt mir
Reaktionen: SteeL1942, timmey77, ThePlayer und 5 andere
WilliTheSmith schrieb:
1. Ich habe schon mehrere Rebuilds mit so großen Platten durch (Kapazitätserweiterungen, keine Ausfälle) und hatte noch keinen Nonrecoverable Read Error.

Du hattest dann schlicht einfach nur Glück.

WilliTheSmith schrieb:
Bei WD gibt es soweit ich weiß immer noch nur 10^14, bei Seagate, zumindest bei den Ironwolf Pro 10^15,

Bei WD gibt es auch 10^15 aber das ist dann nur bei der Gold zumindest war es mal so. Keine Ahnung ob das noch stimmt. Laut Datenblatt schreiben sie es nicht mal mehr rein, also würde ich eher zu 14 tendieren. Bei SSDs haben wir min. 10^16 eher 10^17 und 10^18. Warum klappt es da, aber bei HDDs sind 10^14/15 seit Ewigkeiten normal und es ändert sich nicht?

WilliTheSmith schrieb:
3. Die UBER sagt nicht aus, dass nach X Bytes definitiv ein URE auftritt.

Klar es ist einfach nur eine Wahrscheinlichkeit siehe z.B.:

https://magj.github.io/raid-failure/

Dort sind keine 20 TB drin daher hab ich mal den Code geladen und angepasst (link auf GitHub unten). Bei einem Raid 5 mit 10^14 sind wir bei:

3 HDDs: 4% Chance auf einen erfolgreichen Rebuild.
4 HDDs: 1% Chance auf einen erfolgreichen Rebuild.

Mit 10^15 sieht es auf jeden Fall schon besser aus aber nach wie vor relativ anfällig:

3 HDDs: 73% Chance auf einen erfolgreichen Rebuild.
4 HDDs: 62% Chance auf einen erfolgreichen Rebuild.

RAID 6 mit 10^14:

3 HDDs: Nicht möglich da RAID 6 4 HDDs brauch.
4 HDDs: 96% Chance auf einen erfolgreichen Rebuild.
5 HDDs: 82% Chance auf einen erfolgreichen Rebuild.

Du siehst also das kann 5 mal gut gehen es kann aber auch passieren, dass man Pech hat und es 5 mal nicht gut geht in machen Fällen.

WilliTheSmith schrieb:
4. Wer solche großen Platten ohne Redundanz nutzt, nun, naja... Nicht nur durch UREs können Daten verloren gehen. :hammer_alt:

Auf jeden Fall deswegen 3-2-1 Backups Anwenden! Noch besser ein NAS kaufen welches entsprechende Dienste am Laufen hat und dies vereinfacht. Man kann es nicht oft genug sagen.

mgutt schrieb:
Ein Bitfehler wird aber problemlos durch den ECC des Sektors korrigiert.

PS828 schrieb:
Außerdem gibt's für gekippte Bits Korrekturen sodass das passt.

Nein. https://www.jedec.org/standards-documents/dictionary/terms/uncorrectable-bit-error-rate-uber

Genau deswegen heißt es ja "Unrecoverable" Bit Error Rate. Früher oder später wird diese kommen egal wie viel ECC der Controller macht und wie gut das FS ist.
 
  • Gefällt mir
Reaktionen: NMA, tony_mont4n4, PS828 und eine weitere Person
@Cool Master Wobei man hier auch beachaten sollte:
"These calculations are based on somewhat naive assumptions, making the problem look worse than it actually is. The silent assumptions behind these calculations are that:
  • read errors are distributed uniformly over hard drives and over time,
  • the single read error during the rebuild kills the entire array.
Both of these are not true, making the result useless. Moreover, the whole concept of specifying a bit-level stream-based error rate for a block-based device which cannot read less than 512 bytes of data per transaction seems doubtful."

Edit: Danke @AlphaKaninchen für den Hinweis :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kitsune-Senpai, NMA, ThePlayer und 2 andere
[ACE].:SHARK:. schrieb:
@Cool Master Wobei man hier auch beachaten sollte:

@[ACE].🦈. (Im Ernst... das Forum hat nen Hai aus dem Name gemachte...)

Jup kenne ich die Seite (falls jemand den Link oben nicht angeschaut hat). Wie schon gesagt es sind Wahrscheinlichkeiten über die wir hier sprechen. Ich für mein Teil bin da aber eher Konservativ und sage wie in meinen Berechnungen oben, dass man ab einem gewissen Punkt einfach den Array als verloren ansehen sollte, kein Rebuild macht sondern den RAID auflöst und das Backup einspielt. Vor allem kann man beim Backup steuern wie viel Daten auf einem kopiert werden. Für mich persönlich sage ich mal so bis 15% Risiko würde ich gehen.

AlphaKaninchen schrieb:
dafür braucht man im Rechenzentrum viel mehr...

Auch das stimmt so nicht ganz. Viele Rechenzentren wechseln auf Flash oder Optane da es einfach schneller und zuverlässiger ist. Dazu kommt wenn sie noch HDDs nutzen sind das eher kleinere siehe:

https://www.backblaze.com/blog/backblaze-hard-drive-stats-q1-2021/

Man beachte wie viele 4 TB Platten da sind. Grob überschlagen sind das 40.000 gegenüber 3000 16 TB Platten.

Wie beim Endkunde auch sind die einfach zu teuer.
 
  • Gefällt mir
Reaktionen: NMA
Cool Master schrieb:
Auch das stimmt so nicht ganz. Viele Rechenzentren wechseln auf Flash oder Optane da es einfach schneller und zuverlässiger ist. Dazu kommt wenn sie noch HDDs nutzen sind das eher kleinere siehe:
Ist bekannt, ich schrieb ja oben schon das sich bei den Preisen etwas tun muss, das ist im Grunde was ich im Kopf hatte, HDDs werden billiger oder sie sterben endgültig aus weil sie sich auch im Rechenzentrum nicht lohnen (Auch wenn das noch etwas dauern dürfte)

HDDs kosten aktuell ab 21€/TB (Toshiba Enterprise Capacity), SSDs fangen um 80€/TB (81€ z.B.Samsung SSD 870 QVO) Enterprise sind Etwas teurer Micron 5210 z.B. 125€/TB.

Und die Größe wird halt schlicht nach dem Preis ausgewählt, wenn teurer pro TB muss es sich durch die Platzerspanis im Rechenzentrum rentieren

PS: Der Unterschied bei der Ausfallrate bei Backblaze ist aber schon krass!
 
Zuletzt bearbeitet:
@AlphaKaninchen

Jup, im RZ werden die SSDs auch nicht wirklich als Storage benutzt sondern eher für Sachen wie DB-Server also wo die IOPS wirklich ein Vorteil haben. Meine Server haben zum Großteil nur noch SSDs weil ich den Speicher nicht brauch aber Drupal und ISPConfig läuft auf den SSDs wie ein heißes Messer durch Butter. Ich würde sagen HDDs haben noch 5 Jahre die richtige Oberhand und dann sind wir soweit ggf. durch neue FABs oder mehr Kapazitäten, dass die Preise runter gehen. HDDs sind einfach out, wird nicht umsonst spinning rust genannt ;)
 
  • Gefällt mir
Reaktionen: NMA, Recharging und AlphaKaninchen
Zurück
Oben