News Seagate-Festplatten: HAMR-HDDs ab 2020 und Mach.2 in der Musterung

In Zeiten von BDXL Archiv disks mit 100 GB Kapazität ist das eigentlich auch eine gute Möglichkeit die ich selbst benutze. Die gibt's im Fünferpack für 80 Euro zu haben und das ist es mir dann schon wert für Bilder und Videos als zweiten Backup.
 
Hayda Ministral schrieb:
Meine 1996 gebrannte Kodak-Gold-CD konnte ich letztes Jahr noch lesen. 25 Jahre wäre sicher extrem, aber irgendwo um 10-15 Jahre Stabilität wäre meine Erwartung bzw. mein Anspruch.

Flash sehe ich nicht umbedingt als Langzeit Backup-Medium. Das ist auch nicht der Anspruch von Flash, zumindest nicht aktuell. Da sehe ich HDDs oder auch Tape deutlich im Vorteil, aber ey who knows was wir in 10 Jahren haben.
 
Bigeagle schrieb:
Bei großen Datenmengen in Richtung tausende Platten
Dann legt man mehr Redundanz ober drauf, z.B. eben in Form eines echten RAIDs. Was anderes als zusätzliche Redundanz zu verwenden, macht ZFS ja auch nicht und mehr Redundanz bedeutet immer wenige Nutzkapazität, hat also immer ihren Preis. Außerdem sind 100% Sicherheit nie erreichbar und je näher man versucht da ranzukommen, umso teurer wird es, die letzten Prozente kosten immer am meisten.
Bigeagle schrieb:
wird ECC eben nicht mehr bei Festplatten eingesetzt da zu ineffizient. Zunächst Reed-Solomon und dann LDPC
ECC steht generell für Error Correction Code und nicht für eine bestimmten Algorithmus, Reed-Solomon und LDPC sind solche konkreten ECC Implementierungen. Ob also Reed-Solomon oder LDPC verwendet ist, es ist beides ECC.
Bigeagle schrieb:
Festplatten können sehr wohl 'korrupte' Daten zurückliefern, einerseits weil die Fehlerkorrektur und erkennung limitiert ist, andererseits weil es Fehler gibt die an dieser vorbeilaufen. Am einfachsten bei Fehlern in der Firmware.
Die ECC Codes sind so gut, das die Anzahl der unerkannten Bitfehler extremst gering ist und praktisch keine Rolle spielt. Den letzten FW Bug der bei HDDs zu korrupten Daten geführt hat, ist mir von den Samsung F4EG, liegt also schon rund 10 Jahre zurück.
Bigeagle schrieb:
Oder Bitfehler im Cache der Platte.
Gute HDDs und SSDs haben dagegen eine Schutz oder wenigstens eine Erkennung und meisten dann auch eine S.M.A.R.T. Attribut für die Ende-zu-Ende Fehler, meistens Attribut 0xB8.
 
Holt schrieb:
ECC steht generell für Error Correction Code und nicht für eine bestimmten Algorithmus
Hab mich schon ein wenig gewundert, aber bei Wikipedia stand das so eng gefasst als ob das ein spezifischer Algorithmus wäre :/
Holt schrieb:
Gute HDDs und SSDs haben dagegen eine Schutz oder wenigstens eine Erkennung und meisten dann auch eine S.M.A.R.T. Attribut für die Ende-zu-Ende Fehler, meistens Attribut 0xB8.
Hehe, meine Seagate habens, meine WD habens nicht. Ich dachte bisher das bezieht sich auf den Weg vom Board bis zur Platte, also eher Kabel und Stecker.
Holt schrieb:
Die ECC Codes sind so gut, das die Anzahl der unerkannten Bitfehler extremst gering ist und praktisch keine Rolle spielt.
Da fehlen mir irgendwie genauere Angaben, alles was ich so finde sagt aus dass es eben doch vorkommt und damit auch praktisch eine rolle Spielt. Bin aber auch nicht gut genug in Mathe um einzuschätzen was so von RS oder LDPC erkannt wird. Dafür habe ich schon einige Fälle gehabt wo ältere Daten unerwartet kaputt waren und ich manchmal nicht sagen konnte woher es kam. Da wirkt ein zusätzliches und vor allem besser überprüfbares Sicherheitsnetz zumindest angenehmer als einfach zu hoffen dass es schon nicht an der Platte liegen wird. Bei einem ZFS scrub bekomme ich immerhin eine anzeige ob fehler gefunden wurden und sha256 ist besser greifbar.
 
Bigeagle schrieb:
Ich dachte bisher das bezieht sich auf den Weg vom Board bis zur Platte, also eher Kabel und Stecker.
Dafür sind die Ultra-DMA CRC Fehler, eigentlich immer Attribut C7, da. Der Name Ultra-DMA kommt daher, dass die CRC32 pro FIS (übertragenem Paket mit bis zu 8192 Byte Nutzdaten bei Datenpaketen) eben erst mit den Ultra-DMA Übertragungsraten eingeführt wurden. Es muss im Consumersegment eben möglichst billig sein und es reicht wenn es bei den meisten Leuten meistens funktioniert. Erst wenn letzteres nicht mehr gegeben sein würden, führt man auch im Consumersegment Fehlererkennungen und -behebungen (bei Ultra-DMA eben durch Wiederholungen der Übertragung) ein. So war es ja auch bei RAM, erst mit DDR4 wurden auch hier eine CRC zur Absicherung gegen Fehler bei der Übertragung eingeführt, offenbar waren diese bei den hohen Geschwindigkeiten doch zu häufig aufgetreten.
Bigeagle schrieb:
Da fehlen mir irgendwie genauere Angaben
Irgendwo habe ich mal gelesen das diese nochmal um Längen unwahrscheinlicher als ein unkorrigierbarer Bitfehler ist und das schon CRC32 über 8k erst bei irgendwas um 10^46 fehlerhaften Übertagungen Fehler nicht bemerken würde. Da reden wir von nur 32 Bit über doppelt so viele Daten wie ein physikalischer Sektor einer HDD üblicherweise hat. Solche Algorithmen sind schon extrem gut bei der Fehlererkennung, wie gut sie bei der Fehlerkorrektur sind, ist eben eine Frage des Aufwandes den man treiben möchte, also vor allem auch wie viel Nutzkapazität man für einen größeren ECC opfert.
 
  • Gefällt mir
Reaktionen: Bigeagle
Da hat jemand aber ein alten Thread ausgepackt :D
 
  • Gefällt mir
Reaktionen: Hayda Ministral und AlphaKaninchen
Zurück
Oben