Test Netgear ReadyNAS RN214 im Test: Mit btrfs-Korrektur gegen QNAP und Synology

Mickey Cohen schrieb:
frag ich mich auch, selbst der kleinste celeron oder ein athlon 5350 mit 4gb sind wohl um welten schneller und billiger. aber diese fertig-nas-teile sind halt produkte für -sry- totale DAUs, das koster halt aufpreis

ich bin auch ein wenig kritisch ueber deine Aussage, zwar migriere ich grade meinen Vater weg von seinem NAS, wobei ich auf sein NAS auch debian installiert hatte :)

Aber der Stromverbrauch ist oft ungeschlagen auch sind gute NAS einfach sehr still, dazu noch schoen klein. Jemand davon zu ueberzeugen das ein NAS sinnvoll waere ist deutlich einfacher als jemand von zu ueberzeugen das er ein server braucht.

Und ja das einrichten ist auch ein Argument. Natuerlich verlangen die Hersteller gerade wenn man nicht das allerkleinste modell will fuer bisschne mehr speicher oder aehnliches gleich Aufpreise das einem Schlecht wird. Das ist dann ab zocke, aber 10-15W TDP mit 1 2 Platten fuer 100 (euro) platten die man vielleicht noch hat sind einfach leichter vermittelbar wie 200 300 euro fuer nen lowpower server der dann gerne auch mal 20 25W verbraucht. natuerlich dann mit 5 bis 10x so viel Speicher aber es gibt schon ganz neate (kann man das wort denglisch benutzen) kleine devices.

Letztlich ist das groesste problem von ARM entweder immense Aufpreisse fuer mehr speicher, oder softwareprobleme, ansonsten sind die fuer solche langlauf-geschichten schon gut.

Oder wuerdest bei nem typischen Router die Leute auch dissen weil sie keinen PC mit Netzwerkkarten dafuer verwenden?
 
Bitte nicht schon wieder Kommentare von diesen "Selbstbau-Heinis". Das trifft es sehr gut:

nicht weil sie DAUs sind, und ein eigenes System nicht zum laufen brächten, sondern weil sie besseres mit ihrer Zeit zu tun haben.

Und noch viel wichtiger: Klar kann man LAMP in einer halben Stunde selbst einrichten, aber in einer sicheren Konfiguration? Dazu braucht es Erfahrung und Wissen um aktuelle "best practices". Das hab ich nicht, aber Synology/QNAP hat es (hoffentlich). Selbes gilt für Samba, NFS, und alle Dienste, welches ein NAS easy per GUI anbietet. Achja und zentrale Userverwaltung nicht vergessen. Wenn man daran Spass hat soll man das gerne selbst machen, aber ich sitze genug vor einer Linux Konsole auf der Arbeit und verbringe meine Freizeit dann lieber anders, hätte aber trotzdem gern ein tolles NAS. Synology/QNAP bieten mir das.

@Topic: Das Netgear OS sieht irgendwie ein wenig von Synology abgekupfert ab, ähnliche Buttons und grafik-style. Ist das Absicht? Evtl geforkt von DSM? (theoretisch sollte ja Synology die Sourcen zumindest teilweise veröffentlichen müssen - GPL - oder?)

Was ich halt leider noch traurig finde an den fertig-NAS sind Lautstärke und Stromverbrauch, insbesondere die verbauten Lüfter - da bleibt mir in 99% der Fällen nur ein "WTF?" übrig. Zum Glück kann man ihn bei Syno wenigstens austauschen.
 
Zuletzt bearbeitet:
Mickey Cohen schrieb:
Jetzt nehmt mal das Dau Gefasel nicht so ernst, wer so überheblich provokant auftritt hat nicht mal eine Erklärung verdient, warum in diesem Punkt hunderttausende anderer Meinung als er sind!
 
Zuletzt bearbeitet von einem Moderator:
Samba und Windows 10 funktionieren nicht sonderlich gut, da ist ein fertig nas wesentlich weniger Aufwand um das zu fixen
 
Wie wäre es mal mit einem Artikel:

Selbstbau NAS selbst einrichten...

Ich weiß nicht aber mein Selbstbau mit Crontab Jobs verursacht keinen hohen Wartungsaufwand? Kannst Du dafür paar Beispiele aufzählen?

Samba Probleme mit Windows 10? Bei uns funktioniert die Dateifreigabe einwandfrei...

Bei fertigen NAS gibt es immer das Problem, dass dann doch irgendwas wieder nicht läuft...
 
Cordesh schrieb:
...
Zum Thema Bitrot...
Wie hoch ist denn die statistische Wahrscheinlichkeit für den Fall, dass ein Bit verändert wird?
...
Eine genaue Wahrscheinlichkeit kann man dazu nur rückwirkend bezogen auf Speichermediummodell (festplatte Typ X, DVD Typ Y, Magnetband Typ Z usw.) angeben und das hilft einem nicht weiter. Fest steht nur, Bitrot existiert und wird in großen Datenbanken auf "alten" Dateisystemen wie NTFS, XFS, Ext4, UFS usw.) damit bekämpft, dass regelmäßig Dateisystemchecks angeschmissen werden, die in den Mirror-Sets nach Fehlern suchen, und weil altes RAID bei Fehlern nicht weiß, welches Bit das korrekte ist, muss im Fall der Fälle nicht nur eine Festplatte ersetzt, sondern auch der komplette Datenbestand des RAID aus einem Backup, das kann beispielsweise ein Streamer-Magnetband von letzter oder vorletzter Woche sein, zurückgeholt werden. Die Checksumming-Funktionen von ZFS, btrfs und ReFS liefern dagegen die nötigen Informationen, welche Version einer Datei die korrekte und welche die durch Bitrot verfaulte ist.

Privatanwender, die nicht jede Woche fsck-Logs ihrer NAS-Raid-"Archive" lesen, sollten also eigentlich auf keinen Fall auf den Bitrot-Schutz von ZFS, btrfs oder ReFS verzichten. Denn egal wie die Wahrscheinlichkeitsangabe in einer Zahl aussieht, was weg ist ist weg und ohne zeitnahe Feststellung des Verlusts unwiederbringlich.

Bitrot and atomic COWs: Inside “next-gen” filesystems
 
Zuletzt bearbeitet:
Ich muss zugegeben, dass ich das Thema Bitrot- Schutz überhaupt nicht kannte. Netgear hat ein erstaunlich reifes Produkt hergestellt, im Vergleich zu dessen Software muss sich Zyxel schon mal fragen wo die eigenen Schwächen liegen. Danke für den Test und manche ergänzenden Kommentare!
 
Zuletzt bearbeitet von einem Moderator:
Pat schrieb:
Bitte nicht schon wieder Kommentare von diesen "Selbstbau-Heinis". Das trifft es sehr gut:


Das hab ich nicht, aber Synology/QNAP hat es (hoffentlich). Selbes gilt für Samba, NFS, und alle Dienste, welches ein NAS easy per GUI anbietet. Achja und zentrale Userverwaltung nicht vergessen.

Sorry, aber für sowas nimmt man ein Configtool wie z.B. Ajenti. Da kann man auch alles mögliche einstellen ohne die Konsole benutzen zu müssen.
 
Pat schrieb:
Und noch viel wichtiger: Klar kann man LAMP in einer halben Stunde selbst einrichten, aber in einer sicheren Konfiguration? Dazu braucht es Erfahrung und Wissen um aktuelle "best practices".

hüstel. Aber wenigstens hat man es selbst in der Hand ob das System hinterher als "sicher" anzusehen ist. Bei den fertigen NAS wird stillschweigend akezptiert das gefühlt jede zweite Funktion eine Sicherheitslücke oder (speziell bei Netgear) Hintertür offen hält die nach Entdecken nicht einmal automatisch und/oder zuverlässig gefixt wird.

Das soll kein Pro für die Selbstbau-Lösung sein. Dein Argument ist valide. Aber sooo einfach ist die Sache denn doch nicht.
 
Cordesh schrieb:
nicht weil sie DAUs sind, und ein eigenes System nicht zum laufen brächten, sondern weil sie besseres mit ihrer Zeit zu tun haben
Bei mir ganz klar eher Stromverbrauch.
Pat schrieb:
fertig-NAS sind Lautstärke und Stromverbrauch, insbesondere die verbauten Lüfter - da bleibt mir in 99% der Fällen nur ein "WTF?" übrig. Zum Glück kann man ihn bei Syno wenigstens austauschen.
Da schneidet das DS213j sowohl bei Lautstärke (siehe artikel) als auch Verbrauch [19.82W (Betrieb), 3.65W (Leerlauf)] gut ab.
 
oiisamiio schrieb:
Samba Probleme mit Windows 10? Bei uns funktioniert die Dateifreigabe einwandfrei...

Bei fertigen NAS gibt es immer das Problem, dass dann doch irgendwas wieder nicht läuft...

Ich bekomme bei meinem Debian Server mit freigegebner Festplatte als tauachlaufedrk unter 10 immer die Meldung "pression denied"
Die ich mit meinen win 7 Kisten nicht bekomme.
 
Zuletzt bearbeitet von einem Moderator:
btrfs ist in der Tat NTFS und auch ext4 weit überlegen
weil es storage pooling erlaubt und durch copy-on-write wesentlich sicherer ist.

Der RAID 5 / 6 Modus von btrfs jedoch wurde bis vor Kurzem noch nicht für ein Produktiv-Einsatz empfohlen.
Hat sich da etwas geändert?

Selbst "normales" RAID 5 wird von vielen Experten recht kritisch gesehen und sie empfehlen meist "Finger weg".

Sollte RAID 5 Modus von btrfs mittlerweile für den Produktiv-Einsatz freigegeben worden sein
dann wäre dieser ganz im Gegensatz zu normalem RAID 5 eine Empfehlung.


Für Unternehmen ist der Preis des ReadyNAS gerechtfertigt.

Im Privatbereich wäre es schon zu überlegen ob man da nicht selbst
eine entsprechende Intel-Hardware mit Ubuntu zusammen klöppelt.
Ergänzung ()

Wieso klatscht das System explizite Antworten auf bestimmte Beiträge
alles in einem Beitrag zusammen??

Kein Bock auf sowas. Absolut nicht.
 
Zuletzt bearbeitet: (Ärger)
pgene schrieb:
zett0 schrieb:
Sind Prüfsummen bei BtrFS wirklich zum Schutz vor Übertragungsfehlern? Ethernet und SATA haben doch schon eigene Prüfsummen zum Schutz vor Übertragungsfehlern im Protokoll. Oder irre ich mich da?
In der Tat, TCP/IP hat das schon implementiert, bei SATA hingegen nicht (zumindest nicht das ich es wüsste), das dürfte dann auch u.a. einer der Gründe für das Dasein eines BtrFS sein.
Bei der ATA-Schnittstelle sind die Übertragungen von der Festplatte zum Host-Adapter (und umgekehrt) seit der Einführung der UDMA-Modi (PATA-Schnittstelle) CRC-gesichert. SATA ist der evolutionäre Nachfolger der PATA-Schnittstelle und daher sind auch bei SATA die Übertragungen CRC-gesichert.
 
ich_nicht schrieb:
Hat das Teil auch ECC RAM?
Eben, das ist die entscheidende Frage und leide habe ich weder ein Bild der RAMs gesehen (oder habe ich es übersehen?) noch steht da wie viele RAM Chips verlötet sind, denn bei einer ungreaden Anzahl ist die Chance sehr gut, dass es ECC RAM ist, bei einer gerade dagegen praktisch NULL. Ohne ECC ist das ganze nicht nur sinnlos, weil das Haupteinfallstor von Bit-Rot nicht geschlossen wurden, es ist sogar brandgefährlich weil RAM auch erst später mit der Zeit Fehler bekommen kann und dann korrigieren solche Filesysteme mit Prüfsummen die Dateien kaputt, da frisst sich der Bit-Rot wie in Krebs durch die Dateien und das Filesystem und wenn dann mal die Metadaten betroffen ist, ist alles weg. Da nutzen auch ältere Backups u.U. nichts mehr, weil da auch schon korrupte Dateien drauf sind.
ich_nicht schrieb:
Ohne hat das ganze auch kein Sinn.
Eben und es ist sogar gefährlicher Blödsinn.
ich_nicht schrieb:
Oder in letzter Konsequenz sollte es bei einem FS was Bit-rott und Fehler vermeidet, erst keine im RAM entstehen.
Genau das ist das Fundament für die Sicherheit vor Silent-Data-Corruption, ohne braucht man sich darüber keine Gedanken zu machen.

ich_nicht schrieb:
Bei meinem Bruder hat ein RAM-Error wohl das ganze FS gecrasht.
Das kann passieren, aber erst danach werden die meisten klug. Wer nie Ärger mit RAM Fehlern hatte oder die Ursache seiner Probleme eben nicht in den RAM Fehlern ausgemacht hat, der glaubt meist nicht wie wichtig es sich ECC RAM zu verwenden und natürlich ein passendes System welches die ECC Funktionalität auch unterstützt, sonst bringt es ja nichts nur einfach ECC RAM Riegel einzustecken.

Cumonu schrieb:
Doch, leider müssen wir diese Diskussion wieder führen, weil der Artikel auf diesen zentralen Punkt nicht eingeht. Übrigens hat selbst das Synology DS415+ kein ECC RAM, obwohl dessen Atom C2538 ex unterstützen würden. Was die Industrie den Kunden da bietet lässt mir die Haare zu Berge stehen und dann auch Features und ein Versprechen für mehr Sicherheit vor Bit-Rot zu machen ist die Höhe, der Gipfel der Verarschung.

xamoel schrieb:
V.a. dass nochmal explizit herausgestellt wird, dass Synology aktuell KEINE BITROT KORREKTUR bietet!
Was ohne ECC RAM ja auch vernünftig ist.

xamoel schrieb:
Das macht hoffentlich Druck auf Syno, dass zu implementieren.
Man sollte eher Druck machen, dass die Anbieter durchweg ECC RAM und passende Systeme verwenden, zumindest bei Produkten die explizit für mehr Schutz der Daten ausgelegt sind, dann hätte man endliche sinnvolle Produkte in dem Segment am Markt.

Bogeyman schrieb:
Ohne ECC RAM, natürlich ein passendes System und auch ein OS welche die Anzahl der korrigierten Fehler auslesen kann, wird man niemals erfahren, wann ein RAM Fehler auftritt und kann es immer erst an dessen Auswirkungen sehen. Das ist ja die Krux an der Sache, daher glauben so viele User nicht, dass RAM Fehler überhaupt von Bedeutung ist, es steht hielt nie dabei, dass es einen RAM Fehler war.
Bogeyman schrieb:
Aber dass das FileSystem genau aus dem Grund zerschossen wurde den Beweis bleibt dann doch jeder schuldig.
Das ist auch oben genannten Gründen eben zwangsläufig der Fall.

menace_one schrieb:
Wie funktioniert denn der BitRot Schutz bei Netgear? Hardware oder Software? Könnte man das auch auf herkömmlichen Linux Systemen einrichten?
Das ist über die Funktionen von btfs realisiert, aber ex fehlt halt offenbar der HW-Unterbau in Form von ECC RAM, womit das ganze Schrott ist und brandgefährlich, weil es die User in eine falsche Sicherheit wiegt. Mit SW alleine kann man eben unmöglich einen Schutz vor Datenkorruption erzielen, die kann nur bestimmte Fehler wie Fehler auf den internen Datenpfaden von Platten, da haben Enterprise Platten selbst einen Schutz, Consumerplatten i.d.R. nicht und viele nicht einmal eine Erkennung (Ende-zu-Ende Fehler in den S.M.A.R.T. Werten). Geht aber im RAM was schief und werden dort Daten verändert, hilft das alles nicht und gefährdet die Daten sogar zusätzlich.

Cordesh schrieb:
Wie hoch ist denn die statistische Wahrscheinlichkeit für den Fall, dass ein Bit verändert wird?
RAM Fehler sind nicht so selten wie viele User glauben, google hat dazu mal eine Analyse gemacht, die nutzen aber ECC RAM und was dort als correctable errors auftaucht, bleibt ohne ECC RAM natürlich unentdeckt und führt ggf. zu einem Problem:
Also im Alter von 10 bis 18 Monaten traten oft erst zunehmend Fehler auf, daher ist es eben auch durchaus sinnvoll den RAM Test nicht nur am Anfang einmal zu machen, sondern auch mal zu wiederholen, spätestens wenn sich denn mal Probleme zeigen. Wobei der Zeitraum sich auf Dauerbetrieb bezieht, also auf 7300 bis 13140 Betriebsstunden, wobei bei Heimanwendern auch mal 3 bis 6 Jahre dauert so viele Betriebsstunden zu erreichen.

Auch von Microsoft gibt es eine Analyse zu Hardwarefehlern:
Letzteres dürfte wohl vor allem daher kommen, dass Windows wie jedes moderne OS sonst unbelegtes RAM als Diskcache nutzt und daher weniger Zugriffe auf die Platten erfolgen. Außerdem weiß man nicht genau, ob die Angabe absolut oder relativ ist, wenn mehr RAM Fehler auftreten, fällt der Anteil anderer Fehler ja auch ab, selbst wenn es absolut nicht weniger von ihnen gibt.
Cordesh schrieb:
Ich fotografiere viel, und habe sehr viele digitale Bilder die älter als 10 Jahre sind.
Die sind mittlerweile sehr oft kopiert worden.
Bei keinem ist mir je ein Fehler aufgefallen.
Gerade wenn die Daten im Rohformat gespeichert sind, fällt es auch kaum auf wenn man ein Bit anders ist. Das können nur Prüfummen oder direkt Vergleiche zeigen. Bei Archiven wie zip, rar oder 7z erkennt man Botfehler hingegen viel einfacher, prüfe einfach mal Deine alten Archive ob da eines plötzlich Fehler hat.

Bruddelsupp schrieb:
Ich muss zugegeben, dass ich das Thema Bitrot- Schutz überhaupt nicht kannte.
Das dürfte vielen so gehen und noch weniger kennen die wirklichen Ursachen. Von Fehlern auf internen Datenpfaden oder aufgrund von Bugs der FW einmal abgesehen, liefern HDDs oder SSDs nämlich praktisch überhaupt nie korrupte Daten zurück! Die haben nämlich hinter jedem Sektor bzw. jeder NAND Page eine ECC und auch die Übertragung wird mit einer CRC pro FIS die maximal 8192Byte Nutzdaten überträgt, abgesichert.
Bruddelsupp schrieb:
Netgear hat ein erstaunlich reifes Produkt hergestellt, im Vergleich zu dessen Software muss sich Zyxel schon mal fragen wo die eigenen Schwächen liegen.
Wenn es kein ECC RAM hat, sehe ich genau das grundlegend anders, denn dann ist das eine gefährliche Verarschung weil eine trügerische Sicherheit vorgegaukelt wird und mit den Snapshots die auch noch vor versehentlichem Löschen schützen, wird dann auch noch die Motivation zum Anlegen von Backups gesenkt. :mad:

Madnex schrieb:
daher sind auch bei SATA die Übertragungen CRC-gesichert.
Genau und zwar mit einer CRC32 pro FIS mit maximal 8192Byte Nutzdaten. Bei DDR4 hat man übrigens sogar für Nicht-ECC RAM ebenfalls eine Sicherheit bei der Übertragung vorgesehen, was zumindest Fehler bei der Übertragung vermeiden soll. DDR3 war ja nur bis 1866 von der JEDEC spezifiziert und man macht im Consumersegment nur das nötigste, schützt also nur vor den häufig auftretrenden Problemen um die Kosten gering zu halten und offenbar sind die hohen RAM Übertragungsraten da schon so fehleranfällig, dass man dort auch etwas tun musste.

RAM Fehler können eben hard-errors sein, also wirklich defekte einer Speicherzelle die aber oft nur bei bestimmten Bitmustern auftreten, weshalb die RAMs dann einfach, schnelle Speichertests wie sie im Herstellerwerk üblich sind auch problemlos überstehen aber bei aufwendigen Tests wie Memtest86(+) dann doch Fehler zeigen, Übertragungsfehler oder soft-errors, also spontan gekippte Bits. Schaut man sich Micosofts Analyse an nach der in 80% der Fälle bei der ein Fehler auf eine Adresse zum Crash geführt hat es wieder wegen eines Fehlers auf der Adresse passiert ist, so gibt das mal eine Idee von der Größenordnung der jeweiligen Fehlertypen, denn bei wiederholten Fehlern auf der gleichen Adressen kann man recht sicher von einem hard-error ausgehen.

Aber nicht jeder RAM Fehler führt zu einem BSOD, schon gar nicht heute wo jeder kleinere PC 4, 8 oder 16GB RAM hat und Windows davon nur einen winzigen Teil mit wirklich kritischem Kernel- und Programmcode belegt.
 
Bit rot ist auch so eine Panikmache um wiligen Käufern Kohle aus der Tasche zu ziehen. Also bei mir (statistische Menge n=1 und damit nicht aussagekräftig :evillol:) läuft ein Synology mit ext4. Zugriff per Samba, ftp und DLNA-fähigen Geräten. Alle Dateien mit sha-1-Hashes werden 1-mal im Monat kontrolliert, seit Jahren kein bitrot.

Da ist die Gefahr höher das man aus Versehen selbst was löscht oder ein Firmwarefehler vom NAS oder Festplattenhersteller dir alles zerschießt größer. Muss nicht immer alles gleich auf NASA-Niveau daheim sein. Was wirklich wichtig ist liegt offline auf externen Platten doppelt gesichert, unterschiedliche Hersteller. Regelmäßiges überprüfen und Betrieb um mechanische Teile lauffähig zu halten inklusive.
 
clausthaler schrieb:
Bit rot ist auch so eine Panikmache um wiligen Käufern Kohle aus der Tasche zu ziehen.
Wenn dann HW ohne ECC RAM Unterstützung verbaut ist, ja! Und für NAS mit ECC RAM lagen die NAS Anbieter noch unverschämter zu, da lohnt es sich eher einen Microserver wie den HP Proliant Gen8 oder ML310 zu nehmen, die kosten ungleich weniger.

clausthaler schrieb:
Also bei mir (statistische Menge n=1 und damit nicht aussagekräftig :evillol:) ... seit Jahren kein bitrot.
Das ist ja schön für Dich und bei den allermeisten Users dürfte es genauso sein, das ist ja ähnlich wie Krebs: Kein Thema was alle betrifft aber für die Betroffenen großer Mist und meistens weiß man erst das man es hat, wenn es schon zu spät ist. Wie beim Krebs geht der Eine ein hohes Risiko ein und bekommt trotzdem nie Probleme, mein Großonkel hat sein Leben lang geraucht und ist mit über 90 Jahren ganz normal entschlafen und andere versuchen es zu vermeiden, sind dann aber doch betroffen. Das ist nicht gleich verteilt, es kann einen aber eben mehr erwischen, wenn man weniger Vorsorge dagegen trifft.

clausthaler schrieb:
Da ist die Gefahr höher das man aus Versehen selbst was löscht oder ein Firmwarefehler vom NAS oder Festplattenhersteller dir alles zerschießt größer.
Dazu fehlen mit aussagekräftige Statistiken um beurteilen zu können, welches Risiko am Ende höher ist.
clausthaler schrieb:
Muss nicht immer alles gleich auf NASA-Niveau daheim sein.
ECC RAM ist das erste was die Server- und Workstation HW von Desktop-HW unterscheidet, damit beginnt es aber da höhrt es noch lange nicht auf. Es geht beim Schutz vor Bitfehlern weiter, so haben Enterprise-NICs auch ECC für die Pufferspeicher und dann gibt Advanced ECC RAM Techniken um das Risiko unkorrigierbarer RAM Fehler weiter zu mindestend, Enteprise Platten (SSDs wie HDDs) haben einen Schutz der internen Datenpfade vor Datenkorruption, die Profi-SAS Host / RAID Controller haben ECC RAM für den Cache etc. pp. bis zum Mainframe, der stellt die Spitze der Sicherheit vor Fehlern in der HW dar und ist deshalb auch bei Banken und Versicherungen weiterhin nicht wegzudenken.
Intel-Ethernet-Controller-ECC.png
 
Holt schrieb:
Enterprise-NICs auch ECC für die Pufferspeicher und dann gibt Advanced ECC RAM Techniken um das Risiko unkorrigierbarer RAM Fehler weiter zu mindestend, Enteprise Platten (SSDs wie HDDs) haben einen Schutz der internen Datenpfade vor Datenkorruption, die Profi-SAS Host / RAID Controller haben ECC RAM für den Cache

Danke für die umfassende Antwort, ich schätze es liegt daran da mein NAS auch vorwiegend lesend genutzt wird und ab und zu mal wegen automatischen Updates nachts neu gestartet wird. Mir ist der Seagate-Bug in Erinnerung geblieben von dem 2009 (oder so) rund 22 Modelle der Barracuda etc betroffen waren, auch Crucial hat mich damals bei den SSDs im Stich gelassen. War damals froh Backups zu haben. Klar für Firmen mit echter Hardware ist ECC usw nicht wegzudenken, da kann man auch nicht einfach mal Neustarts machen. Gebe zu das mit den NICs die ECC haben war mir neu. Hört sich spannend an. Aber mit genug Geld kann man fast alles haben.
 
Man bekommt bei der echten Enterprise HW eben für mehr Geld auch mehr, nur was es ist das sieht der Laie eben auf den ersten Blick nicht unbedingt. Es geht aber vor allem darum die Zuverläsigkeit und Verfügbarkeit der Systeme zu steigern und überall kommen dann ECC und CRC ins Spiel um Bitfehler erkennen und beheben zu können. Das die NAS Hersteller nun das Thema Bit-Rot angehen ohne zugleich auf ECC RAM zusetzen und sich dafür auch noch mehr als fürstlich bezahlen lassen, ist ein Unding und darauf sollte in den Reviews auch eingegangen werden, denn btfs zu verwenden kostet im Grunde nichts extra, stellt aber im Falle der Fehlerkorrektur sogar ein zusätzliches Risiko dar.

Mit den Prüfsummen sichert man sich doch nur gegen Fehler bei der Datenübertragung, die kommen ja kaum mal vor weil es eine CRC pro FIS bei SATA gibt, sowie gegen unerkannte Datenfehler bei den Platten ab. Von FW Bugs abgesehen (bei der Platte oder dem Host Controller, wobei letztere dann auf das Konto des NAS Herstellers gehen würden), kommen diese aber vor allem bei Consumer Platten von Fehlern auf den internen Datenpfaden, Enterpriseplatten sind dagegen vor solchen Fehler gut geschützt. Unerkannte Bitfehler beim Lesen sind praktisch ausgeschlossen, die ECC hinter jedem Sektor verhindert diese ja sehr zuverlässig und schon unkorrigierbare Bitfehler kommen nur einer pro 1:10^14 oder 10^15 gelesener Bits vor, aber dann gibt die Platte einen Lesefehler und keine falschen Daten zurück und hat dann einen schwebenden Sektor. Davor schützt auch jedes echte RAID mit seiner Redundanz, die Controller rekonstruieren dann die Daten und überschrieben sie auf der Platte die den Fehler gemeldet hat, worauf der Controller der Platte dann ggf. den defekten Sektor durch einen Reservesektor ersetzt.

Eines sollte aber klar sein, man bekommt keine absolute Sicherheit, sondern nur mehr oder weniger große Wahrscheinlichkeiten und er eben eine besseren Schutz möchte, dem kann nur nur empfehlen zu lesen was Matt Ahren, Mitentwickler des ZFS-Dateisystems, schreibt:
Man beachte die Reihenfolge, zuerst empfiehlt er ECC RAM und dann als Kirsche auf den Kuchen ein Filesystem mit Prüfsummen wie ZFS zu verwenden, wenn man seine Daten liebt und vor Korruption schützen möchte! Das ECC RAM nur Sinn macht, wenn der Rest des Systems dieses auch unterstützt, ist hoffentlich selbstverständlich.
 
@Holt

Stimme ich dir zu, ECC RAM sollte verwendet werden. Meine Synos haben alle ECC RAM bereits von Haus aus, daher würde ich die zusätzliche Funktionalität der Bitrot-Correction schon gerne nutzen.
 
Zurück
Oben