ohgodprideofman schrieb:
Sorry, aber ich hab echt keinen Bock ~100€ im Jahr für Strom auszugeben, weil die Kiste locker mal 40-150W schluckt.
Hättest Du den Test des HP gelesen den ich verlinkt hatte, dann hättest Du auch die Angaben zur Leistungsaufnahme gefunden, OpenMediaVault Idle ohne Festplatten: 22W, OpenMediaVault Idle mit 3 ruhenden WD Red 3TB Festplatten (WD30EFRX): 34,2W.
Hier waren es mit 2 Red 2TB dann
im Leerlauf 16,2W. Rechnet man die 12,2W für 3 Red 3TB auf 2 Red 2TB (die haben ja einen Plattern weniger) so kann man da ungefährt 30W anstehen, also so 14W weniger. Das sind dann bei 8760 Stunden im Jahr 122kWh, was bei sagen wir 30ct/kWh dann knapp 37€ macht, es dauert also 3 Jahre im Dauerbetrieb die 105€ Mehrpreis über den Strom einzusparen! Dafür hat man man aber eben nur ein 2 Bay NAS statt eines 4 Bay Heimservers.
strex schrieb:
Und das Geschrei ist dann groß, wenn die Daten weg sind oder viele korrupte Dateien unbrauchbar.
strex schrieb:
Toll ext und co. als Dateisystem, dass kann dir auch mit ECC zu schleichenden Bitfehlern führen. Wenn du schon ECC empfiehlst, dann auch eine Dateisystem mit Transaktion, End-zu-End Prüfsummen und Copy-on-Write - das wäre etwa ZFS. Sonst bringt dir dein toller ECC Speicher auch nicht viel in den Jahren.
Sorry, aber das ist schlicht Unsinn, keine Ahnung wieso die ZFS Anhänger immer glauben das die Platten so viele unerkannte Bitfehler durchlassen. Dabei sind unterkannte Bitfehler, die wie die unkorrigierbaren auch mit UBER abgekürzt werden, so selten wie ein Sechser im Lotto. Dabei ist das normale Verhalten bei einem unkorrigierbaren Bitfehler eben ein Lesefehler und der betroffene Sektor wird als schwebender Sektor markiert. Ein normaler RAID 5 (oder 1 oder 6) wird dann die Informationen aus der Redundanz wiederherstellen und den Sektor auf betroffene Platte überschreiben, was deren Controller dazu bewegt diese nach dem Überschreiben zu prüfen und ggf. durch einen Reservesektor zu ersetzen, weshalb auch HDDs in RAID kaum ja schwebende Sektoren haben.
Kritisch wäre nur, wenn zwei Platten ein Problem haben und dieses eben die gleichen Daten und ihre Redundanz betrifft, wogegen man ja eben Scrubbing einsetzt und solche Probleme zu vermeiden, indem man eben alle Sektoren auf Lesbarkeit prüft und dann ggf. überschreibt. Da gibt es keine schlechenden Bitfehler, das ist einfach Unsinn, deshalb arbeiten auch alle Firmen die ich kenne weiter mit normalen RAID 5 oder 6 und keine mit ZFS und die haben seid Jahren in RAID mit teils über 20 HDD (Enteprise FC mit 15000rpm) kein einziges mal korrupte Daten gehabt. Die Korruption von Daten passiert bei Heimanwendern weit überwiegend im RAM, vor allem im RAM des Rechners wenn man kein ECC RAM mit passendem System hat, ab und an auch im Cache RAM der Platte, dennn da haben die Consumer HDDs eben auch meist keine Fehlerkennung, geschweige denn Fehlerkorrektur. Einige Samsung und Seagate HDDs haben wenigstens eine Fehlererkennung, was man dann an dem Attribut B8 Ende-zu-Ende Fehler in den S.M.A.R.T. Werten erkennt, aber WD sucht man das Attribut bei den populären Green oder Red vergeblich. Da wird man also nie wissen, ob nicht intern auf den Datenpfade der HDD ein Bit gekippt ist.
strex schrieb:
Und das Backup nicht vergessen, auch hier sollte man bei Kopieren dann Transport-Protokolle verwenden die Prüfsummen verwenden und ebenfalls geschützten Speicher nutzen.
Das Backup sollte sowieso klar sein und die Übertragungen werden meist auch jeweils mit Prüfsummen gesichert, z.B. bei USB (zumindest beim Bulk Protokoll, UASP hat da nicht so viel oder sogar gar nichts eigenes) und bei SATA ist das auch so.
Cool Master schrieb:
Im Fall Synology NAS ist dies IPKG damit hält die Box LOCKER mit jedem Win und jeder anderen Linux Distri locker mit.
Man kann sich das Synology ja auch auf Selbstbau x86er Systemen installieren, wird auch recht oft gemacht.
EdMarcello schrieb:
Ich würde direkt zur 415+ greifen:
490 € für die NAS
Wären mir zu teuer!