JMP $FCE2 schrieb:
Zumindest USB 2.0 halte ich nicht für vertrauenswürdig.
Zumindest das Bulk-Protokoll ist voller Prüfsummen, bei UASP hat man einiges weggelassen um es schneller zu machen. Aber es kann auch an dem verwendeten Chips liegen, die haben ja auch alle interne Puffer und vermutlich meist keinen Schutz von Datenkorruption auf den internen Datenpfaden, wie eben die Consumer HDDs auch.
JMP $FCE2 schrieb:
Ich hatte schon mindestens zwei Kombinationen, die bei h2testw zufällige Übertragungsfehler produzierten, ohne dass Windows sich irgendwie zu Wort gemeldet hätte.
Hast Du das RAM getestet oder hast Du einen Rechner der ECC RAM unterstützt und nutzt? Bei RAm Fehler meldet dann auch h2testw Fehler, es muss also nicht zwangsläufig an USB Liegen, dann kämen je nach Laufwerk und Gehäuse auch noch Fehladressierungen in Betracht, da nicht jedes Gehäuse aktuelle HDD Kapazitäten unterstützt und natürlich sind auch FW Bugs bei den USB Geräten nicht auszuschließen, aber all das kann Windows auch gar nicht erkennen und reklamieren.
JMP $FCE2 schrieb:
Die beteiligten Geräte funktionierten in anderen Kombinationen einwandfrei
Dann nennen mal die Geräte und Kombinationen, dann kann man vielleicht die Ursache einschränken. Das klingt aber jetzt so erstmal wie eine HDD in einem Gehäuse das mit deren Kapazität nicht umgehen kann.
JMP $FCE2 schrieb:
Wichtige Backups sichere und kontrolliere ich mit md5summer, und zwar alle Kopien. Nur so kann ich einigermaßen sicher sein, alle möglichen Fehlerquellen zu erwischen.
Prüfsummen wie MD5 sind ein guter Weg um Datenkorruption zumindest zu erkennen und genau das machen eben moderne Filesystem wie btrfs oder ZFS schon intern selbst und dann kann man dort meist auch so starke Prüfsummen wählen, dass kleinere Fehler auch sogar behoben werden können.
Moranaga schrieb:
Die Hardware ist für sich genommen jedenfalls nicht der Burner; vergleichbare embedded Boards kann man auch günstiger bekommen.
Genau, die Kosten sind für die HW viel zu hoch und nur mit dem Einstecken und Einschalten Komfort begründet, wobei viele den Aufwand eine entsprechende Distribution wie OMV zu installieren, offenbar auch gewaltig überschätzen. Wer also wirklich selbst beim OS beigehen will, der spart mit anderer HW nicht nur Geld, sondern auch Ärger bei der Installation.
Moranaga schrieb:
RAID 5 macht hoffentlich in 2016 niemand mehr.
Warum nicht? Mit der richtigen HW, also den passenden HDDs ist ein RAID 5 auch 2016 weiterhin eine gute Lösung und reicht für viele Anwendungen aus, man sollte dann eben keine großen RAIDs mit HDDs mit einer UBER von 1:10^14 bauen, aber RAIDs ersetzen keine Backups, die Backups gehören sowieso immer dazu!
Moranaga schrieb:
RAID 6 macht hoffentlich niemand ernsthaft unter mindestens 12 Spindeln.
Ein RAID 6 lohnt sich nur in Ausnahmefällen, wenn man eben zu große RAIDs mit den falschen Platten bauen will. Aber das an der Anzahl der Spindeln festzumachen ist totaler Blödsinn, 12 Spindeln sind u.U. gerade 2 HDDs.
Moranaga schrieb:
RAID 1/10 reicht für die Anwendungsfälle, die noch kein RAID 6 verlangen.
Es gibt auch andere Gründe für RAID 1/10, wie die Schreibperformance bei viel zufälligen Schreibzugriffen, aber bei Heimanwendern fällt das Argumente wohl meist weg.
Moranaga schrieb:
RAID ist ohnehin "nur" Datenverfügbarkeit, nicht Datensicherheit. Für Datensicherheit gibt es Backup und Archivierung.
Genauso ist es und zwar egal wo die Daten liegen, auch ein NAS alleine ist eben kein sicherer Ort für Daten.
Moranaga schrieb:
Dann möchtest du außerdem u.a. redundante Hardware vom Lüfter bis zum Netzteil, voneinander getrennte Stromschienen, also eine entsprechend dimensionierte USV, ein funktionierendes Backup mit anhängendem Archiv, separate Brandabschnitte, Etherchannel, out-of-band-Management und dergleichen mehr. Also ein Rechenzentrum.
Was soll diese blödsinnige Übertreibung? Klar würde man damit noch mehr Sicherheit erreichen, aber der Aufwand steht halt auch in keinem Verhältnis. Hört mit dem Schwarz-Weiß Denken auf, das führt zu nichts, denn es gibt keine absolute Sicherheit, sonst verschiedene Maßnahmen mit denen man die Sicherheit mehr oder weniger effizient steigern kann und ECC RAM ist da mal die erste Maßnahme um effizient zu mehr Sicherheit zu kommen.
Jemandem zu unterstellen er würde gleich ein Rechenzentrum wollen oder brauchen nur weil er Wert auf ECC RAM legt, ist totaler Blödsinn bis echtes Trollverhalten, denn Trolle machen genau solche Übertreibungen um dann den selbst zugedichteten Blödsinn ins Lächerliche zu ziehen.
Außerdem: Warum hat
Intel wohl mit der Xeon E3-1500Mv5 Reihe wohl mobile Xeons auf den Markt gebracht? Die unterscheiden sich von den i5/i7 Skylakes nur durch die ECC RAM Unterstützung, die es bei den E3 üblich ist. Würde ECC RAM nur in Rechenzentren Sinn machen, wäre das ja totaler Blödsinn, wer will sich schon länger als nötig im Rechenzentrum aufhalten oder dort gar am Notebook arbeiten?
Moranaga schrieb:
Datenstabilität ist wie -Sicherheit ein Konzept. Es genügt nicht, eine Einzelkomponente eines Einzelgeräts zu betrachten.
Ja es ist ein Konzept, aber nein, man muss nicht alles anpacken um Verbesserungen zu erzielen. Man muss sein Haus ja auch nicht zu einem Fort-Knox umbauen um sich besser vor Einbrechern zu schützen, ews reicht oft schon die größte(n) Schwachstelle(n) anzugehen um einen deutlichen Sicherheitsgewinn zu erzielen. Das ist bei der Sicherheit vor Datenkorruption des RAM und damit die Verwendung von ECC RAM, natürlich immer mit dem passenden System welches das auch unterstützt.
Moranaga schrieb:
Für den Privatanwender ist das alles in der Regel weder finanzierbar noch sinnvoll, und erschwingliche Lösungen sind immer auf die eine oder andere Weise kompromissbehaftet.
Wenn man es auf die Spitze treiben will, aber genau das ist eben der Denkfehler bei Dir und wohl manch anderem hier, denn es muss ja nicht so ein hoher Sicherheitsniveau angestrebt werden, welches dann nicht bezahlbar ist. Die letzten paar Prozent sind immer am teuersten, aber mit relativ wenigen Mitteln kann man schon eine Menge erreichen, wenn man sie sinnvoll einsetzt!
Wer sich also fragt wie er ohne den Aufwand sich ein Rechenzentrum anzuschaffen (wobei da dann ein Mainframe rein gehört wenn man wirklich das höchste Niveau anstrebt) seine Daten besser schützen kann, der sollte eben die Mittel sinnvoll einsetzen und das fängt bei der Verwendung von ECC RAM an, zumindest beim Storageserver / NAS, geht bei den Clients weiter und dann kann man sich auch um die Verwendung besserer Enterprise statt günstiger Consumer HDDs oder alternativ oder auch ergänzend um das Filesystem mit Prüfsummen und Fehlerkorrektur Gedanken machen.
Moranaga schrieb:
Sich daheim einen Tresor hinzustellen, ist bloß ein Kompromiss.
Das Leben ist voller Kompromisse, auch wenn das immer mehr Leute zu vergessen scheinen. Die richtigen Kompromissen sind sogar meist die besten Lösungen!
Moranaga schrieb:
Kann man machen, aber man sollte sich darüber klar sein, dass es ein Kompromiss ist und bleiben wird.
Was ist denn an einem Kompromiss so schlecht? Wenn man mit einem relativ geringen Mehraufwand eine deutlich Steigerung der Sicherheit erzielen kann, dann kann ich darin nicht Schlechtes erkennen. Es bleibt dabei, dass man mit mehr Aufwand mehr Sicherheit erzielen, bei allem wo es um Sicherheit geht, aber eben auch jeder für sich den Kompromiss zwischen Aufwand und Ergebnis finden muss, wie ich es schon mehrfach u.a. in diesem Thread geschrieben habe. Wer der absoluten Sicherheit der Daten vor Korruption so nahe wie möglich kommen möchte, braucht einen Mainframe und wer nur auf Consumer HW setzt, der bekommt gerade genug damit es meisten irgendwie funktioniert, der beweist also reichlich Mut zur Lücke. Das ist dann im Vergleich zu Fort-Knox wie ein Zelt im Stadtpark.
Dazwischen gibt es eine Palette von Maßnahmen die man ergreifen kann um mehr Sicherheit zu bekommen und da muss jeder sogar einen Kompromiss für sich finden.
Moranaga schrieb:
ZFS ist ohne Frage ein tolles Dateisystem. Aber es ist nicht das Nonplusultra. Auch ext4 oder btrfs sind konkurrenzfähig.
ext4 kann man wohl kaum mit ZFS vergleichen, dafür sind die Konzepte zu verschieden, wenn, dann muss man ZFS mit btrfs vergleichen. An ZFS stört mich z.B., dass man einen Pool nicht dynamisch erweitern kann, das geht zwar, aber die Daten der zugefügten Platten werden dann nicht geschützt, da es wie JBOD/BIG es Pools und der eine Platte arbeitet. Außerdem gehört ZFS nur auf Systeme die ECC RAM unterstützen, das sollte man nie vergessen, sonst kann es einen schnell den Pool kosten.
Moranaga schrieb:
Vor allem dort, wo zfs nicht nativ zur Verfügung steht. Wie gesagt, Datenstabilität ist ein Konzept.
Aber jede Konzept muss sich an den Zielsetzungen orientieren und z.B. das Budget berücksichtigen und wenn es ein gutes Konzept ist, dann für das Budget die bestmöglich Sicherheit bieten. Es kann ja auch nicht jeder der ein Haus plant welches vor Einbrechern geschützt sein soll, sich ein Fort Knox hinstellen und wenn man das nicht kann oder möchte, dann einfach auf jegliche Maßnahmen zum Einbrecherschutz verzichten, weil man eben doch keinen 100%ige Schutz bekommt. Also ist doch Schwachsinn, aber genau das was Du hier bzgl. Datenintegrität vermittelst.
Moranaga schrieb:
Die DS716+ kommt außerdem mit nur 2 GiB RAM. Darauf zfs zu fahren wäre wohl ... suboptimal.
Das Teil hat gtrfs, das wird sich hoffentlich niemand kaufen, der dann ZFS nutzen möchte, da wäre er mit einem Microserver besser und billiger bedient, denn s.o.: Ein solches Fertig-NAS hat keine optimale HW für den Preis da man auch viel für die Software darauf bezahlt und wenn man die nicht so nutzen will, dann lässt man die Finger von den Teilen, da es für weniger Geld besser HW gibt. Nur muss man dann halt selbst Hand anlegen und das OS installieren, aber genau um das zu vermeiden, greifen eben viele Kunden zu den teuren Fertig-NAS Gehäusen.
Moranaga schrieb:
Das muss ja gerade jeder für sich tun!
Moranaga schrieb:
Meiner Meinung nach sind die meisten Fertig-NAS ihr Geld durchaus wert.
Was die HW angeht ganz sicher nicht! Die lohnen sich nur für Leute die einfach Plug&Play wollen, wobei auch die um eine Einrichtung des NAS nicht herum kommen, aber sie sparen sich eben eine Distribution wie z.B. OMV, NAS4Free oder FreeNAS zu laden und zu installieren, wofür offenbar einige hier Stunden oder Tage brauchen würden. Auf wen das zutrifft und wer sich das nicht zutraut oder dafür keine Zeit hat, der greift halt zu den Fertig-NAS.
Moranaga schrieb:
Es gibt keine Lösung, die sämtliche Anwendungsfälle abdeckt.
Das sollte hoffentlich jedem klar sein und es hat wohl hoffentlich auch keiner den Anspruch sich gegen alle Eventualitäten absichern zu wollen, was aber nicht bedeutet, dass man sich nicht gegen die größten Fehlerquellen absichern sollte.
Du vermittelst hier den Eindruck, dass wenn ich Sicherheit anstrebe, dann muss ich auch 100% Sicherheit erreichen und da diese 100% nicht erreichen werden, lohnt es sich nicht irgendwas zu tun, absolut weltfremd. Der Alltag ist voll von gegenteiligen Erfahrungen, dann obwohl die Wohnung oder das Haus nicht zu 100% vor Einbruch sicher ist, schließen wir doch alle die Türen ab, wenn wir weg sind oder schlafen. Obwohl das Auto trotzdem aufgebrochen oder geklaut werden kann, schließen wird es auch ab, wenn wir irgendwo parken und auch wenn es nicht zu 100% vor einem tödlichen Unfall schützt, so legen wir den Gurt an und achten darauf einen Wagen mit entsprechender Sicherheitsausstattung wie Airbags, ABS, ESP und zunehmend allen möglichen Assistenzsystemen zu kaufen. Wobei man trotzdem deswegen nicht auf das Anlegen des Gurtes verzichten sollte, der ist die Grundlage für Systeme wie den Airbag, die schützen nämlich zusammen am Besten. Wie man sieht, gehen wird im Alltag überall Kompromisse ein und ergreifen Maßnahmen um die Sicherheit zu steigern, obwohl wir damit nur mehr aber noch keine 100%ige Sicherheit erreichen.