Test Synology DS716+ im Test: Mit Prüfsummen und Snapshots gegen Datenverlust

mensch183 schrieb:
Kann man auf solche Synology-NAS eigentlich beliebige andere Betriebssystem draufspielen oder ist man an die ausgelieferte Firmware gebunden.
websurfer83 schrieb:
Also ich kann deine Frage leider nur teilweise beantworten:
Es gibt, zumindest für einige ARM-basierte NAS-Systeme von Synology, eine Portierung von Debian, die funktionieren sollte. Allerdings ist das meines Wissens eher als experimentell anzusehen. Ein paar Infos gibt es auf folgender Wiki-Seite: http://www.synology-wiki.de/index.php/Debian_auf_der_DiskStation

Ob es auch auf x86-basierten NAS-Systemen möglich ist, alternative Betriebssysteme aufzuspielen (in erster Linie wird es wohl um Linux-Distributionen gehen), kann ich leider nicht beantworten. Ich könnte mir aber vorstellen, dass es mit ein paar Eingriffen ebenfalls funktionieren könnte.

Radio Eriwan: "Im Prinzip ja."

Die kleineren Geräte sind headless. Ohne JTAG-Adapter sind Eingriffe deshalb Blindflug. Nur die Oberklasse besitzt überhaupt einen herausgeführten seriellen Port. Aber selbst ein BIOS-to-serial ist kein Vergnügen, und dessen Optionen werden sowieso beschränkt sein. Ein direkter, kompletter Austausch der Firmware ist deshalb wahrscheinlich riskant, mindestens aber arbeitsintensiv.

Die Quellen der von Synology verwendeten Open-Source-Software liegen auf Github. Es sind deshalb teilweise Anpassungen der Firmware selbst möglich. Bei einem Update verliert man sie allerdings und muss sie anschließend nachziehen; diese Vorgehensweise hat also gravierende Nachteile. Ein komplettes Reverse Engineering des DSM verbietet sich wohl aus mehreren Gründen.

Der DSM ist aber ein - allerdings sehr stark angepasstes - Debian. Was man deshalb darin machen kann, ist ein debootstrap der passenden Debian-Architektur in ein Unterverzeichnis und chroot in diese Umgebung (siehe URL von websurfer83). Das funktioniert mit armhf ebenso wie mit amd64. In der chroot hat man dann alle Möglichkeiten von Debian. Man kann zum Beispiel weitere Kernel-Module bauen und laden, weitere Dienste installieren und starten, muss sich allerdings auch um die AppArmor-Konfiguration selbst kümmern.

Meine Meinung: Es lohnt den Aufwand nicht.

Ein Gutteil des Preises dieser Geräte steckt in der angepassten Firmware. Das wird von vielen gern übersehen, die sich über die ihrer Ansicht nach horrenden Anschaffungskosten beschweren. Die Hardware ist für sich genommen jedenfalls nicht der Burner; vergleichbare embedded Boards kann man auch günstiger bekommen.

Wenn man die freie Wahl des Betriebssystems möchte, ist man mit einem Selbstbau deshalb meiner Meinung nach in jeder Hinsicht besser bedient.
Ergänzung ()

the_pi_man schrieb:
2-Platten -> Fail (nur Spiegelung oder Stipping möglich)

Das hängt von Bedarf und Verwendung ab. Der DSM bietet HA auch für die kleinen Geräte. Man könnte also zwei Geräte kaufen, einen Cluster aufbauen und darüber spiegeln ...

RAID 5 macht hoffentlich in 2016 niemand mehr.
RAID 6 macht hoffentlich niemand ernsthaft unter mindestens 12 Spindeln.
RAID 1/10 reicht für die Anwendungsfälle, die noch kein RAID 6 verlangen.

RAID ist ohnehin "nur" Datenverfügbarkeit, nicht Datensicherheit. Für Datensicherheit gibt es Backup und Archivierung.

the_pi_man schrieb:
Kein ECC -> da lass ich meine Daten nicht in die Nähe

Dann möchtest du außerdem u.a. redundante Hardware vom Lüfter bis zum Netzteil, voneinander getrennte Stromschienen, also eine entsprechend dimensionierte USV, ein funktionierendes Backup mit anhängendem Archiv, separate Brandabschnitte, Etherchannel, out-of-band-Management und dergleichen mehr. Also ein Rechenzentrum.

Datenstabilität ist wie -Sicherheit ein Konzept. Es genügt nicht, eine Einzelkomponente eines Einzelgeräts zu betrachten. Für den Privatanwender ist das alles in der Regel weder finanzierbar noch sinnvoll, und erschwingliche Lösungen sind immer auf die eine oder andere Weise kompromissbehaftet.

Vergleich: Wenn man Daten hat, die so stabil und sicher gelagert sein sollen wie in Fort Knox, dann sollte man sie vielleicht auch nach Fort Knox tragen. Sich daheim einen Tresor hinzustellen, ist bloß ein Kompromiss. Kann man machen, aber man sollte sich darüber klar sein, dass es ein Kompromiss ist und bleiben wird.

the_pi_man schrieb:
keine ZFS? -> Na ja, für Anfänger halt. Braucht man mehr Sicherheit -> ist das DS716+ nicht die erste Wahl.

ZFS ist ohne Frage ein tolles Dateisystem. Aber es ist nicht das Nonplusultra. Auch ext4 oder btrfs sind konkurrenzfähig. Vor allem dort, wo zfs nicht nativ zur Verfügung steht. Wie gesagt, Datenstabilität ist ein Konzept.

Die DS716+ kommt außerdem mit nur 2 GiB RAM. Darauf zfs zu fahren wäre wohl ... suboptimal.

the_pi_man schrieb:
Wenn ich mir was wünschen dürfte: 10 Platten/ECC RAM (mind. 16GB evtl erweiterbar), Solaris mit ZFS...
und jetzt kommts: Bitte ein vernünftiger Preis.

12 Platten, 16 GiB ECC-RAM, flüsterleise, vollverschlüsselt, Custom-Kernel, Custom-Debian, Preis war angemessen. Geht. Aber:

Definiere vernünftig. Meiner Meinung nach sind die meisten Fertig-NAS ihr Geld durchaus wert. Das hängt vom Bedarf und weiteren Faktoren ab. Es gibt keine Lösung, die sämtliche Anwendungsfälle abdeckt.
 
Frank schrieb:
Als erste DiskStation unterstützt die Synology DS716+ das Dateisystem btrfs und bietet so eine Datenintegrität anhand von Prüfsummen und eine Snapshot-Unterstützung, um versehentlich gelöschte Daten wiederherstellen zu können. Am Ende steht insbesondere die Frage im Raum, wie viel die eigenen Daten wert sind.

Zum Test: Synology DS716+ im Test: Mit Prüfsummen und Snapshots gegen Datenverlust

@ Frank:
Danke für den Test. Kannst du sagen, wie es möglich ist, den RAM-Baustein zu tauschen, obwohl diese Strebe im Weg ist? Welcher RAM-Typ ist verbaut? Vermutlich die neuen 1,35 Volt-Module, aber welche genau? Und ist der Tausch des Moduls offiziell von Synology "freigegeben"?
 
JMP $FCE2 schrieb:
Zumindest USB 2.0 halte ich nicht für vertrauenswürdig.
Zumindest das Bulk-Protokoll ist voller Prüfsummen, bei UASP hat man einiges weggelassen um es schneller zu machen. Aber es kann auch an dem verwendeten Chips liegen, die haben ja auch alle interne Puffer und vermutlich meist keinen Schutz von Datenkorruption auf den internen Datenpfaden, wie eben die Consumer HDDs auch.
JMP $FCE2 schrieb:
Ich hatte schon mindestens zwei Kombinationen, die bei h2testw zufällige Übertragungsfehler produzierten, ohne dass Windows sich irgendwie zu Wort gemeldet hätte.
Hast Du das RAM getestet oder hast Du einen Rechner der ECC RAM unterstützt und nutzt? Bei RAm Fehler meldet dann auch h2testw Fehler, es muss also nicht zwangsläufig an USB Liegen, dann kämen je nach Laufwerk und Gehäuse auch noch Fehladressierungen in Betracht, da nicht jedes Gehäuse aktuelle HDD Kapazitäten unterstützt und natürlich sind auch FW Bugs bei den USB Geräten nicht auszuschließen, aber all das kann Windows auch gar nicht erkennen und reklamieren.
JMP $FCE2 schrieb:
Die beteiligten Geräte funktionierten in anderen Kombinationen einwandfrei
Dann nennen mal die Geräte und Kombinationen, dann kann man vielleicht die Ursache einschränken. Das klingt aber jetzt so erstmal wie eine HDD in einem Gehäuse das mit deren Kapazität nicht umgehen kann.
JMP $FCE2 schrieb:
Wichtige Backups sichere und kontrolliere ich mit md5summer, und zwar alle Kopien. Nur so kann ich einigermaßen sicher sein, alle möglichen Fehlerquellen zu erwischen.
Prüfsummen wie MD5 sind ein guter Weg um Datenkorruption zumindest zu erkennen und genau das machen eben moderne Filesystem wie btrfs oder ZFS schon intern selbst und dann kann man dort meist auch so starke Prüfsummen wählen, dass kleinere Fehler auch sogar behoben werden können.

Moranaga schrieb:
Die Hardware ist für sich genommen jedenfalls nicht der Burner; vergleichbare embedded Boards kann man auch günstiger bekommen.
Genau, die Kosten sind für die HW viel zu hoch und nur mit dem Einstecken und Einschalten Komfort begründet, wobei viele den Aufwand eine entsprechende Distribution wie OMV zu installieren, offenbar auch gewaltig überschätzen. Wer also wirklich selbst beim OS beigehen will, der spart mit anderer HW nicht nur Geld, sondern auch Ärger bei der Installation.
Moranaga schrieb:
RAID 5 macht hoffentlich in 2016 niemand mehr.
Warum nicht? Mit der richtigen HW, also den passenden HDDs ist ein RAID 5 auch 2016 weiterhin eine gute Lösung und reicht für viele Anwendungen aus, man sollte dann eben keine großen RAIDs mit HDDs mit einer UBER von 1:10^14 bauen, aber RAIDs ersetzen keine Backups, die Backups gehören sowieso immer dazu!
Moranaga schrieb:
RAID 6 macht hoffentlich niemand ernsthaft unter mindestens 12 Spindeln.
Ein RAID 6 lohnt sich nur in Ausnahmefällen, wenn man eben zu große RAIDs mit den falschen Platten bauen will. Aber das an der Anzahl der Spindeln festzumachen ist totaler Blödsinn, 12 Spindeln sind u.U. gerade 2 HDDs.
Moranaga schrieb:
RAID 1/10 reicht für die Anwendungsfälle, die noch kein RAID 6 verlangen.
Es gibt auch andere Gründe für RAID 1/10, wie die Schreibperformance bei viel zufälligen Schreibzugriffen, aber bei Heimanwendern fällt das Argumente wohl meist weg.

Moranaga schrieb:
RAID ist ohnehin "nur" Datenverfügbarkeit, nicht Datensicherheit. Für Datensicherheit gibt es Backup und Archivierung.
Genauso ist es und zwar egal wo die Daten liegen, auch ein NAS alleine ist eben kein sicherer Ort für Daten.

Moranaga schrieb:
Dann möchtest du außerdem u.a. redundante Hardware vom Lüfter bis zum Netzteil, voneinander getrennte Stromschienen, also eine entsprechend dimensionierte USV, ein funktionierendes Backup mit anhängendem Archiv, separate Brandabschnitte, Etherchannel, out-of-band-Management und dergleichen mehr. Also ein Rechenzentrum.
Was soll diese blödsinnige Übertreibung? Klar würde man damit noch mehr Sicherheit erreichen, aber der Aufwand steht halt auch in keinem Verhältnis. Hört mit dem Schwarz-Weiß Denken auf, das führt zu nichts, denn es gibt keine absolute Sicherheit, sonst verschiedene Maßnahmen mit denen man die Sicherheit mehr oder weniger effizient steigern kann und ECC RAM ist da mal die erste Maßnahme um effizient zu mehr Sicherheit zu kommen.

Jemandem zu unterstellen er würde gleich ein Rechenzentrum wollen oder brauchen nur weil er Wert auf ECC RAM legt, ist totaler Blödsinn bis echtes Trollverhalten, denn Trolle machen genau solche Übertreibungen um dann den selbst zugedichteten Blödsinn ins Lächerliche zu ziehen.

Außerdem: Warum hat Intel wohl mit der Xeon E3-1500Mv5 Reihe wohl mobile Xeons auf den Markt gebracht? Die unterscheiden sich von den i5/i7 Skylakes nur durch die ECC RAM Unterstützung, die es bei den E3 üblich ist. Würde ECC RAM nur in Rechenzentren Sinn machen, wäre das ja totaler Blödsinn, wer will sich schon länger als nötig im Rechenzentrum aufhalten oder dort gar am Notebook arbeiten?
Moranaga schrieb:
Datenstabilität ist wie -Sicherheit ein Konzept. Es genügt nicht, eine Einzelkomponente eines Einzelgeräts zu betrachten.
Ja es ist ein Konzept, aber nein, man muss nicht alles anpacken um Verbesserungen zu erzielen. Man muss sein Haus ja auch nicht zu einem Fort-Knox umbauen um sich besser vor Einbrechern zu schützen, ews reicht oft schon die größte(n) Schwachstelle(n) anzugehen um einen deutlichen Sicherheitsgewinn zu erzielen. Das ist bei der Sicherheit vor Datenkorruption des RAM und damit die Verwendung von ECC RAM, natürlich immer mit dem passenden System welches das auch unterstützt.
Moranaga schrieb:
Für den Privatanwender ist das alles in der Regel weder finanzierbar noch sinnvoll, und erschwingliche Lösungen sind immer auf die eine oder andere Weise kompromissbehaftet.
Wenn man es auf die Spitze treiben will, aber genau das ist eben der Denkfehler bei Dir und wohl manch anderem hier, denn es muss ja nicht so ein hoher Sicherheitsniveau angestrebt werden, welches dann nicht bezahlbar ist. Die letzten paar Prozent sind immer am teuersten, aber mit relativ wenigen Mitteln kann man schon eine Menge erreichen, wenn man sie sinnvoll einsetzt!

Wer sich also fragt wie er ohne den Aufwand sich ein Rechenzentrum anzuschaffen (wobei da dann ein Mainframe rein gehört wenn man wirklich das höchste Niveau anstrebt) seine Daten besser schützen kann, der sollte eben die Mittel sinnvoll einsetzen und das fängt bei der Verwendung von ECC RAM an, zumindest beim Storageserver / NAS, geht bei den Clients weiter und dann kann man sich auch um die Verwendung besserer Enterprise statt günstiger Consumer HDDs oder alternativ oder auch ergänzend um das Filesystem mit Prüfsummen und Fehlerkorrektur Gedanken machen.

Moranaga schrieb:
Sich daheim einen Tresor hinzustellen, ist bloß ein Kompromiss.
Das Leben ist voller Kompromisse, auch wenn das immer mehr Leute zu vergessen scheinen. Die richtigen Kompromissen sind sogar meist die besten Lösungen!
Moranaga schrieb:
Kann man machen, aber man sollte sich darüber klar sein, dass es ein Kompromiss ist und bleiben wird.
Was ist denn an einem Kompromiss so schlecht? Wenn man mit einem relativ geringen Mehraufwand eine deutlich Steigerung der Sicherheit erzielen kann, dann kann ich darin nicht Schlechtes erkennen. Es bleibt dabei, dass man mit mehr Aufwand mehr Sicherheit erzielen, bei allem wo es um Sicherheit geht, aber eben auch jeder für sich den Kompromiss zwischen Aufwand und Ergebnis finden muss, wie ich es schon mehrfach u.a. in diesem Thread geschrieben habe. Wer der absoluten Sicherheit der Daten vor Korruption so nahe wie möglich kommen möchte, braucht einen Mainframe und wer nur auf Consumer HW setzt, der bekommt gerade genug damit es meisten irgendwie funktioniert, der beweist also reichlich Mut zur Lücke. Das ist dann im Vergleich zu Fort-Knox wie ein Zelt im Stadtpark.

Dazwischen gibt es eine Palette von Maßnahmen die man ergreifen kann um mehr Sicherheit zu bekommen und da muss jeder sogar einen Kompromiss für sich finden.

Moranaga schrieb:
ZFS ist ohne Frage ein tolles Dateisystem. Aber es ist nicht das Nonplusultra. Auch ext4 oder btrfs sind konkurrenzfähig.
ext4 kann man wohl kaum mit ZFS vergleichen, dafür sind die Konzepte zu verschieden, wenn, dann muss man ZFS mit btrfs vergleichen. An ZFS stört mich z.B., dass man einen Pool nicht dynamisch erweitern kann, das geht zwar, aber die Daten der zugefügten Platten werden dann nicht geschützt, da es wie JBOD/BIG es Pools und der eine Platte arbeitet. Außerdem gehört ZFS nur auf Systeme die ECC RAM unterstützen, das sollte man nie vergessen, sonst kann es einen schnell den Pool kosten.
Moranaga schrieb:
Vor allem dort, wo zfs nicht nativ zur Verfügung steht. Wie gesagt, Datenstabilität ist ein Konzept.
Aber jede Konzept muss sich an den Zielsetzungen orientieren und z.B. das Budget berücksichtigen und wenn es ein gutes Konzept ist, dann für das Budget die bestmöglich Sicherheit bieten. Es kann ja auch nicht jeder der ein Haus plant welches vor Einbrechern geschützt sein soll, sich ein Fort Knox hinstellen und wenn man das nicht kann oder möchte, dann einfach auf jegliche Maßnahmen zum Einbrecherschutz verzichten, weil man eben doch keinen 100%ige Schutz bekommt. Also ist doch Schwachsinn, aber genau das was Du hier bzgl. Datenintegrität vermittelst.

Moranaga schrieb:
Die DS716+ kommt außerdem mit nur 2 GiB RAM. Darauf zfs zu fahren wäre wohl ... suboptimal.
Das Teil hat gtrfs, das wird sich hoffentlich niemand kaufen, der dann ZFS nutzen möchte, da wäre er mit einem Microserver besser und billiger bedient, denn s.o.: Ein solches Fertig-NAS hat keine optimale HW für den Preis da man auch viel für die Software darauf bezahlt und wenn man die nicht so nutzen will, dann lässt man die Finger von den Teilen, da es für weniger Geld besser HW gibt. Nur muss man dann halt selbst Hand anlegen und das OS installieren, aber genau um das zu vermeiden, greifen eben viele Kunden zu den teuren Fertig-NAS Gehäusen.

Moranaga schrieb:
Definiere vernünftig.
Das muss ja gerade jeder für sich tun!
Moranaga schrieb:
Meiner Meinung nach sind die meisten Fertig-NAS ihr Geld durchaus wert.
Was die HW angeht ganz sicher nicht! Die lohnen sich nur für Leute die einfach Plug&Play wollen, wobei auch die um eine Einrichtung des NAS nicht herum kommen, aber sie sparen sich eben eine Distribution wie z.B. OMV, NAS4Free oder FreeNAS zu laden und zu installieren, wofür offenbar einige hier Stunden oder Tage brauchen würden. Auf wen das zutrifft und wer sich das nicht zutraut oder dafür keine Zeit hat, der greift halt zu den Fertig-NAS.
Moranaga schrieb:
Es gibt keine Lösung, die sämtliche Anwendungsfälle abdeckt.
Das sollte hoffentlich jedem klar sein und es hat wohl hoffentlich auch keiner den Anspruch sich gegen alle Eventualitäten absichern zu wollen, was aber nicht bedeutet, dass man sich nicht gegen die größten Fehlerquellen absichern sollte.

Du vermittelst hier den Eindruck, dass wenn ich Sicherheit anstrebe, dann muss ich auch 100% Sicherheit erreichen und da diese 100% nicht erreichen werden, lohnt es sich nicht irgendwas zu tun, absolut weltfremd. Der Alltag ist voll von gegenteiligen Erfahrungen, dann obwohl die Wohnung oder das Haus nicht zu 100% vor Einbruch sicher ist, schließen wir doch alle die Türen ab, wenn wir weg sind oder schlafen. Obwohl das Auto trotzdem aufgebrochen oder geklaut werden kann, schließen wird es auch ab, wenn wir irgendwo parken und auch wenn es nicht zu 100% vor einem tödlichen Unfall schützt, so legen wir den Gurt an und achten darauf einen Wagen mit entsprechender Sicherheitsausstattung wie Airbags, ABS, ESP und zunehmend allen möglichen Assistenzsystemen zu kaufen. Wobei man trotzdem deswegen nicht auf das Anlegen des Gurtes verzichten sollte, der ist die Grundlage für Systeme wie den Airbag, die schützen nämlich zusammen am Besten. Wie man sieht, gehen wird im Alltag überall Kompromisse ein und ergreifen Maßnahmen um die Sicherheit zu steigern, obwohl wir damit nur mehr aber noch keine 100%ige Sicherheit erreichen.
 
Hallo!

Ich weiß, das ist nicht das Kaufberatungsforum, aber es passt gerade zum Thema:
Ich möchte für meine Daten (Fotos, mp3s etc) eine Sicherung erstellen. Außerdem soll von allen Computern zugegriffen werden können, um Dateifragmentierung auf mehreren Rechnern zu verhindern und diese zentral auf einem Gerät zu haben. Deswegen möchte ich mir jetzt ein NAS kaufen)

Ich weiß, dass ein NAS keine dauerhafte Sicherung ist. Deshalb sollen diese (vielleicht 1x im Monat) auf eine externe Platte gesichert werden.

Nun meine Frage: Ist das sicher genug für die Daten? Diese sollten natürlich dauerhaft unbeschädigt bleiben. Ist das definitiv nur mit einer Serverhardware, die auch Funktionen wie ECC bietet möglich?

Reicht eine NAS mit Raid 1? Sollte ich besser diese mit dem BTRFS-Dateisystem nehmen? Raid 5 sagt Ihr ist eigentlich eher schlechter zum Sichern, da die Fehlerwarscheinlichkeit steigt? (Ich dachte bisher ein Raid 5 würde die Sicherheit erhöhen, da die Daten beim Ausfall einer Platte gerettet werden können. Reagiert ein Raid 5 so sensibel auf kleinste Fehler, dass das eher ein Problem darstellt, als eine Lösung?)

Ich möchte eine gute Dateiverwaltung (Fotobetrachter, Sortiermöglichkeit)

Sollte ich deshalb wohl besser auf eine Synology oder Qnap setzten, oder würdet ihr explizit eher auf einen Microserver verweisen? (Wie viel Fachkenntnis ist für einen Microserver notwendig? (Mit Linux habe ich kaum Erfahrung)) Sind die genannten Distributionen Komplettpakete, oder muss aus einer Vielzahl von Tools dann erst eine NAS zusammengebastelt werden?) Kann man damit den Comfort einer Fertig-NAS erreichen und hat man dann auch Möglichkeiten wie Bildbetrachter, DLNA, etc, oder ist das dann ein reines Netzlaufwerk mit Sicherung?

Ich habe mit Installation/Bedienung von komplizierteren Systemen durchaus Erfahrung, baue und installiere meine Rechner schon seit Jahren selbst, habe auch Z.B. Businessrouter (SOHO) mit vielen Einstellungsmöglichkeiten schon installiert (incl. Firewall-Regelerstellung etc), jedoch haben das nicht alle, die dann dort zugreifen werden. Sollte für alle anderen einfach zu bedienen sein.

Was würdet Ihr mir empfehlen?

Danke für eure Hilfe!
 
Zuletzt bearbeitet:
Ein NAS um Dateifragmentierung verhindern? Das können die Defragmentiertools auch. Ob eine HW nun sicher genug für Deine Daten ist, musst Du entscheiden, die Beiträge in diesem Thread sollten doch genug Informationen dazu liefern. Ebenso sollte klar sein, dass nur ein RAID 1 die Sicherheit nicht besonders viel Sicherheit bietet, wenigstens ein Backup ist zu empfehlen, zwei im Wechsel sind besser.

Bzgl. der Distributionen, schau sie Dir doch mal an, die kannst Du ja auch auf einer VM installieren, dann sieht Du ja ob Dich das überfordert oder nicht.
 
Holt schrieb:
Dann nennen mal die Geräte und Kombinationen, dann kann man vielleicht die Ursache einschränken. Das klingt aber jetzt so erstmal wie eine HDD in einem Gehäuse das mit deren Kapazität nicht umgehen kann.

Das waren uralte 40 GB-Platten, und zufällig verteilte Einzelfehler statt zusammenhängender toter Bereiche.

Der Rechner war ein Dell D410 mit Windows XP (ist schon etwas länger her), und der Controller ein SATA/IDE-Kombiadapter von Sharkoon. Der Controller funktioniert an anderen Rechnern einwandfrei, auch mit größeren HDDs, und der Dell testet andere USB-Festplatten ohne Fehler.
 
Wenn es schon länger her, kann man da wohl nicht mehr auf Fehlersuche gehen und damit ist es nur als Lehre dafür gut, dass Fehler die Datenkorruption verursachen einfach überall stecken können. Neue Datenträger und auch USB Gehäuse testet man am Besten immer erst mal komplett mit h2testw durch (ggf. bei großen NTFS Volumen besser ein paar Dutzend MB wenig auswählen als vorgeschlagen wird, die Metadateien von NTFS werden mit der Nutzung größer als heise damals gedacht hat, es gibt sonst am Ende des Schreibvorgangs einen Fehler weil der Platz ausgeht, den kann man ignorieren und trotzdem die Daten prüfen).
 
@ Holt: Mit Fragmentierung meinte ich verstreute Daten auf mehreren Rechnern, die teilweise nur auf einem Rechner liegen und Daten die doppelt auf verschiedenen Rechnern sind, alles ohne Ordnung. Ich will halt endlich alles zentral lagern, wo alle zugreifen können und wo keine Duplikate mehr existieren. Backup will ich auf 2 externe Platten machen.

Meine Frage bezüglich Sicherheit: Wenn ich die Daten auf einer NAS habe (ohne ECC-Speicher) und die dort ständig verarbeitet werden und ich regelmäßig Backups erstelle: Ist durch die ständige Umwälzung die Gefahr da, dass trotz der Sicherungen die Daten sich verändern und dabei kaputt gehen und eventuell in einigen Jahren Bilder,... kaputt sind?

Bei den Distributionen: Sind die ähnlich leistungsfähig wie die Betriebssysteme von Synology oder Qnap, oder ist das eher eine automatisiertes Datengrab, ohne Komfortfunktionen.

Viele Grüße
 
Ohne ECC RAM können Daten ständig irgendwo im RAM korrupt werden und wenn das beim Puffern während des Hochladens passiert, dann nutzt auch keine Prüfsumme im Filesystem etwas, denn die wird dann ja schon über die korrupten Daten geblidet. RAM Fehler haben eben die dumme Eigenschaft, dass man A schreibt aber danach B im RAM steht und ohne Schutz durch ECC keine Chance besteht zu entdecken, dass nicht B dort stehen sollte. Das kann auch ein Filesystem welches die Daten per Prüfsumme nicht nur prüfen sondern auch korrigieren kann, dann nicht ändern. Es kann wie gesagt gar nichts machen wenn der Fehler vor dem Schreiben passiert ist, als die Daten gerade über Netzwerk gekommen sind und wenn es beim Lesen der Daten von der Platte dann es könnte zwar feststellen, dass dort ein A stehen müsste und das A auch wieder dort hinschreiben, aber wenn es ein Hart-Error im RAM ist, steht dort trotzdem wieder B.

Deshalb sagt ja auch der Mitentwickler von ZFS Matt Ahren, dass man erst einmal ECC RAM und dann ein Filesystem mit Prüfsummen wie ZFS zu verwenden solll, wenn man seine Daten liebt. Das bringt anders herum eben nichts bzw. noch größere Gefahren wenn man dann auch noch eine Korrektur verwendet, weil die aufgrund von RAM Fehlern dann die Daten sogar kaputtkorrigieren kann. Das macht ja das Synology DS716+ nicht, das kann nur aussagen ob die Daten korrupt sind, kann damit aber im Fehlern im RAM auch Fehlalarm geben, nämlich wenn die Daten heil waren, aber beim Prüfen ein RAM Fehler auftritt und daher eine andere, aber falsche Prüfsumme als Sollwert errechnet wird die mit der im Filesystem hinterlegten nicht übereinstimmt.

Dann bekommt man auf einmal haufenweise Hinweise auf scheinbar korrupte Dateien, holt diese aus dem Backup zurück, wobei die durch den RAM Fehler aber wieder korrupt werden (können), dann korrupt aber mit einer dazu passenden neuen Prüfsumme gespeichert werden und danach überschreibt man damit dann die korrekten, alten Dateien im Backup und damit gibt irgendwann keine korrekte Version der Datei mehr. Deshalb ist ein falsch angelegtes Sicherheitskonzept wie beim DS716+ so gefährlich und es kann eben niemand ausschließen, dass es nicht auch später zu RAM Defekten kommt. Google hat dazu ja mal eine Analyse gemacht, die nutzen aber ECC RAM und was dort als correctable errors auftaucht, bleibt ohne ECC RAM natürlich unentdeckt und führt ggf. zu den genannten Problemen:
Also im Alter von 10 bis 18 Monaten traten oft erstmals oder zunehmend Fehler auf, daher ist es eben auch durchaus sinnvoll den RAM Test nicht nur am Anfang einmal zu machen, sondern auch mal zu wiederholen, aber läuft Memtest86 auf dem NAS? Wobei der Zeitraum sich auf Dauerbetrieb bezieht, also auf 7300 bis 13140 Betriebsstunden, wobei bei Heimanwendern auch mal 3 bis 6 Jahre dauert so viele Betriebsstunden zu erreichen. Das RAMs die nach dem Einbau 6 PASS Memtest86+ fehlerfrei überstanden haben dann nach einiger Zeit der Nutzung das dann plötzlich nicht mehr geschafft haben und Fehler hatte, habe ich selbst schon erleben müssen.
 
Holt schrieb:
aber läuft Memtest86 auf dem NAS?

Im Prinzip wäre es möglich. Aber leichter ist es den RAM auszubauen und in ein Laptop rein zu stecken.
 
Das Ausbauen und Prüfen in einem anderen Rechner bringt aber nur wenig, denn auch wenn die Riegel dort fehlerfrei laufen, müssen sie das in dem NAS/anderen Rechner nocht längst nicht tun. Es gibt mehr Ursachen für RAM Fehler als nur fehlerhafte RAMs!
 
Genau und selbst Memtest86(+) findet zuweilen RAM Fehler nicht, die dann im Betrieb auftreten. Das betifft einmal die ganzen Soft-Errors, also die spontan (meist aufgrund von Stahlung jeglicher Art) gekippten Bits, denn dafür ist die Zeit zwischen dem Schreiben und Auslesen der Daten beim Test einfach zu klein und es muss ganz großer Zufall sein, wenn in der kurzen Zeit mal ein Bit kippt. Dann kann es an den Einstellungen liegen, gerade bei unterschiedlichen RAMs mit unterschiedlichen Informationen im SPD kann man nicht ausschließen, dass mal die aus dem einen und mal die aus dem anderen genommen werden, wenn man die Einstellungen nicht von Hand vorgenommen hat. Mit etwas Pech laufen dann alle Riegel mit den einen Einstellungen um Test fehlerfrei, aber mit den anderen Einstellungen leider nicht, die hat das BIOS sich aber beim nächsten Booten gegriffen und damit passieren dann doch RAM Fehler.

Außerdem belastet Memtest86(+) den Rechner nur recht wenig, erst bei größerer Hitze oder aufgrund von instabiler Spannungsversorgung auftretende Fehler kann man somit also auch nicht finden. Prime95 oder diese Memtest von HCI welches unter Windows läuft und daher ansich unsinnig ist, weil man eben nie weiß welchen physikalischen RAM Bereich es gerade testet denn Windows hat ja eine eigene Speicherverwaltung, können dann als zusätzliche Tests dienen, wenn man den Verdacht hat, es könnte dort ein Problem vorliegen. Aber das ganze RAM kann man eben unter Windows niemals testen und daher ist das Ausbleiben von Fehler immer auch nur mit Vorsicht zu sehen aber kein Nachweis, dass das RAM wirklich komplett fehlerfrei ist.

Aber bei kaum einen Thema rund um Computer treffen mehr Unwissen der User und Fehlinformationen im Netz zusammen als bei den RAM Fehlern und Datenintegrität. Aber je mehr man sich da reinarbeitet, umso mehr erkennt man dann den Wert von ECC-RAM als genau die Lösung für beide Probleme, die ja eng zusammenhängen. Warum nicht mehr darüber aufgeklärt wird, kann ich nicht nachvollziehen, da muss ihr die Fachjournalisten fragen.
 
Verstehe ich das richtig:

Dadurch dass die 716+ kein ECC hat, aber ständig die Daten mittels Prüfsumme prüft und gegebenenfalls korrigiert ist also die Gefahr, die Daten zu zerstören noch größer, als wenn diese nicht geprüft werden, da bei einem Speicherfehler hier also gezielt dann noch die Daten kaputtgemacht werden, da die Prüfsumme dann ja nicht mehr stimmt?

Somit wäre die beworbene Sicherheit durch das btrfs Dateisystem ja eine komplette Irreführung.

Gibt es ein Fertig-NAS System (bezahlbar für privat, nicht überdimensioniert, geringer Stromverbrauch) das ECC-Speicher hat, oder bleibt hier wirklich nur ein Selbstbau. (Mit dem Problem, dass man keinen richtigen Softwaresupport hat, basteln muss und die Software auch nicht so viel kann)
 
Holt schrieb:
Dann bekommt man auf einmal haufenweise Hinweise auf scheinbar korrupte Dateien, holt diese aus dem Backup zurück, wobei die durch den RAM Fehler aber wieder korrupt werden (können), dann korrupt aber mit einer dazu passenden neuen Prüfsumme gespeichert werden und danach überschreibt man damit dann die korrekten, alten Dateien im Backup und damit gibt irgendwann keine korrekte Version der Datei mehr. Deshalb ist ein falsch angelegtes Sicherheitskonzept wie beim DS716+ so gefährlich und es kann eben niemand ausschließen, dass es nicht auch später zu RAM Defekten kommt. Google hat dazu ja mal eine Analyse gemacht, die nutzen aber ECC RAM und was dort als correctable errors auftaucht, bleibt ohne ECC RAM natürlich unentdeckt und führt ggf. zu den genannten Problemen: Also im Alter von 10 bis 18 Monaten traten oft erstmals oder zunehmend Fehler auf, daher ist es eben auch durchaus sinnvoll den RAM Test nicht nur am Anfang einmal zu machen, sondern auch mal zu wiederholen, aber läuft Memtest86 auf dem NAS? Wobei der Zeitraum sich auf Dauerbetrieb bezieht, also auf 7300 bis 13140 Betriebsstunden, wobei bei Heimanwendern auch mal 3 bis 6 Jahre dauert so viele Betriebsstunden zu erreichen. Das RAMs die nach dem Einbau 6 PASS Memtest86+ fehlerfrei überstanden haben dann nach einiger Zeit der Nutzung das dann plötzlich nicht mehr geschafft haben und Fehler hatte, habe ich selbst schon erleben müssen.

Das Problem von der Googleuntersuchung ist, dass man keine Rückschlüsse auf nicht ECC RAM schließen kann.
Denkbar wäre z.B. dass bei ECC RAM Bausteine schlechterer Güte verbaut werden.
 
Bowser schrieb:
Dadurch dass die 716+ kein ECC hat, aber ständig die Daten mittels Prüfsumme prüft und gegebenenfalls korrigiert ist also die Gefahr, die Daten zu zerstören noch größer, als wenn diese nicht geprüft werden, da bei einem Speicherfehler hier also gezielt dann noch die Daten kaputtgemacht werden, da die Prüfsumme dann ja nicht mehr stimmt?
Wenn es so wären, dann wäre das korrekt, aber es wurde ja schon hier im Tread von jemandem klargestellt, dass die Prüfusmme nicht zum Korrigieren verwendet wird, dabei hat man sich Synology schon was gedacht, die sind ja nicht blöd sondern nur sparsam bei der HW. Man erfärht damit also im Grund nur leichter, früher, dass Dateien nun korrupt sind, wenn diese eben nicht schon vor dem Schreiben im RAM passiert ist. Das nutzt einem dann im Zweifel aber nicht mehr viel und von daher ist die beworbene Sicherheit iffeführend. Das ist ja der Punkt auf den in hier hinaus will.

Bowser schrieb:
Gibt es ein Fertig-NAS System (bezahlbar für privat, nicht überdimensioniert, geringer Stromverbrauch) das ECC-Speicher hat, oder bleibt hier wirklich nur ein Selbstbau.
Privat bezahlbar ist nun sehr relativ, aber die NAS mit ECC RAM sind solche die sich nicht an Privatkunden richten und ein Vielfaches von dem kosten, was man für einen Selbstbau oder Microserver bezahlt. Wie gesagt kann man den HP Gen 8 ab 205€ bekommen, dazu ein USB Stick für das OS und für das Geld ist selbst bei den 4 Bay NAS kaum was zu bekommen.

Bowser schrieb:
(Mit dem Problem, dass man keinen richtigen Softwaresupport hat, basteln muss und die Software auch nicht so viel kann)
So schlecht ist der Support von OMV nicht, das macht bei mir auch laufend seine Updates im Hintergrund und viel basteln muss man bei einem Gen8 auch nicht, Sticks rein, OMV installieren (das OS muss man bei den meisten NAS auch erst installieren), Platten einbauen und einrichten, aber auch das muss man bei einem NAS machen, wenn es man es nicht überteuert gleich mit eingebauten HDDs kauft.

wayne_757 schrieb:
Das Problem von der Googleuntersuchung ist, dass man keine Rückschlüsse auf nicht ECC RAM schließen kann.
Wieso nicht? Das Problem ist ja auch, dass man ohne ECC RAM ja nie erfährt wenn ein RAM Fehler auftritt, sondern nur dessen Folgen sehen kann, wenn die überhaupt auffallen.
wayne_757 schrieb:
Denkbar wäre z.B. dass bei ECC RAM Bausteine schlechterer Güte verbaut werden.
Wieso sollte man das tun? Die ECC RAMs werden ja überwiegend in Enterprise-HW verbaut und dort ist Qualität und Stabilität sehr viel wichtiger und wird auch bezahlt. Außerdem stammen die öfter als normale RAM Riegel direkt von dem DRAM Herstellern, also vor allem Micron, SK Hynix und Samsung, die drei stellen nämlich über 90% des DRAM her. Dazu fallen Fehler ja auch immer auf und die Hersteller werden ihren Namen nicht riskieren indem sie ausgerechnet dort minderwertige Qualitäten einsetzen. Wenn da überhaupt ein Unterschied gemacht wird, würde ich eher das Gegenteil unterstellen und den ECC Riegeln die Verwendung von höherwertigen Qualitäten und dazu aufwendigere Tests beim Hersteller unterstellen.
 
@Holt:

Was würdest du mir empfehlen:
Ich suche ja einen Netzwerkspeicher um alle Daten zentral verfügbar zu machen und bequem verwalten zu können. Dabei ist mir die Sicherheit der Daten besonders wichtig.
(Mediaserver für Wiedergabe, regelmäßiges Backup etc)
Die Daten sollen auf Dauer unbeschädigt bleiben!
Wenn ich mir die Synology DS716+ kaufen würde und regelmäßig Backup mache:
Könnte ich mit der Prüfsummenkontrolle, wenn mir Fehler gemeldet werden dann noch handeln und von einem Backup die Daten wieder reparieren, oder habe ich die Gefahr, dass die Backupdaten auch schon zerstört sind, eventuell weil der RAM eventuell schon länger defekt ist und es einige Zeit dauert, bis die Datei wieder geprüft wurde. (Bei regelmäßiger Sicherung, eventuell wöchentlich)

Welches Gerät wäre zu empfehlen.
Zur Auswahl stehen:
Synology DS716+
Qnap Ts-253A
(Synology und Qnap sollen wohl sortware und supportmäßig die Besten sein??)
Bei den Asustor: Ist hier schon bekannt, ob der Langzeitsupport gut ist, oder ist von denen eher abzuraten?

Wie wäre qualitativ dazu eine Netgear ReadyNAS 214?
Die soll BTRFS mit Bit-Rod Korrektur haben. Allerdings habe ich auch nirgends gefunden, ob da ECC Speicher drin ist.

Wenn ich mir eine NAS bauen würde, welche Softwarepakete würde ich benötigen, um mit einer Synology vergleichbar zu sein?

Zu den Bildbetrachtern der Synology/Qnap:
Diese bieten aber kein Sortiersystem, oder? Also vergleichbar mit Lightroom etc?

Danke für Hilfe!

Viele Grüße
 
Zuletzt bearbeitet:
wayne_757, es ist doch total egal um wie viel besser oder schlecher die Ergebnisse bei Consumer PCs mit normalen RAMs wären, wenn man sie ermitteln könnte. Man kann sicher Argumente finden, warum diese besser oder schlechter als in der Studie sein dürften, aber man wird nie zu einer 0 Fehler Situation kommen, dafür reicht selbst einfaches ECC RAM nicht, sonst wären Advanced ECC RAM Technologien nie entwicklet worden.

Es ist ja nicht so, dass jedes NAS nach einiger Zeit Daten verliert oder alle Daten korrupt macht, die meisten werden die Daten auf ihrem NAS jahrlange problemlos nutzen können und wenn es Datenkorruption gab, diese vermutlich gar nicht bemerken. Deswegen kaufen die Leute sowas auch und machen bezweifeln ja auch, dass es überhaupt Probleme gibt, aber ab und an erwischt es halt mal jemanden: Pech gehabt. Solange es nur selten passiert, schreckt es nur wenige vom Kauf ab, dafür lohnt es sich für die Hersteller nicht aktiv zu werden. Würde es zu oft passieren, müsste man was tun, sonst würde keiner mehr solche Geräte kaufen.

Es liegt eben an jedem selbst zu entscheiden ob er das Risiko eingehen will hoffentlich nicht zu den Pechvögeln zu gehören deren Daten korrupt werden und die es erst merken, wenn sie die korrupten Daten auch schon auf allen Backups breit gemacht haben. Die anderen müssen eben mehr Aufwand treiben und wissen nach dem Lesen dieses Thread hoffentlich, wo sie ihre Prioritäten setzen sollten.

Bowser schrieb:
Dabei ist mir die Sicherheit der Daten besonders wichtig.
Dann lies noch mal die Beiträge hier im Thread, dann solltlest Du wissen worauf es ankommt.
Bowser schrieb:
Die Daten sollen auf Dauer unbeschädigt bleiben!
Zu 100% ist das schwer zu erreichen, aber mit dem DS716+ halte ich das nicht für viel besser zu realisieren, wie bei einem anderen Consumer NAS. Der einzige Vorteil der Prüfsummen ist, dass Du vermutlich eine Chance hast vor dem Überschreiben der alten Datei auf dem Backup zu erfahren, dass die neue korrupt geworden ist. Das bringt Dir die neue vermutlich nicht wieder, keine Ahnung ob das mit der Prüfsumme dann geht, aber wenn die Datei korrupt geworden ist, dann würde ich dem NAS nicht mehr trauen. 100%ig wirst Du es auch nicht wissen, die Datei kann ja auch beim Schreiben auf das NAS korrupt werden wenn sie gerade vom Netzwerk kommt und noch nicht vom Filesystem geschrieben wurden, dann wird sie bzw. ihre Daten werden ja auch im RAM zwischengespeichert. Da kann dann Korruption auftreten und die Prüfumme bezieht sich dann schon auf die korrupte Datei, das merkt das Filesystem dann natürlich nicht.
Bowser schrieb:
Wenn ich mir die Synology DS716+ kaufen würde und regelmäßig Backup mache:
Könnte ich mit der Prüfsummenkontrolle, wenn mir Fehler gemeldet werden dann noch handeln und von einem Backup die Daten wieder reparieren, oder habe ich die Gefahr, dass die Backupdaten auch schon zerstört sind, eventuell weil der RAM eventuell schon länger defekt ist und es einige Zeit dauert, bis die Datei wieder geprüft wurde. (Bei regelmäßiger Sicherung, eventuell wöchentlich)
Keine Ahnung wie das gehanbt wird und ob das Backupprogramm überhaupt auf Prüfsummenfehler reagiert. Was überhaupt passiert wenn das DS716+ einen Prüfsummenfehler erkennt, steht ja nicht im Review.

Bowser schrieb:
Welches Gerät wäre zu empfehlen.
Zur Auswahl stehen:
Synology DS716+
Qnap Ts-253A
Bei den Anforderungen würde ich von denen keines nehmen, die haben ja beide kein ECC RAM, das ist einfach Consumertechnologie und auch wenn die für SOHO vermartket werden, haben die mit einem echten Server rein gar nichts zu tun. Du hast entweder nicht gelesen was ich geschrieben habe, es nicht verstanden oder glaubst es nicht, aber wenn Dir SW-Support und Bequemlichkeit bei der Inbetriebnahme wichtig sind, dann greife entweder wirklich tief in die Tasche für ein NAS mit ECC RAM, die gehen so bei 770€ für ein Thecus N7710 mit dem uralten Pentium G850 los. Oder Du nimmst halt einen Microserver und machst ein NAS-OS Deiner Wahl da rauf, das ist günstiger, aber Du musst das OS auswählen, runterladen und selbst installieren.
 
Synology hat uns nun bestätigt, dass die DS716+ keine bitrot-correction unterstützt, sondern lediglich Fehler feststellt und meldet. Dies ist nun auch im Artikel entsprechend vermerkt. Eine automatische Korrektur findet somit nicht statt. Laut Synology sei der Schutz zu ineffizient und benötige zu viel Speicherplatz, weshalb an einer eigenen Lösung gearbeitet werde.
 
Frank schrieb:
Synology hat uns nun bestätigt, dass die DS716+ keine bitrot-correction unterstützt, sondern lediglich Fehler feststellt und meldet. Dies ist nun auch im Artikel entsprechend vermerkt. Eine automatische Korrektur findet somit nicht statt. Laut Synology sei der Schutz zu ineffizient und benötige zu viel Speicherplatz, weshalb an einer eigenen Lösung gearbeitet werde.

Hallo Frank, Du schreibst in Deinem Artikel "...mindestens 2 GB RAM – eine Einschränkung, die nicht vom Dateisystem vorgegeben, sondern von Synology gewählt wurde. Modelle wie die DS215+ werden somit auch mit der finalen Version von DSM 6.0 btrfs nicht unterstützen, sondern es bleibt eine Funktion für die größeren Business-NAS...".

Unter https://www.synology.com/en-uk/releaseNote/DS215+ findet sich aber zweimal der Hinweis auf eine solche Unterstützung für DS215+, u. a. "Version: 5.2-5644... Improved general stability of Btrfs file system."

Also unterstützt DS215+ doch btrfs? Danke für Deine Recherche!
 
Zurück
Oben