Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestSynology DS716+ im Test: Mit Prüfsummen und Snapshots gegen Datenverlust
Durch btrfs kann die Datensicherheit erhöht werden, indem die gespeicherten Daten mittels Prüfsummen bei jedem Leseprozess auf ihre Integrität geprüft werden
Entstehen Fehler auch beim Lesen einer Datei? Ich dachte sowas passiert nur beim schreiben. Checken eigentlich andere Nas wie die 215+ beim schreiben die Prüfsummen?
Klar. Diese Art von Fehler kann theoretisch immer entstehen. Und die meisten 08/15 NAS haben eben keine Checksums auf Dateisystemebene. Also gibt's auch nix zu überprüfen.
Wenn ich mein Backup auf einem NAS mit Btrfs sichere, aber meine Daten vom PC mit ntfs-Platte kommen bringt mir doch btrfs nichts oder? Wenn Data degradation auftritt wird das doch mit dem nächsten Backup aufs Nas übertragen.
Es gibt genug kostenlose Distributionen wie die auch das OS von Synology auf Linux basieren OMV oder auch solche auf Basis von FreeBSD wie NAS4Free oder FreeNAS, die bekommt jeder installiert. Anleitungen dazu gibt es genug im Netz.
hrafnagaldr schrieb:
Und zumindest ich hab nach Feierabend gar nicht mehr so die Lust wieder zu machen, was ich schon 8-10h täglich gemacht habe, nämlich mich mit EDV zu beschäftigen und noch an meiner NAS rumpfuschen zu müssen.
Einmal einrichten musst Du so ein NAS auch und wenn es Dein erstes NAS ist, musst Du Dich damit vertraut machen, da kommt es auf ein paar Minuten für die Installation auch nicht an.
hrafnagaldr schrieb:
Davon abgesehen ist es für die meisten Daten schlichtweg wumpe, ob da mal ein Bitfehler auftaucht.
Dann braucht man auch nit 50% mehr für ein DS716+ gegenüber dem praktisch gleich schnellen DS215+ zu bezahlen, die sich vor allem durch btfs und den versprochenen Vorteil der Datenintegrität unterschieden.
hrafnagaldr schrieb:
Oder um es mal salopp zu sagen: für Pornos braucht man kein ECC und ZFS.
Sicher? Wenn gerade im entscheidenden Moment nun aber das Bild weg ist? Außerdem soll es Leute geben die andere, noch wichtigere Dinge auf ihrem NAS speichern, auch wenn wieder andere bezweifeln mögen, dass es überhaupt noch wichtigere Dinge gibt.
hrafnagaldr schrieb:
Die paar wirklich wichtigen Daten krieg ich auch noch auf ner MDisc unter, aber dafür bin ich noch nicht paranoid genug.
Was kommentierst Du dann den Review dieses NAS, wenn Du die paar wichtigen Dinge die Du hast sowieso nicht auf einem NAS ablegst? Das man auch von Daten die auch einem NAS stehen immer ein Backup haben sollte, versteht sich nebenbei wohl hoffentlich von selbst, nur ist eben bei RAM Fehlern die ohne ECC RAM nie als solche zu erkennen sind, dann immer auch das Risiko dabei, dass die Daten schon korrupt auf das Backup kommen, weil die sie immer im RAM gepuffert und dann ggf. dort verändert werden.
Das kann immer passieren, wenn man RAM Fehler hat. Die Daten landen dann im RAM und wo A geschrieben wurde, steht plötzlich B, weil ein Bit gekippt ist, sei es wegen eines Hard- oder Soft-Errors und ob das nun die Daten waren die gerade übers Netzwerk gekommen sind und dann entsprechend falsch mit einer Prüfsumme die dann aber halt zu den schon verfälschten Daten passt, gespeichert wurden oder ob es beim Lesen nach dem Check der Prüfsumme passiert, es dabei erst einmal egal, man kommt nicht korrekte Daten zurück. Wenn es beim Schreiben passiert, dann hat man aber obendrein noch inkorrekte Daten auf der Platte stehen, passiert es erst beim Lesen hat man immerhin die Chance die Daten beim nächsten Lesevorgang korrekt geliefert zu bekommen, weil sie eben in einem anderen RAM Bereich gelandet sind der keinen Fehler hat oder gerade kein Bit gekippt ist.
Du vielleicht, aber längst nicht jeder weiß es. Es gibt genug kostenlose Distributionen wie die auch das OS von Synology auf Linux basieren OMV oder auch solche auf Basis von FreeBSD wie NAS4Free oder FreeNAS, die bekommt jeder installiert. Anleitungen dazu gibt es genug im Netz. Einmal einrichten musst Du so ein NAS auch und wenn es Dein erstes NAS ist, musst Du Dich damit vertraut machen, da kommt es auf ein paar Minuten für die Installation auch nicht an.
Dann braucht man auch nit 50% mehr für ein DS716+ gegenüber dem praktisch gleich schnellen DS215+ zu bezahlen, die sich vor allem durch btfs und den versprochenen Vorteil der Datenintegrität unterschieden.
Wenn Du nur einen normalen Desktop ohne ECC RAM Funktion hast und die Daten über den schaufelst, solltest Du über Silent-Data-Corruption sowieso gar nicht erst nachdenken, da kann schon auf dem PC zu viel passieren, da ist es fast egal ob das NAS auch noch ein größeres oder kleineres Risiko darstellt.
zett0 schrieb:
Wenn Data degradation auftritt wird das doch mit dem nächsten Backup aufs Nas übertragen.
Das hängt davon ab wie man sein Backup macht. Ich würde niemals einfach ein Sync machen, sondern immer Dateien die im Original gelöscht oder verändert wurden, auf dem Backup z.B. in einem Extraordner behalten. Dann kann man prüfen ob die Änderungen erwartet wurden oder nicht und wenn plötzlich viele Dateien als geändert erkannt wurden von denen man das nicht erwartet hat, sollte die Alarmglocken läuten, denn dann stimmt etwas nicht.
Zieht man aber einfach nur alle Änderungen auf dem Backup nach, so fällt das eben erst auf, wenn es zu spät ist.
@ Holt
schön für dich aber nicht jeder braucht im Hausgebrauch Fortknox Datensicherheit bis zum kleinsten Bit. Sonst bräuchte man auch nur eine CPU (die schnellste), das gleiche bei der GPU ... jeder hat andere Ansprüche und das sollte man auch akzeptieren und nicht alle anderen "beleidigen" weil sie andere Ansprüche haben und Prios!
Oder wieso kaufen Leute Fertig PC mit Windows statt Eigenbau mit Linux, das gleiche mit fertig NAS und Eigenbau "frickel" Lösung
Ich würde sagen 95% von den Usern hier nutzen im Desktop auch kein EEC, wieso sollten die dann auf dem NAS darauf setzen, wenn die Infos eh von Desktop zum NAS kopiert werden.
@Holt: weils gefühlt die letzten 20 Jahre keinen gejuckt hat aber man nun auf einmal ne NAS mit ZFS + ECC braucht und alles andere rausgeschmissenes Geld ist. So zumindest klingt dein Kommentar. Weil wenn den Gedanken weiterführst, dann musst Du, wie ja schon selber sagst, in der kompletten Kette darauf achten, dass es zu keinen Fehlern kommt. Und spätestens dass juckt dann wirklich fast niemanden mehr bzw. bezahlen wills eh keiner.
Fangen wir also mal an erster Stelle im Hausan, gibts ne Fritzbox mit ECC RAM? Muss ich mir wahrscheinlich auch selber was basteln oder ne sündhaft teure prof. Lösung kaufen, stimmts?
RSync? Rsync ist doch im Prinzip so etwas wie das RoboCopy der Linux-Welt (also Datenabgleich in einer Richtung lokal oder entfernt). Rsync hat zwar einen Checksum-Mode, aber a) bezweifle ich, dass der bei Synology benutzt wird und b) ist das eigentlich relevant bei Kopieraktionen auf extern oder eine entfernte Rsync-Gegenstelle. Mit dem eigentlichen NAS sollte das nichts zu tun haben.
Natürlich gibt's noch woanders Checksums wie HDD und SATA. Aber wenn falsche Daten geliefert werden, nützt das auch nichts.
Das interessante wäre wirkliche empirische Daten hierzu. Das einzige was ich gefunden hab, ist eine Studie vom CERN. Aber wie gesagt: das Ganze kommt sehr selten vor und sollte nur für extreme hohe Datenintegrität relevant sein.
Wo ist das Problem. Ich fand den Hinweis von Holt auf die weitaus günstigeren Alternativen zu der Fertig-NAS mit ähnlichen oder besseren Features durchaus interessant.
Es geht ja weniger um Platzsparen als um Datensicherheit, das steht ja schon im Titel des Reviews und man muss eben bei allem im Leben Kompromisse machen. Außerdem werde ich sicher nicht versuchen HW rauszusuchen mit der man ein kompaktes System für 2 HDDs mit ECC RAM Unterstützung realisieren kann, aber es hätte einem NAS Hersteller wie Synology gut angestanden bei einem solche NAS welches auf Datenintegrität setzt, erst einmal die Grundlage dafür in Form von ECC RAM mit passender Plattform zu setzen.
Canada, es geht nicht im ein Fort Knox für die Daten, sondern den Blödsinn aufzuzeigen der hier gemacht wird und leider kein Einzelfall ist, nämlich eine Filesystem mit Prüfsummen aber nicht den passenden Unterbau dafür zu verwenden. Das ist als wenn man eine Stahltür mit 3 Riegeln als Haustür nimmt um Einbrecher abzuhalten, aber die Fenster offenstehen lässt.
HDDs und SSDs haben hinter jedem Sektor / jeder NAND-Page eine ECC, die liefern praktisch nie falsche Daten zurück, dass da mal falsche Daten zur ECC passen und damit erkennt bleiben ist extrem unwahrscheinlich, es soll irgendwo bei 10^30 liegen. Gefährlicher ist schon, dass die Daten auf den internen Datenpfaden korrumpiert werden, vor allem im RAM Cache, aber Consumer HDDs / SSDs haben da meist nicht einmal eine Erkennung (eigene schon, die haben dann ein Attribut für Ende-zu-Ende Fehler in den S.M.A.R.T. Werten, bei Seagate ist das öfter zu finden), geschweige denn eine Korrektur für solche Fehler, da das ein Enterprisefeature ist und daher Enterprise HDDs und SSDs vorbehalten ist.
Bei der Übertragung über SATA gibt es pro FIS, welche maximal 8192 Bytes Userdaten enthalten kann, denn eine CRC, da sind unerkannte Fehler auch sehr unwahrscheinlich, zumal wenn es auch keine erkannten Fehler gibt, die meist im Attribut 0xC7 bzw. 199 zu erkennen sind. Bei gefährlichsten Ort, der Speicherung auf dem Medium (gekippte Bits sind bei Magnetscheiben wie bei NANDs durchaus normal) gibt es also eine Schutz und der ist sehr wirksam, bei zweigefährlichsten, der Übertagung über SATA ebenso.
Die paar MB RAM auf einer HDD sind im Vergleich zu dem im PC oder NAS auch relativ wenig gefährdet, also ist der nächste Punkt wo man ansetzen muss, dann das RAM im PC oder NAS, denn es nutzt eben nichts eine Prüfsumme über Daten zu erstellen die schon bei der Zwischenablage im RAM verfälscht wurden, daher ist diese NAS mit der Lösung halt schlicht unsinnig und kann eben nicht den Sicherheitsgewinn liefern der versprochen wird, weil die Prüfsumme hier nur vor der vergleichsweise kleinen Gefahr schützt, dass eine Platte wirklich mal verfälschte Daten liefert, während die viel größere Gefahr einer Verfälschung der Daten im RAM des NAS unverändert besteht und wenn davon auch noch Metadaten des Filesystems betroffen sind, dann kann es richtig viel Datenverlust bedeuten.
Da hast Du sicherlich nicht ganz unrecht. Für Kunden, die das Feature wirklich als Kaufgrund sehen, geht das eher in Richtung Placebo.
Ansonsten danke für die restlichen Erklärungen.
@Frank:
der DS713+ ist das letzte NAS für zwei Festplatten im Portfolio von Synology
Das ist kein Schwachsinn. Ohne ECC keine Datensicherheit das ist Fakt. Es gibt dazu nette Slides einer Uni die verdeutlichen, dass sich Fehler ohne ECC sogar in btrfs um ein vielfaches potenzieren und ein Angehöriger meiner Familie musste das schon am eigenen Leib erleben 48 TB mit btrfs ohne ECC. Innerhalb von 6 Monaten war alles im Eimer und er durfte den Raid manuell wiederherstellen.
Bei den Ursachen ist die Studie auch lückenhaft, so wurde dort z.B. auf eine fehlerhafte FW von einem RAID Controller als Ursache erkannt, sowas kann auch immer vorkommen. Es fehlt mir aber z.B. schon die Beschreibung der HW die verwendet wurden, war das immer entsprechende Server- und Workstation HW mit funktionierendem ECC RAM? Ich habe schon erlebt, dass bei solche HW dann RAM aufgerüstet wurde und dabei einfaches RAM ohne ECC Funktion verwendet worden ist, so wie dann auch schon öfter einer gewundert hat, warum das Server RAM nicht im Desktop lief, tja, war halt Reg-ECC RAM, aber war dem HW-Schrauber gar nicht aufgefallen.
Dann gibt es Anbieter die auch Workstations gnadenlos ohne ECC RAM Anbieten, das muss man dann extra konfigurieren und Aufpreis dafür bezahlen und selbst wenn alle Rechner mal so bestellt wurden, würde ich es aus eigenes Erfahrung selbst bei einer Organisation wie Cern nicht ausschließen, dass dort am Ende nicht wenige Rechner dann doch keine ECC RAM Funktionalität haben, weil eben z.B. mal mit falschen RAMs aufgerüstet wurde. Damit ist Datenkorruption dann Tür und Tor geöffnet, dazu kommt noch das Risiko der internen Datenpfade bei Consumer Laufwerken, es wird ja nicht immer Geld für Enterprise Laufwerke ausgegeben und schon nutzt Dir eine Studie nichts, die alles in einen Top wirft und wo Du die wahren Ursachen dann nicht kennst, weil Du die bekannten potentiellen Ursachen nicht ausschließen kannst?
loomx schrieb:
Aber wie gesagt: das Ganze kommt sehr selten vor und sollte nur für extreme hohe Datenintegrität relevant sein.
Was heißt "extreme hohe Datenintegrität"? Wenn man einfach Consumer HW nutzt, also auch die einfache PC HW und einfache NAS, sollte man sich darum besser gar nicht erst sorgen und es im Falle eines Falles eben als Schicksal hinnehmen. Wer sich darum aber Sorgen macht und z.B. breit ist für das Versprechen von mehr Datenintegrität den Aufpreis für ein Synology DS716+ zu zahlen, der sollte es sinnvoll tun und sich hier nicht in falsche Sicherheit wiegen lassen, denn das ist was Synology hier tut und was auch viele Selbstbauer und Lieferanten von Selbstbauanleitungen die ja gerne ZFS wegen der Prüfsummen loben und einsetzen, dann aber am ECC RAM fähigen Unterbau sparen, auch machen.
Da gibt es ja im Netz unendliche Diskussionen um das Thema ECC RAM und ZFS, da werden teils abenteuerliche Interpretationen gemacht warum es nicht nötig wäre und die Prüfsummen das kompensieren könnten, wobei die Metadaten immer gerne vergessen werden die ZFS ja nicht selbst im RAM schützt (es wurde ja auch für Server-HW entwickelt, die hat immer ECC RAM) und es wird auch vergessen, dass das beste Filesystem nichts nutzt, wenn die Daten schon beim Puffern vor dem Schreiben im RAM verändert wurden. Deshalb kann ich es nur mit Matt Ahren halten und dazu raten zu aller erst einmal ECC RAM und natürlich ein passendes System welches dieses auch unterstützt zu verwenden, wenn man seine Daten liebt.
Besonders gerne missverstanden wird übrigens dieser erste Teil seines Posts aus dem das Zitat stammt:
Die eigentliche Aussage des Satzes habe ich mal hervorgehoben, aber weil eben Filesysteme wie NTFS oder ext gerne auf Desktops ohne ECC genutzt werden, versuchen viele darauf abzuleiten man könnte dies auch genauso gut mit ZFS machen, weil ja nichts bei ZFS speziell nach ECC RAM verlangt was es bei anderen Filesystemen nicht auch tun würde. Richtig ist aber und das wird ja auch im Satz "if you love your data, use ECC RAM. Additionally, use a filesystem that checksums your data" klar, dass kein System ohne ECC RAM sicher für die Daten ist und man beim ECC RAM eben anfängt, dann erst lohnt es überhaupt erst sich um Prüfsummen Gedanken zu machen aber eben nicht umgekehrt. Ohne ECC RAM ist es dann auch egal ob man ein Filesystem mit Prüfsummen hat oder nicht.
Gibt es irgendwelche Wahrscheinlichkeitswerte für solche Fehler? Also wenn ich eine Datei von 1MB x-Mal kopiere/öffne, dann gibt es eine Wahrscheinlichkeit von y, dass sie fehlerhaft ist.
Oder sowas wie, nach Kopieren von x TB, sind mit einer Wahrscheinlichkeit von y die Anzahl von z Dateien fehlerhaft.
Vielleicht verstehe ich das falsch, aber ich glaube in den Jahren, in denen ich am PC arbeite, hatte ich noch nie eine Datei, die auf einmal kaputt war. Wenn hier einige schreiben, es wäre ohne komplett nutzlos, dann klingt das für mich, als wenn es "dauernd" auftreten würde.
Blödsinn, denn Multibit Fehler sind ungleich seltener als Singlebit Fehler und außerdem werden Multibit Fehler ja auch erkannt und wenn nicht nur die HW sondern auch die SW, also das OS, ECC RAM unterstützen, kann man darauf auch reagieren, was dann i.d.R. eine Halt des System und eine Kernel-Panic ist, eben um zu verhindern das falsche Daten gespeichert oder ausgegeben werden. Advanced ECC wie Chipkill können auch einiges mehr an Schutz liefern, da ist es eben wie immer eine Frage das Aufwands den man für mehr Schiutz treiben möchte, denn Chipkill können bei Intel nur die großen Xeons, die aber auch entsprechend viel kosten.
winipoh schrieb:
da gibt es per software via memory scrubbing bessere möglichkeiten. und memory scrubbing funktioniert auch ohne ECC speicher. funktioniert mit jedem speicher.
Weißt Du wovon Du redest und was Memory Scrubbing ist? Scrubbing ist immer ein Prüfen der Datenintegrität anhand von Paritätsdaten und dann eine Korrektur der Fehler, was aber beim Hard-Errors im RAM nichts ändert, außer dass man diese dadurch erkennen kann und dann eben die defekten RAMs tauschen kann, bevor halt Multibit Fehler auftreten, die man ggf. nicht mehr korrigieren kann. Hier steht es auch sehr gut beschrieben:
Anders als Du es behauptest, ersetzt Memory Scrubbing keine ECC Funktion des RAMs, sondern ergänzt sie und dient eben der frühzeitigen Erkennung von Hard-Errors, also systematischen Fehlern im RAM.
S.o, denn Memory Scrubbing geht nicht ohne ECC RAM und natürlich erhöht man dann die Sicherheit, wenn man durch Memory Scrubbing Hard-Errors erkannt und die defekten RAM Riegel durch heile ersetzt hat.
winipoh schrieb:
festplatten haben interne sicherheitsmechanismen... genauso wie protokolle (tcp/ip...) ... das dateisystem ... SSD controller
Ja Protokolle haben Sicherheitsmechanismen und SSDs sowieso HDDs zumindest in Form einer ECC auf dem Medium für jeden Sektor bzw. jede NAND Page, dass hatte ich ja schon geschrieben, ebenso aber auch, dass die internen Datenpfade bei Consumer Laufwerkeben eben ungeschützt sind und oft nicht einmal eine Fehlererkennung haben, von daher ist das auch größtenteils nur Blödsinn was Du hier gleich in Deinem Post ablässt, dabei hättest Du das alles hier im Thread nachlesen können. Ebenso das eben die meisten Filesysteme keinen Schutz vor Datenkorruption in Form von Prüfsummen bieten.
Nein eben nicht, denn RAM ohne ECC hat genau 0 Schutz, die üblichen Filesysteme ebenso und daher ist Datenintegrität eben noch längst nicht selbstverständlich und Deine Shift Taste lässt Du vor dem nächsten Posting bitte auch mal reparieren.
Das ist einmal das Problem wenn Metadaten betroffen sind, dann aber gerade bei Dateisystemen mit Prüfsummen aber auch die Verfälschung eigentlich korrekter Daten aufgrund solcher Fehler im RAM und dazu kommt, dass solche Dateisysteme meist viel mehr RAM für ihre Metadaten belegen als einfachere Dateisystem und das sind zwei Punkte, die der Aussage des Matt Ahren nämlich widersprechen, wonach man mit ZFS keine höheres Risiko als bei anderen eingeht wenn man kein ECC RAM hat. Schon alleine dadurch das mehr RAM belegt wird, steigt auch statistisch das Risiko von einem RAM Fehler betroffen zu sein. Das ist ja auch einer der Gründe warum es einerseits mehr RAM Fehler gibt, PCs haben heute meist 8GB oder 16GB RAM und daher mehr Risiko, aber diese andererseits vielfach nicht zu Bluescreens führen, deren Ausbleiben was den meisten dann als Hinweis gilt ihre RAM wäre ja in Ordnung. Nur belegen die wirklich kritischen Programmteile und Daten von Windows auch nur einen ganz kleinen Teil des RAMs und nur wenn es da zu einem RAM Fehler kommt, gibt es auch einen Bluescreen.
Je mehr RAM man hat, umso wahrscheinlicher hat man auch RAM Fehler aber die Wahrscheinlichkeit von Bluescreens steigt darauf praktisch nicht, wohl aber die von korrupten Dateien oder gar Filesystemen. In dem Sinne ist es durchaus konsequent, dass die meisten NAS mit sehr wenig RAM ausgestattet sind.
majusss schrieb:
48 TB mit btrfs ohne ECC. Innerhalb von 6 Monaten war alles im Eimer und er durfte den Raid manuell wiederherstellen.
Da hat er ja noch einmal Glück gehabt, dass das geklappt hat.
Ergänzung ()
Mithos, das Problem ist, dass Du es nicht merkst, denn wenn es nicht gerade eine Datei mit einer eigenen Prüfsumme ist, wie z.B. ein 7z, rar oder 7z Archiv, dann kannst Du die Fehler meist gar nicht bemerken. Vielleicht hattest Du auch einfach das Glück, dass die RAMs in Deinen Rechner nie Fehler bekommen haben und die paar Soft-Errors die aufgetreten sind, nie Bereich betroffen haben in denen Daten standen die danach gespeichert wurden, wenn Du aber im Leben schon viele Daten geschaufelt hast, ist es wahrscheinlicher, dass es niemals aufgefallen ist.
Das es praktisch relevant ist, kann bzw. konnte man, ich war dort ewig nicht mehr, an aber bei Filesharing Plattformen emule sehen. Dort hat ja jede Datei eine Prüfsumme und wenn nach mal nach bekannten, größeren Dateien gesucht hat, konnte man diese oft mehrfach mit gleicher Größe aber unterschiedlichen Prüfsummen (Hashes) sehen, einmal mit viele Quellen und dann nur mit ein paar wenigen oder einer einzige Quelle. Da die Clients die Dateien nach dem Runterladen prüfen und dann aus dem Temp Verzeichnis in das Incomming Verzeichnis verschieben, was ja bei unterschiedlichen Partitionen dann technisch ein Kopieren und Löschen ist, kann man sich vorstellen wie das wohl zustande gekommen ist. Da ich nicht in Deutschland lebe und es hier andere gesetzliche Bestimmungen bzgl. des Urheberrechts gibt, habe ich auch mal einige Dateien runtergeladen und Bitweise vergleich und es fielen dann immer wieder Bitfehler an den gleichen Stellen auf, es war wie es für RAM Fehler typisch ist, immer wieder die gleichen Bit in der gleichen Art verfälscht, Videos ließen sich aber abspielen und Unterschiede waren praktisch nie zu erkennen, nur ab und zu hat der VLC damals gemeckert und erst den Index neu aufbauen wollen, oder sowas in der Art, weiß nicht mehr was da genau stand, es dauerte jedenfalls eine Weile und danach konnte man im Video auch hin- und herspringen, was sonst nicht möglich war.
Das Problem der Silent-Data-Corruption ist real und wer noch nicht darüber gestolpert ist, soll froh sein, aber wer es vermeiden soll, sollte nicht am falschen Ende anfangen, sondern da wo es am meisten Sinn macht, denn wie bei Datensicherheit allgemein gilt auch da, dass man absolute Sicherheit nicht erzielen wird, sonst landet man bei einem Mainframe weshalb die Dinger auch heute noch bei Banken und Versicherungen ihren Platz haben, aber eben selbst entscheiden muss welcher Aufwand ihm gerechtfertigt erscheint und jeder wissen sollte, mit welchen Mitteln er was erreichen kann um den zweiten Schritt nicht vor dem ersten zu tun und dann doch auf die Nase zu fallen.
@ Holt & Co.
tragt euren Disput doch bitte in einem eigenen/neuen Thread im Forum aus, denn mit eigentlichen 715+ Test hat das nichts mehr groß zu tun.