RAID5 mit 8x 4TB: 60MB Schreibperformance normal?

Von einer HDD / RAID zum anderen zu kopieren ergibt keine aussagekräftigen Transferraten, zumal HDDs in der Übertragungsrate zwischen den inneren und den äußeren Zylindern etwa einen Faktor 2 aufweisen. Dafür gibt es Benchmarks und die sollte man auch nehmen. Wenn das RAID leer ist, wären AS-SSD, CrystalDiskMarkt oder ATTO geeignet, wobei diese Dir dann eben die Maximalwerte anzeigen, weil die Dateien bei leeren Platten eben gewöhnlich auf den schnellen äußeren Zylindern landen. Bei gefüllten HDD hilft nur HD Tune, weil es ein Low-Level Benchmark ist, also die LBAs direkt ausliest, aber ob der mit der Kapazität klarkommt, kann ich nicht sagen, die freie Version 2.55 sicher nicht, denn die kommt meine ich schon bei 2 TiB Bereich ans Limit und zeigt dann Mist an.
 
Zu Truecrypt: Ist ja EINE Datei, die verschlüsselt ist. Wenn jetzt jetzt Algorithmus die Daten entschlüsselt und es fehlt was, kann nicht gelesen werden, weiß ich nicht genau was passiert, es kann wenig Auswirkungen haben - aber auch viele - in jedem Fall ist ein Fehler in einem Truecrypt-Container wesentlich schwieriger zu reparieren, als wenn es viele einzelne Datein sind, die frei im Dateisystem liegen. Vergleich das mal mit einer korrupten Zip-Datei, da kann auch oft nicht mehr viel gemacht werden.
 
puri schrieb:
Zu Truecrypt: Ist ja EINE Datei, die verschlüsselt ist. Wenn jetzt jetzt Algorithmus die Daten entschlüsselt und es fehlt was, kann nicht gelesen werden, weiß ich nicht genau was passiert, es kann wenig Auswirkungen haben - aber auch viele - in jedem Fall ist ein Fehler in einem Truecrypt-Container wesentlich schwieriger zu reparieren, als wenn es viele einzelne Datein sind, die frei im Dateisystem liegen. Vergleich das mal mit einer korrupten Zip-Datei, da kann auch oft nicht mehr viel gemacht werden.

Ich habe ja keinen TrueCrypt-Container ;)

Habe eine Partition erstellt und diese im Anschluss mit TrueCrypt verschlüsseln lassen.
 
Ich nehme aber an, deine Quellen sind auch verschlüsselt? Denn dann erreichst du eben auch keine 100MB/s Transferrate mit einer Einzelplatte.

Ferner: Womit hast du die 60MB/s gemessen? Mit dem Windows Tool?
 
Zu Truecrypt: Ist ja EINE Datei, die verschlüsselt ist. Wenn jetzt jetzt Algorithmus die Daten entschlüsselt und es fehlt was, kann nicht gelesen werden, weiß ich nicht genau was passiert, es kann wenig Auswirkungen haben - aber auch viele - in jedem Fall ist ein Fehler in einem Truecrypt-Container wesentlich schwieriger zu reparieren, als wenn es viele einzelne Datein sind, die frei im Dateisystem liegen. Vergleich das mal mit einer korrupten Zip-Datei, da kann auch oft nicht mehr viel gemacht werden.
Nein er verwendet eine verschlüsselte Partition. TC verschlüsselt Blockweise. Heißt letztendlich ein Fehler auf der Festplatte ist auch nicht mehr oder weniger gravierend mit Verschlüsselung als ohne.

Dennoch würde ich TC nicht einsetzen hier. Kann mir nicht vorstellen dass viele Leute das aufen Raid und dann auch noch bei den größen hier einsetzen. Ergo gibt es wenig Erfahrungen damit und eventuelle Bugs könnten umbemerkt bleiben wenn man son spezielle Szenario fährt. (pers. Meinung)

Mir fällt da noch was auf: Wenn Du auf dieses RAID ein riesen-Truecrypt-Volume liegen hast (28 TB), dann spielt dieser schleichende Datenverlust doch wieder eine Rolle - kippen ein paar einzelne Bits - ist das gesamte Truecrypt-Volume nicht mehr lesbar!
Benutzt doch eh NTFS letztendlich. Egal ob verschlüsselt oder nicht NTFS hilft nicht gegen schleichenden Datenverlust, dagegen musste ZFS nehmen (zuverlässig bewährt) oder ReFS (relativ neu).

Aber selbst wenn ein paar Bits kippen heißt das nicht dass das gesamte Volume dahin wäre. Bei den meisten Dateien ist es eh nichtmal schlimm wenn Bits kippen, bei Multimediadateien merkste das eh nicht. Das fatale ist nur dass du solche Fehler nicht erkennen kannst mit NTFS. Wenn dir dann ne Platte ausfällt und du bist auf die restlichen Platten angewiesen (mit korrekten Daten) und hier sind dann auch paar Fehler durch schleichenden Datenverlust entstanden kanns kritisch werden, je nach Controller kanns dann sein dass dieser kein Bock mehr hat und die Arbeit einstellt.

Wegen TC würde ich mir zumindest wegen schleichenden Datenverlust keine Sorgen machen, eher wegem dem Raidarray an sich. TC macht zumindest bei dem Thema kein Unterschied.

Ich würde solche Datenmengen Windows einfach nicht anvertrauen. Wärs meine Hardware würde ich eher auf ZFS gehen und minimum RaidZ2 (aka Raid6).

Dass du bei deinem Setup beim Ausfall einer Platte alles wiederherstellen kannst bzw. resilvern ist nen Glückspiel.

Habe ich auch erst gedacht. Aber die CPU ist ja nichtmal 100% ausgelastet....
Is egal, in TC ist nen Bench, poste einfach den Wert.
 
Zuletzt bearbeitet:
Hi,

wie setzt man ZFS denn genau ein? Soweit ich weiß gibts da keine Linuximplementierung und unter Windows siehts auch schwarz aus.

Obwohl mich Windows 8 gar nicht anspricht, hätte ich doch Interesse an dem ReFS. Gibt es das nur für die Servervarianten oder könnte ich unter Windows 8 auch ReFS nutzen?

Ein RAID6, wo jeden Monat das RAID-System geprüft wird und ReFS sollten doch wirklich die ideale Lösung sein oder? Dann würde ich meine ganze Umgebung nochmal neu aufsetzen.

Danke für eure Unterstützung!

BTW: Wie kommt ihr denn nun darauf, dass man bei einem RAID eine ungerade Anzahl an Festplatten einsetzen sollte?
 
Das mit der ungeraden Anzahl von Festplatten finde ich auch seltsam. Bei einm RAID 5 werden die Datenstripes + Parity ja fortlaufend über die vorhandenen Platten gelegt, da sollte die Anzahl eigentlich egal sein. Bei einem RAID mit expliziter Parity-Platte (z.B. RAID 4) mag das ja vielleicht noch einen Sinn machen, aber bei RAID 5 ?
 
puri schrieb:
Das mit der ungeraden Anzahl von Festplatten finde ich auch seltsam. Bei einm RAID 5 werden die Datenstripes + Parity ja fortlaufend über die vorhandenen Platten gelegt, da sollte die Anzahl eigentlich egal sein. Bei einem RAID mit expliziter Parity-Platte (z.B. RAID 4) mag das ja vielleicht noch einen Sinn machen, aber bei RAID 5 ?

Bei einem Raid5 aus 3 Platten hast du 2 Datenplatten, die Daten müssen also verteilt werden. Und es teilt sich eben besser durch 2 hoch x als durch "krumme" Anzahlen der Platten

Daher ist ein Raid5 aus insgesamt 4 oder 6 oder 7,8 usw. Platten nicht das Optimum was die Performance angeht.

Besser ist Raid5 mit 3 oder 5 Platten (wobei 5 schon wieder die Ausfallwarcheinlichkeit erhöht ist). Aber das ganze ist nicht weiter wichtig, dann haste halt 5MB/s weniger. Ist jetzt eher ein theoretisches Problem.
Wenne ein Raid5 mit 4 Platten willst mach es halt, hat keine wirklichen Nachteile, verlierst nur nen Hauch an Performance das ist alles.

wie setzt man ZFS denn genau ein? Soweit ich weiß gibts da keine Linuximplementierung und unter Windows siehts auch schwarz aus.
Unter Windows gar nicht, unter Linux gibts Möglichkeiten, erfordert aber noch Arbeit, muss man wissen ob man sich damit auseinander setzen mag, irgendwann wirds da sicher ne einfache Möglichkeit geben mit der auch Einsteiger klar kommen.

ZFS nativ hat man unter anderem mit NAS4Free, oder man guckt sich mal OmniOS + nappit an (alles gratis)

Obwohl mich Windows 8 gar nicht anspricht, hätte ich doch Interesse an dem ReFS. Gibt es das nur für die Servervarianten oder könnte ich unter Windows 8 auch ReFS nutzen?
Bislang ist es nur für Windows Server verfügbar.

Ein RAID6, wo jeden Monat das RAID-System geprüft wird und ReFS sollten doch wirklich die ideale Lösung sein oder? Dann würde ich meine ganze Umgebung nochmal neu aufsetzen.

Ideal wofür? An ZFS mit Raidz2 (aka Raid6) kommt es (noch) nicht heran. Zum einen weil ReFS noch relativ neu ist, ZFS hingegen schon seit Jahren im Einsatz und daher bewährt, zum anderen unterstützt ReFS noch net alle ZFS Features.

ZFS ist ne Sache für sich, am besten mal selber googlen, weil es einen anderen Weg geht als klassisches Raid.

Aber unabhängig davon was du nun einsetzt würde ich bei deiner Hardware mit doppelter Parität arbeiten, also Raid6 oder RaidZ2 (ZFS), sofern dort nicht nur temporäre Dateien liegen.
 
Zuletzt bearbeitet:
Also ein RAID 5 mit ungerader Anzahl, ein RAID 6 mit gerader Anzahl für die optimale Schreibperformance.
Das stimmt so nicht.

Du solltest OHNE Parität eine 2er Potenz an Platten einsetzen (plus Paritätsplatte)

Ein Raid5 mit 7 Platten ist auch nicht ideal obwohl es eine ungrade Anzahl an Platten hat

Optimal für Raid5 wären 3,5,9 usw. Festplatten
Optimal für Raid6 wären 4,6,10 usw. Festplatten
 
Zuletzt bearbeitet:
Tja, das heißt unser TE hat keine geeignete Anzahl von Platten für ein RAID...
 
Das ist egal, Truecrypt limitiert doch eh früher und ansonsten Gigabit Ethernet. Würde mir darum kein Kopf machen, weils nicht weiter schlimm ist.
 
Wie kommt ihr denn darauf, dass ich Gigabit benutze? :D

Mir gehts darum, dass ich in meinem "Desktoprechner" ca. 20-25 TB Speicherplatz benötige. Zum Backup möchte ich einen _SERVER_ benutzen, der würde dann per Gigabit angesprochen, das stimmt. Da Backups aber inkrementell per robocopy erstellt werden, hält es sich in Grenzen. Beim Backup ist mir die Geschwindigkeit egal. Was ich nicht möchte ist, dass ich Desktoprechner von Storage trenne. Dann bräuchte ich ja einen dritten Rechner hier (1. Desktop, 2. Storageserver, 3. Backupserver). Da ich alleine auf die Daten zugreife, wäre es sinnlos rund um die Uhr einen Storageserver am Laufen zu haben.

Die Frage ist einfach, wie wahrscheinlich ein Ausfall in meiner jetzigen Konstellation ist:
RAID5 mit 8 Platten, NTFS Dateisystem, TrueCrypt Volumeverschlüsselung, einmal im Monat RAID-System Überprüfung

Sicherheitshalber habe ich ja sowieso das Backup. Nur möchte ich natürlich mit meiner jetzigen Konstellation nicht auf einer tickenden Zeitbombe sitzen, wo ich jeden Neustart fürchten muss, dass das RAID kaputt ist.

EDIT: Ich habe inzwischen 10,4 TB auf das RAID von meinen anderen Platten kopiert. Die Geschwindigkeit hat sich weiter reduziert, beträgt nun etwa 49 MB / sek.
 
Zuletzt bearbeitet:
Raid5 mit 8 Platten ist einfach zu unsicher. Daher solltest du auf Raid6 gehen. Raid5 mit 8 4TB Platten würde ich schon eine tickende Zeitbombe nennen.

Ist halt so die Frage wieviel dir die zusätzliche Sicherheit wert ist, bei 8 Platten kommt es IMO auf eine mehr oder weniger nicht mehr drauf an. Wenn du aber sparen willst und den Verlust des Arrays verkraften kanns und dann gerne alles zurückspielen willst nimm Raid5. Aber verlasse dich nicht auf die Sicherheit dieser einen Paritätsplatte. Neue HDD reinstecken und dann resilvern ohne Fehler ist dann halt schon ein Glücksspiel

einmal im Monat RAID-System Überprüfung
Ich weiß nicht was da genau überprüft wird, sprich was der Controller da macht. NTFS hilft dir da jedenfalls nicht weiter, weil die Überprüfung des Dateisystems keinen schleichenen Datenverlust (bitrot) erkennen kann. Der Controller kann es auch nicht, weil wenn ohne Prüfsummen gearbeitet wird kannst du bei 2 unterschiedlichen Daten nicht feststellen welche korrekt sind und welche inkorrekt. Dazu benötigst du Prüfsummen, glaube nicht dass der Controller sowas beherscht
 
Zuletzt bearbeitet:
Habe gerade mal den Benchmark durchlaufen lassen, seitens der Celeron-CPU ist auf jeden Fall alles im grünen Bereich:

 
Welche Verschlüsselung hast Du den gewählt? Vergiss aber nicht, dass die CPU ja beim Benchmarks nichts weiter macht, aber im Realbetrieb auch vom RAID Controller Treiber und mit der Bedienung des Netzwerk Controllers belastet wird. Du hättest vor der Verschlüsselung mal ermitteln sollen, wie viel das ausmacht.
Ergänzung ()

Hast Du inzwischen mal mit langen Zugriffen gebencht? Siehe #21.
 
Ich hatte mir vor Jahren auch mal einen LSI Adapter zugelegt und da hatte ich auch eine katastrophale Performance mit Truecrypt. Ohne TC liefs aber komischerweise pfeilschnell. Hast du das Volume auch mal ohne TC gebencht?
 
Zurück
Oben