Raid 5 richtig einrichten

Wären Linux (64 Bit! nativ installiert.) und zfs eine Option? Ich habe damit sehr gute Erfahrungen gemacht. Das könntest Du als Samba share freigeben und darauf TC Images legen...
 
Mach mal den Erase-Test mit 96 Sektoren (48K) Blockung, wenn auf dem RAID keine Daten mehr benötigt werden und zeig den Screen.
Was die Leistungsanzeige von Win vor sich herphantasiert, muss nicht in der Realität vorhanden sein.

Auch ein anderes Filesystem ändert an diesen Werten überhaupt nichts, weil das nur langsamer als die physischen Zugriffe dieses Tools sein kann. Hiermit kann man sich aber über etwaige Alignmentfehler hinwegsetzen, deswegen hab ich das ja gewählt.

Hier limitiert was anderes ganz kräftig, entweder der Controller selbst oder die Anbindung via PCI-E. Das sind ja nicht mal 50% der Werte einer Einzelplatte.
 
Zuletzt bearbeitet:
Mein Vorschlag: Entsorge den Controller in den Elektronikschrott.
 
Oder setze den Controller in den HBA Modus und arbeite mit Software Raid. Preis/Leistungsmäßig in dem Fall das effektivste...
 
Das liegt an der Länge der Zugriffe die HDScan macht. Die Transferraten eines RAID0 werden ja erst bei Zugriffen schneller, die ab dem doppelten des Stripsizes losgehen und bei 4 Platten erreichst Du erst ab jenseits des 4 fachen Stripping Sizes die volle Geschwindigkeit, weil nur dann die Daten optimal über alle Platten gelesen oder geschrieben werden. Benche mal mit AS-SSD Benchmark, der ist zwar für SSDs, aber der macht den seq. Test über 16MB und die Random Tests (4k und 4k_64) kannst DU sowieso disaktivieren, da die 4k von dem RAID wenn, dann nur übers Cache des Controllers profitieren. Wenn das RAID frisch formatiert und leer ist, solltest Du die maximal Performance über die äußersten Zylinder messen können.

Welchen Controller und welche Platten hast Du denn nun? Wenn Du so einen Schrott wie den hier hast, dann kann der wohl wirklich nicht mehr.
 
Zuletzt bearbeitet:
Der Promise FastTrak TX8660 RAID HBA ist ein Software-RAID-Adapter, hat weder Cache noch eine XOR-Intelligenz auf der Platine.
Spätestens wenn einmal eine HDD ausfällt und das RAID neu erstellt werden muss schätze ich mal zwischen 4 und 7 Tage für das Rebuild bei der größe der HDDs.

Hardware-RAID-Controller gibt es von Adaptec, Areca, LSI (3Ware gehört jetzt auch zu LSI). Promise hat mit der SuperTrak-Serie HW-RAID-Adapter.

Wir benutzen LSI seit es ICP nicht mehr gibt und die "kleineren" RAID / SCSI Adapter von Adaptec öfters einmal schwierigkeiten bzgl der Treiber bereitet haben.

Für heimgebrauch ist LSI nicht übel, unterstützen allerei Betriebsysteme.

Kostenpunkt ca. Euro 300 für einen Adapter für 4 HDDs, 400 bis 500 für 8 HDDs, bei LSI richtet es sich auch danach ob Bulk oder Kit. Die Preise sind bei allen Herstellern in etwa identisch.
Dazu kommt noch ca. Euro 120 für die Buffer-Batterie, ansonsten kann das mit dem Schreib-Cache schon einmal in die Hose gehen, Systemabsturz, Stromausfall (UPS vorausgesetzt).

Hier ein Link bzgl. RAID einrichten http://www.tomshardware.de/RAID-Stripes-Blockgrosse,testberichte-239896.html. Das ist so aus dem Stegreif nicht zu beantworten, theoretisch um so größer die Stripe-Size um so schneller.

Wichtig sind auch die HDDs selbst, mit billig Consumer-Platten kann es böse überraschungen geben. Seagate Constellation ist als SATA nicht schlecht, kostet aber ca. Euro 140,- 500 GB, ist aber auch schnell.

Wie soll dann das Backup erstellt werden bzw, wie sollen die Daten über das Netz, schlechte NICs sind dann schon der nächste Flaschenhals bei einem performanten RAID.
 
Was ist denn mit dem hier:
HP Smart Array P400 SATA SAS Raidcontroller 256MB BBU Low Profil
oder
HP Smart Array P800 SAS RAID Controller 398647-001 PCI-E 512 MB Cache + BBU

Für ein Raid 5 ? Gut oder nicht gut ?
 
Für deine Zwecke wahrscheinlich vollkommen ausreichend, der Controller ist allerdings von 2006. Ich weiß nicht wie lange HP hier die Firmware noch gepflegt hat aber es wäre gut möglich das 3TB Platte daran nicht sauber laufen. Außerdem bleibt auch bei dem Modell das Problem, dass er sich nicht mit jedem BIOS/Board verträgt.
 
Leistungsmäßig reicht er bestimmt (sofern ich das ohne genaue Vorgaben einschätzen kann)... es ist die Frage ob du ihn ohne Kopfschmerzen zum Laufen bekommst.
 
Die Performance beim lesen und schreiben dürfte etwa gleich sein, denn die Parity muss ja immer ermittelt werden und HDDs lesen eben etwas genauso schnell wie sie schrieben, mal abgesehen von den paar MB die in den Cache passen.
 
Controller ist da, warte wegen Fehllieferung auf die passenden SFF-8484 auf Sata Kabel. Der Controller wird auf jeden Fall erkannt. Werde heute noch ACU von HP installieren und beginnen die Daten des alten Raids zu sichern. Im Laufe des WE gibts dann ein Feedback zum neuen p400 Controller.
An der Stelle erstmal Danke für den sinnvollen Support von Euch.
 
Holt schrieb:
Das liegt an der Länge der Zugriffe die HDScan macht. Die Transferraten eines RAID0 werden ja erst bei Zugriffen schneller, die ab dem doppelten des Stripsizes losgehen und bei 4 Platten erreichst Du erst ab jenseits des 4 fachen Stripping Sizes die volle Geschwindigkeit, weil nur dann die Daten optimal über alle Platten gelesen oder geschrieben werden.
Das ist ein Irrtum.
Benchmarks setzen üblicherweise die Befehle in einer bestimmten Blockung sequentiell ab. Das noch dazu in einer bestimmten Queuetiefe. Diese Befehle werden dann vom Controller auf die Memberplatten aufgeteilt und auf die Einzelplatten gequeued, bis deren Queuekapazität (max 32) erschöpft ist und sie keine weiteren Befehle mehr annehmen können. Abarbeiten geschieht per NCQ jeder einzelnen Device und der DMA-Verfügbarkeit.

Bei einem RAID0 ist es somit egal, ob die I/Os in Stripesize, darunter oder darüber, abgesetzt werden. Solange die Anzahl der abgesetzten hoch genug ist, dass jeder Memberplatte noch einen weiteren in die Queue gestellt bekommt, bevor der letzte davorliegende abgearbeitet ist, kann mit voller n-fachen Geschwindigkeit gearbeitet werden.

Jeder dumme Intel onboard-Controller, dessen Logik in der Treiberprogrammierung steckt, mach das richtig und es kommen nahezu die gleichen Werte wie Einzelplatte*Anzahl Member beim Lesen und Schreiben dabei raus.

Bei Zusatzcontrollern entscheidet die Qualität von Treiber+Firmware sowie die Anwesenheit eines Cache+CPU

Bei RAID5 Schreiben kann wegen der Parityupdate-Problematik nach einem Split des I/Os auf die Memberplatten ein vorheriges performanceminderndes Lesen nur verhindert werden, wenn die ursprüngliche I/O Anforderung genau den folgenden Kriterien genügt:
- muss an einem Alignment der Stripeset-Size (=Stripesize*[#Members-1]) liegen
- muss eine Länge eines ganzzahligen Vielfachen der Stripeset-Size aufweisen

Andernfalls müsste selbst ein Cache-Controller eine Echzeit-Optimierung der in der Queue und im Cache gelagerten Write-Requests vornehmen, um keine Performanceeinbußen in Kauf nehmen zu müssen. Üblicherweise arbeitet ein Cache-Controller am besten mit einem Workload aus I/Os, die nicht größer als die Stripesize sind und nimmt damit die Parity-Updateproblematik in Kauf. Deswegen gilt hier: Je höher die Stripesize, desto flutsch. Denn wenn nur von zwei Platten gelesen werden muss, ist die Wartezeit geringer als bei drei oder mehr Platten.
 
Zuletzt bearbeitet:
Wie HDScan genau misst, kann ich nicht sagen, aber HD Tune liest in der Standardeinstellung nur alle paar MB 64kB und mit QD1, weshalb die SSDs dabei auch regelmäßig geringere Transferraten zeigen als in anderen Benchmarks wie AS-SSD, der die seq. Transferraten mit 16MB Zugriffen ermittelt.
 
Zurück
Oben