Frage zu Festplatten-Geschwindigkeit an RAID-Controller

oykoi

Lieutenant
Registriert
Sep. 2005
Beiträge
612
Hallo Leute,

ich hoffe ich bin hier richtig, der Thematik passend habe ich das Festplatten-Forum gewählt.

Es geht um folgendes:

Ich habe mir vier neue Festplatten gekauft (WD RED, je zweimal die 2TB und 1TB). Diese teste ich nun per wipedisk unter Windows 7 auf evtl. Fehler bevor sie ins NAS verfrachtet werden.
Angeschlossen sind sie an einem 3Ware/AMCC RAID-Controller vom Modell 9500S mit 12 Anschlüssen (PCI-Anschluss, der Serverunterbau ist ein ASUS M35-M1M inkl. AMD E-350 onboard und 4GB-RAM).

Das beschreiben (im Profil wipedisk-Standard, zweifach) dauert nun schon über zwei Tage und die Festplatten sind bei jeweils 54% bei den 1TB- bzw. 28% bei den 2TB-Modellen. Ist dies immer derart langsam? Ich meine eine 500GB aktuelle WD Mobile Black hat ca. 8 Stunden benötigt (ebenfalls wipedisk per Profil Standard, zweifach). Treiber sind aktuell und korrekt installiert und der Prozessor dümpelt bei 7-12% hin und her.

Der Prozessor ist für derartige einfache Sachen ja nicht ausschlaggebend mMn. Also kann es wohl nur am RAID-Controller liegen? Auf dem Mainboard ist immerhin nur ein 32bit-PCI-Anschluss mit 100MBs-Datenrate. Ist es so, dass der RAID-Controller diese maximalen 100MBs die über den BUS gehen auf alle 4 HDDs verteilt oder ist etwas generell damit nicht in Ordnung? Ich tippe darauf, dass es mit Anzahl der HDDs aufgeteilt wird.

Die Performance im NAS-Betrieb mit maximal 100MBs reicht mir allerdings aus, da nur ein RAID1 erstellt werden soll und nur zwei, seltenst maximal drei Leute gleichzeitig darauf zugreifen sollen. Mir gehts hier nur darum einen echten Hardware-RAID-Controller zu verwenden (und die Anschlussmöglichkeiten von maximal 12 HDDs). Wird der RAID1-Betrieb auch so quälend langsam sein?

Vielleicht hat einer die Lösung parat? Danke im Voraus liebe CB'ler...


FG,
o
 
Zuletzt bearbeitet:
äh ich hab scheisse gerechnet...
 
Zuletzt bearbeitet:
Bei PCI teilen sie sich die Bandbreite.

Abgesehen davon mal rechnen 8 * 4 = 32 h mindestens fürs 2 TB Modell
 
Zuletzt bearbeitet:
Wieso hängst du die Platten nicht an den stinknormalen SATA Anschluß?
Wie oft beschreibt/liest dieses komische wipedisk denn eine Festplatte? Wäre dd/smartctl da nicht sinnvoller?
 
8*4 = 32h oder nicht?
8*6 = 48h usw

und wurde was anderes gerechnet und ich stehe auf den Schlauch?
 
PCI ist zu lahm. Müsste ein PCI X Controller sein. Wenn der mit vollem Bus läuft der glaub nahezu 5x schneller.
 
HDScratcher schrieb:

Ah ja, das dachte ich mir eigtl auch schon. Man ist zu dumm ...

Nicht ich schrieb:
... Abgesehen davon mal rechnen 8 * 4 = 32 h mindestens fürs 2 TB Modell
Wie bitte geht die Rechnung?

Mumpitzelchen schrieb:
Wieso hängst du die Platten nicht an den stinknormalen SATA Anschluß?
Wie oft beschreibt/liest dieses komische wipedisk denn eine Festplatte? Wäre dd/smartctl da nicht sinnvoller?
Ich nutze eine 4-fach Backplane und habe die Festplatten einfach darin eingebaut. Diese ist mit den jeweiligen Ports vom RAID-Controller verbunden gewesen :freaky:

wipedisk beschreibt diese zweimal mit einer festgelegten Zeichenkette. Wie würdest du das denn mit dd und smartctl lösen? Die Windows-Lösung war mir die zeitlich einfachste, da ich weder über dd noch über smartctl für mein Vorhaben ausreichend Kenntnisse besitze (okay, smartctl kenne ich => smartctl -A)

Kartoffel200 schrieb:
PCI ist zu lahm. Müsste ein PCI X Controller sein. Wenn der mit vollem Bus läuft der glaub nahezu 5x schneller.
Ja, PCI ist in diesem Fall ein Witz. Der eingesetzte AMCC/3Ware 9500S-12 ist ein PCI64bit-RAID-Controller. Auf meinem eingesetzten ASUS E35M1-M habe ich nur 32-"bittige"-PCI-Anschlüsse (lt. Hersteller PCI 3.0), wodurch der maximale Durchsatz auf 266MBs beschränkt aber für meine Anforderungen ausreicht. Einen (mind.) 12-Port-PCI-Express-RAID-Controller kann ich mir erstens nicht leisten bzw. zweitens sind diese mind. im PCIe-x8-Layout (auf dem Mainboard nicht vorhanden).

Also:
Im Endeffekt habe ich mir diesen Flaschenhals schon gedacht. Aber, dass es derart langsam läuft, habe ich mir nicht gedacht. Meiner Berechnung nach hätte es insgesamt mind. 5 Tage gebraucht... (WievielHatErSchon-WievielMussErNoch-StoppUhr-Methode ;)).

Daraufhin habe ich abgebrochen und die Platten an die internen SATA-Ports angeschlossen. Die 2TB-Modelle waren irgendwann in der Nacht fertig, sodass ich die benötigte Zeit nicht sagen kann, schätze aber auf ca. 10-12 Stunden. Die 1TB-Modelle wipe ich jetzt seit 1650 Uhr, wobei beide Platten gerade bei 46% Gesamtfortschritt waren (1911 Uhr). Die sind dann gg. 22 Uhr fertig, was sich ungefähr mit den doppelt so großen 2TB-Modellen deckt.

Eine Frage aber noch, lt. Spezifikation schafft ein PCI3.0-Anschluss (32 bit und 66,6 MHz Taktfrequenz) ca. 266MBs. Falls der RAID-Controller diese Marke schafft (okay ausgelegt für 64bit-Betrieb, aber soviel langsamer kanns ja nicht sein), dürfte selbst ein RAID0, theoretisch, mit annähernd der vollen Leistungsfähigkeit laufen (also zwei genannte Festplatten jetzt), also ein RAID1 auf jedenfall nicht ausgebremst werden. Verstehe ich etwas falsch, da das am Anfang beschriebene Problem wirklich grottig langsam war und ich im Produktivbetrieb zweimal ein RAID1 verwenden werde.


Danke und Grüße,
o
 
oykoi schrieb:
Ah ja, das dachte ich mir eigtl auch schon. Man ist zu dumm ...


Wie bitte geht die Rechnung?
Ich meine eine 500GB aktuelle WD Mobile Black hat ca. 8 Stunden benötigt
Du schreibst du benötigst 8 Stunden bei einer 500 GB HDD, dann dauert das für die 4 fache Menge an Speicher (2 TB) mal gut 32 h (eben 4x 8h). Ok, ich habe es mir etwas einfach gemacht, da aber nicht die HDD der Flaschenhals ist, ist es egal welche HDD dranhängt, da bei dir eben noch der PCI Bus erschwerend hinzukommt, und wie andere schon sagten, wird es bei zeitgleichen schreiben für die einzelne Platte langsamer.

Ich habe das auch erst durch, von 4,1 TB (3x 1,5 TB) habe ich kürzlich auf 8,2 TB (3x 3 TB) migriert. Über einen PCIe-Controller hat das Beschreiben pro Platte aber nur 6-7 h gedauert, bei 3 TB.
 
Zuletzt bearbeitet:
oykoi schrieb:
Eine Frage aber noch, lt. Spezifikation schafft ein PCI3.0-Anschluss (32 bit und 66,6 MHz Taktfrequenz) ca. 266MBs. Falls der RAID-Controller diese Marke schafft (okay ausgelegt für 64bit-Betrieb, aber soviel langsamer kanns ja nicht sein), dürfte selbst ein RAID0, theoretisch, mit annähernd der vollen Leistungsfähigkeit laufen (also zwei genannte Festplatten jetzt), also ein RAID1 auf jedenfall nicht ausgebremst werden. Verstehe ich etwas falsch, da das am Anfang beschriebene Problem wirklich grottig langsam war und ich im Produktivbetrieb zweimal ein RAID1 verwenden werde.
Auf deinem Board ist ein stink normaler PCI Port verbaut. Unabhängig davon was Asus angibt (und die geben auf der Website nur "PCI" an und i Handbuch steht auch nix definitives) ist das immer 32bit/33Mhz also theoretisch 133MB/s Maximum. I.d.R. kommt da maximal zwischen 80-100MB/s real an. Und das auch nur in eine Richtung da PCI im Gegensatz zu PCIe keine Daten gleichzeitig in beide Richtungen über den Bus übertragen kann.

Nix 266MB/s. Mir ist kein Consumer Board bekannt bei dem bei normalem PCI etwas anderes verbaut wurde als 32bit/33MHz. 64bit PCI Ports sind länger als die normalen PCI Ports und wenn dann auf Workstation und Server Boards zu finden.

Ganz im Ernst. Der PCI Bus ist ein Kind der 90er und hat in nem modernen Rechner nix mehr zu suchen, geschwiege denn sollte man da irgendwelche Festplatten dranhängen und performance erwarten. Das Ding ist einfach langsam. Da hilft auch der Controller gerade garnix.

Dein Problem ist einfach das Board kann kein Raid von sich aus welches du nutzen könntest und welches vermutlich doppelt so schnell wäre wie das auf dem Controller. Vielleicht geht ja ein Software Raid über das OS?

Ich würde Board und Controller in die Weite schicken und was ordentliches kaufen. Dann gibts auch ordentlich Speed.
 
Zurück
Oben