Raid 0 Geschwindigkeit in Ordnung ?!

Agent_XXX

Banned
Registriert
Juli 2006
Beiträge
246
Hallo du,

kenne mich ned wirklich mit der Geschwindigkeit eines Raid 0 aus.
Aber denkemal die Geschwindigkeit ist i.o. ?!
Abgesehen von der Access Time... ?!





 
Zuletzt bearbeitet:
das hängt von den festplatten ab.
du hättest diese vor dem raidverbund testen sollen, dann hätten wir hier auch vernünftige verlgeichsmöglichkeiten.
 
Ohne RAID0 hat man aber niemals so hohe Werte bei einer 7200rpm Platte. Ich denke die Werte sind ganz ok, kommen schon fast an mein Raid0 mit zwei 10000rpm Platten heran.
 
Habe 4 Hitachi 160Gb im Raid 0+1 seit langer Zeit. Hier die Werte:
Minimum: 3,2 Mb/s (ist genau eine Zacke dies runterzieht), Maximum 122, Avergae 97

Access Time: 12,7ms, Burst rate 141,7, CPU: 4,2%

Da du neuere Platten ahst und neuere Hardware sind deine Werte um ne Ecke besser. Sollte somit alles passen bei dir.
 
Jupp und bei ihm sehen die Kurven bzw. Transferraten recht ordentlich aus (Bei ihm fällt kaum was unterhalb seiner normalen Festplatten Transferrate (wenn sie im Einzelbetrieb wäre 500 GB Festplatten wie meine haben auch nur ca. 80 MB/s an Transferraten im lesen). Und die Leistung fällt nicht zu stark rapide ab.

@ Agent XXX mit welchen Einstellungen bei HD Tune hast du dein Raid 0 genau getestet? Ich meine Test Speed und Blocksize
 
Zuletzt bearbeitet:
Habe nix eingestellt...
HD Tune installiert und auf Start geklickt...
 
Achso dann sind es die Standard-Settings bei ca. 64 KB und etwas im accurate Bereich liegend. Kann man unter Options->Benchmark einstellen...
 
Dieser Bench bringt eh nichts.

Auf die Uhr geguckt, ob jetzt irgend etwas schneller läuft?
Wenn ja: Ziel erfüllt.
Wenn nein: Das Raid0 ist für dich ein Reinfall.
 
Das kann er spätestens dann sehen, wenn bei ihm bei Games Maps schneller geladen werden oder diverse Programme oder der Boot-Vorgang schneller läuft. Pauschal kann man es nicht einfach so behaupten: Raid 0 brächte nichts, aber das behauptest du ja nicht.

Der HD Tune Bench ist insofern nicht so aussagekräftig wie vielleicht andere Benches, weil er nur lesen erlaubt. Schreiben geht nur mit der Pro Variante aber da auch nur mit Einschränkungen. Zudem die Accestimes werden bei HD Tune anders gemessen, als es die Hersteller der Platten tun.
 
Zuletzt bearbeitet:
Ich denke die Werte sind in Ordnung.

Hab zwar höhere Werte, aber auch andere Platten, bzw. mit einem anderen Tool gemessen. Vielleicht schaffe ich es demnächst mal und teste auch mal mit Deinem Programm.
 

Anhänge

  • HD Tach.jpg
    HD Tach.jpg
    124,2 KB · Aufrufe: 166
Was soll daran nicht gesund sein ?

Die Ausreiser sind die dauernd im Hintergrund stattfindenden Zugriffe des OS (Vista).
Das liest doch dauernd von der Platte im Hintergrund.

Ich hab schon sehr lange immer Raid in Benutzung und habe noch nie (selbst nach einer frischen Installation)
eine gerade verlaufende Linie gesehen. Das habe ich nur bei nicht Raid Platten.

So einen Verlauf wie bei Dir mit Raid habe ich noch nie (bei Raid) gesehen. Allerdings haste mind. im 2ten Test SCSI Platten getestet.
Vielleicht liegt es auch daran, das auf meinem Raid auch das System liegt wo dauernd Zugriffe stattfinden und Du hast im Raid eventuell "nur" Daten liegen.
 
Auf den Arrays war ebenfalls immer das OS installiert. Der erste Screenshot ist sogar eben erst entstanden. OS Vista Ultimate 64bit. Keine Einbrüche. Kein getweaktes System.

Ich verwende ebenfalls seit Jahren Raid Arrays. Und wenn ein Screen so aussehen würde wie bei dir würde ich mir Gedanken machen was da falsch läuft.

Hier nochmal ein paar alte Screener:



3tes Bild ist ein Controllerdefekt. 2 und 6 zeigen schön wie OS Zugriffe aussehen sollten bzw in welchen Regionen sich das bewegen sollte.
 
STFU-Sucker schrieb:
Und wenn ein Screen so aussehen würde wie bei dir würde ich mir Gedanken machen was da falsch läuft.
Das ist doch alles nur eine Sache der eingestellten Stripe-Size und der Blockgröße mit der der Benchmark arbeitet. Aber ich denke das weißt du STFU-Sucker und erlaubst dir hier nur einen kleinen Spaß. ;)

@ManDrake
Benutze mal HD-Tune und stelle in den Einstellungen unter Benchmark mal 8 MB bei "Block size" ein und du wirst, auch ohne die Stripe-Size des RAIDs ändern zu müssen, einen ebenso gleichmäßigen Verlauf haben.
 
So schnell lasse ich mich nicht ins Boxhorn jagen.

Wie gesagt ich habe schon sehr lange RAID und hatte schon immer selbst mit neuen und frisch aufgesetzten System diese "Zacken".
Am Anfang hatte ich mir da schon Gedanken gemacht, aber jetzt länger nicht mehr.

Das einzige wo ich bisher noch keine wirklich befriedigende Antwort erhalten habe ist die beste Größe für die Stripesize beim anlegen.
Die vorgeschlagenen 128 erscheinen mir für den Durchschnitt zu hoch und die 32 wahrscheinlich zu niedrig, so das ich bisher meist zu den 64er Clustern tendiert habe.

Da ich ja im Moment nur die neue(n) F1 einsetzte habe ich für die "geplagten" User derselben hier im Forum gestern mal frische Benchmarks gemacht mit teilweise interessantem Ergebnis.

Also scheint der HDTach nicht nur ein reiner Lesetest zu sein, sonst dürfte es sich durch einen Schreib Cache nicht irritieren lassen.

Man beachte aber... Der HDtune lies sich dadurch nicht beeindrucken und zeigte weiterhin ~140 MB/s an. Ich würde also sagen, als Lese Test ist dieser "geeigneter"
 
Zuletzt bearbeitet:
@ stfu-sucker, sit das wirklich eine nvidia onboard Raid Test gewesen? Sieht mir mehr nach Raid Controller mit CPU und Ram aus...
Alleine die geringe CPU-Auslastung deutet darauf hin. (gemeint sind Bild 4 und 5)

PS: Du hättest wenigstens mal die Frage: Wie gut ist die Adaptec Raid Series 5 beantworten können! Ich kenne nur zwei Leute im Forum dich und der HISN die irgendwas über vernünftige Raid Controller Karten mit eingebauten Chip und Ram weiss oder eine hat.

@ManDrake, STFU-Sucker könnte bei den Adaptec Raid Controller Test eine WD Raptor oder eine Serverplatte (sei es eine SAS oder SCSI Platte) benutzt haben. Die ms-Zugriffszeiten deuten jedenfalls darauf hin. (SCSI 320 ist aber eher unwahrscheinlich, wer viel Geld investiert für Serverhardware sollte nicht mehr parrelle Schnittstellen kaufen/nutzen und eher auf zukunftsischere Raid-Controller bzw. Platten mit SAS und S-ATA setzen, serielle Datenübertragung gehört die Zukunft. SCSI und IDE wird theoretisch durch die parallele Datenübertragung wegen Asynchronitäts-Problemen gebremst).

Aber das nur bei Abbildung 2. Bei der ersten Abbildung sieht es mehr nach normalen S-ATA Plattena us wegen der geringen Zugriffsrate. (Gemeint mit Abbildung 1 und 2 sind die zwei Bilder im ersten Post von STFU-Sucker) Die Frage dürfte hier eher lauten hat er die meisten Test mit einer Raid-Controller Karte gemacht und die Raid-Systenamen nur verändert?
 
Zuletzt bearbeitet:
Madnex schrieb:
Aber ich denke das weißt du STFU-Sucker und erlaubst dir hier nur einen kleinen Spaß.
Ja logisch kenn ich die Möglichkeiten Strip Size bzw. Block größen. Wenn man daran rumfummelt ändern sich auch marginal einige Werte. Aber die Verlaufskurve bleibt eigentlich wie sie ist und geht nicht auf Berg und Talfahrt.
Trinitron schrieb:
Du hättest wenigstens mal die Frage: Wie gut ist die Adaptec Raid Series 5 beantworten können!
Welche Frage? Hast du mir ne PM geschickt?
Triniton schrieb:
ist das wirklich eine nvidia onboard Raid Test gewesen? Sieht mir mehr nach Raid Controller mit CPU und Ram aus...
Das war ein stink normaler Nforce 4 Ultra/Sli.

Das Bild mit dem Adaptec Controller zeigt die Kurve eines Raid 0 Arrays bestehend aus 2 Maxtor 15k2 U320 SCSI Festplatten. Controller war ein Adaptec 2130SLP mit 128MB Cache.

Bild 1 im 2ten Post waren 2 alte 40GB IDE Platten von Maxtor am NVidia NForce 4 Controller.

Bild 2 ist ein Pärchen 36GB Raptoren am NVidia NForce 4 Controller.

Bild 3 ist ein Paar 36GB Raptoren an einem defekten HighPoint Rocket Raid 2420 PCIe 4x.

Bild 4 Raptor Raid Paar am Intel Controller (P5WDG2 WS Pro mit ICH7R).

Bild 5 ist ein Raid 0 36GB Raptor an einem Silicon Image PCIe 1c Controller.

Bild 6 ist wieder ein Raid 0 2er 36GB Raptoren. Allerdings gegenüber Bild 2 sind das Raptoren mit ner anderen Firmware und neuerem Produktionsdatum.

Bild 7 zeigt den Vergleich zwischen 2 Raptor Raid 0 einmal am NForce 4 und dem Silicon Image PCIe 1x.

Müsste so das sein. 100% will ich mich da nicht festlegen. Die Bilder sind ja schon teilweise 3 Jahre alt.
 
STFU-Sucker schrieb:
Wenn man daran rumfummelt ändern sich auch marginal einige Werte. Aber die Verlaufskurve bleibt eigentlich wie sie ist und geht nicht auf Berg und Talfahrt.
Da sagt mir meine Erfahrung aber was anderes. Der Verlauf der Transferkurve hängt stark von der eingestellten Stripe-Size des RAIDs und der Blockgröße, mit der der Benchmark arbeitet, ab. Passt die Blockgröße nicht zur eingestellten Stripe-Size, ist das Ergebnis eine Berg- und Talfahrt, was allerdings in der Regel nur von kosmetischer Natur ist.
 
@STFU-Sucker sehr informativ. Ehm das mit der Adaptec Raid Series war ein kleiner Scherz, aber den Post von mir im Festplattenforum hättest du als Raid-Nutzer bemerken müssen. Aber wer ist schon jeden Tag hier. (Such einfach mal im Forum unter SuFu: Adaptec 5 Series)

Wo Madnex Recht hat hat er Recht. Siehe HD-Tune man braucht nur die Testwerte zu verändern. Block-Size auf 64 Kilobyte statt 8 Megabyte oder 32 Kilobyte und Testverfahren auf mehr akkurat ,,acurrate" oder auf schnell ,,fast" und schon sieht man andere Kurven.
Und Leistungswerte. Aber das Problem dürfte eher der Controller darstellen und evtl. die Festplattenkonfiguration im Raid selbst drüfte das Problem sein. Ist der Controller lahm (ungecachet und ohne Prozessor) lassen sich kaum fast lineare Kurven erreichen. In der I/O Performance sind richtig gute und teure Server Raid-Controller da besser als onboard.
 
Zuletzt bearbeitet:
Zurück
Oben