PCIe RAID Controller für SSD RAID1 oder internes SATA RAID?

So, jetzt kann ich endlich ein paar Ergebnisse posten.
Ich habe gestern mal ein Projekt geladen und 2 Screenshots gemacht.

Hier werden die Projektdaten geladen. Wie man sieht ist die Auslastung bei 100%.
Daten Laden SSD.png


Bei abspielen verhält es sich dann schon ruhiger. Hier sind nur die zwei kleinen Berge rechts relevant.
Allerdings müsste ich für einen Extremwert wohl ein anspruchsvolleres Projekt raussuchen.
Projekt abspielen SSD.png


Und zum Abschluss hier noch der AS SSD Benchmark:
as-ssd-bench Intel Raid 0 Vol 13.09.2016 20-02-04.png
Ergänzung ()

Holt schrieb:
Das erhöhte Ausfallrisiko ist Dir hoffentlich bekannt und ebenso, dass der Controller selbst gar nicht so eine hohe Bandbreite hat um ein RAID 0 mit so vielen SSDs noch voll nutzen zu können.

Ja, das Risiko ist mir bewusst! Die Platten fungieren nur als "Sample-Schleuder". Ich mache regelmäßig Backups vom RAID und die
Samples in ihrem nicht installierten Ursprungszustand liegen nochmal auf einer anderen Platte.
Du meinst, dass ein PCIe RAID Controller das Potential von 4 SSDs gar nicht ausschöpfen kann? Noch nicht mal ein LSI oder Adaptec für 600€?

Holt schrieb:
Also reines Datenlaufwerk wäre das kein Problem, davon booten zu wollen, könnte eines werden.

Genau es sind reine Datenplatten (keine Projektdateien) und gebootet wird von den Platten nie.

Holt schrieb:
Bzgl. der IOPS wäre auch die Frage wie viele parallele Zugriffen den überhaupt stattfinden, denn nur viele sehr vielen parallelen Zugriffen kommen die SSDs wirklich auf ihre maximalen IOPS.

Kann man sowas irgendwie messen, gibt es Tools, die Zugriffe über einen bestimmten Zeitraum überwachen können?
 
Schau besser mit dem Resourcenmonitor als dem Task Manager nach, wobei der ja Task Manager ja auch nur maximal so 250MB/s angezeigt hat, keine Ahnung wie genau das stimmt, aber wenn es halbwegs hinkommt, dürfte das Laden vom RAID nicht schneller als von einer einzelnen SSD gewesen sein.
 
:freak::eek: Das wäre natürlich krass, wobei ich jetzt nicht weiß, ob es an meinem Anwendungsfall oder am verwendeten Intel onboard RAID Controller liegt. Ich glaube ich muss wohl wirklich testweise einen RAID Controller bestellen.
 
Bei einer SSD die nur an einem SATA 3Gb/s Port hängt, würden 250MB/s wirklich so ungefähr das Limit sein, aber Du hast doch das RAID benutzt. Schau doch mal was der Task Manager (und am Besten auch der Resourcenmonitor) während eines Benchmarks mit AS-SSD anzeigen, denn sieht Du ja ob das so ungefähr hinkommen kann.
 
Werde ich die nächsten Tage machen und hier posten!
 
Ich hab das jetzt mal getestet und die Zahlen im Task Manager stimmen hinten und vorne nicht. Liegt vielleicht auch an Windows 8 :evillol: Der Ressourcen Manager war schon etwas verlässlicher, aber sehr unübersichtlich. Die Werte waren auf jeden Fall höher als 250MB/s und kurzzeitig bei 500 MB/s.

Die letzten Tage habe ich so viel Negatives über RAID0 mit 4 SSDs gelesen, dass ich mittlerweile ins schwanken gekommen bin, ob das die richtige Lösung ist. Den Workload auf mehrere SSDs zu verteilen (=Skalierbarkeit) scheint bei mehr als 2 SSDs einfach nicht gegeben zu sein.

Jetzt hatte ich aber eine andere Idee:

Was wäre, wenn ich 4 einzelne SSDs nehme und die Samples darauf verteile? Sprich: ladeintensive Libraries, die parallel laden auf SSD1, SSD2, etc... Sodass sie sich beim Laden nicht ins Gehege kommen. Dann das ganze als JBOD konfigurieren und zu einem logischen Laufwerk X: zusammenfassen.

Wäre durch diese Methode ein Vorteil gegenüber RAID0 vorhanden?
 
Das der Resourcenmonitor besser taugt als der Task Manager, sage ich doch immer. Dort muss man nur beachten, dass die Anzeige der Dateien nicht aktuell ist, der Resourcenmoitor zeigt also auch noch Zugriffe auf die Dateien an, wenn diese schon beendet sind. HWInfo64 und dessen Sensors wäre auch eine Möglichkeit, dort sieht man wie viele MB/s übertragen werden und es hält auch die Werte fest, die während es läuft maximal aufgetretenen sind.

Wenn schön verteilt auf die Libraries zugegriffen wird, dann sollte es auch gut mit der Verteilung auf verschiedene SSDs die als Einzellaufwerke arbeiten passen.
 
Ich habe am Wochenende verschiedene Konfigurationen durchprobiert.
Dafür habe ich keinen Benchmark genutzt, sondern ein Projekt geladen und die Zeit gestoppt.

1. Intel RAID0, Ladezeit: 53,40 Sekunden
2. Windows Software RAID0, Ladezeit: 54,78 Sekunden
3. JBOD, Ladezeit: 57,37
4. LSI 9260-8i (sollte die nächsten Tage geliefert werden), reiche ich nach

Ich denke die Crux an der Sache ist die:
beim Laden des Projektes wird jede Sampler-Instanz (in dem Fall Native Instruments Kontakt) nacheinander geladen.
Das liegt aber wohl an meinem Sequencer "Cubase" (will ich aber noch genauer untersuchen), der jede Spur der Reihe nach lädt, also nicht parallel.
Wenn Kontakt nun ein Klavier lädt und die entsprechenden Samples auf einem RAID0 liegen, dann werden die Samples abwechselnd von Platte 1 und 2 gelesen, was natürlich einen Geschwindigkeitsvorteil bringt. Dieser ist allerdings nicht extrem hoch, wenn man sich den Vergleich von Intel RAID0 und JBOD anschaut. Denn im Falle von JBOD liegen die Klavier Samples alle auf einer Platte und nicht auf 2, wie im RAID0-Vebund.
Ich denke das hat auch sehr stark mit dem RAID Algorithmus des verwendeten Herstellers zu tun. Ich werde das die nächsten Tage mit dem LSI testen.
 
Die RAID Algorithmen sind eigentlich alle gleich, die Windows SW-RAIDs sind zwar bekannt dafür wenig performant zu sein, aber bei einem RAID 0 mit 2 Platten, fällt das nicht so ins Gewicht. Das Problem ist Deine SW, die ist eben für HDDs optimiert, wenn die immer nur eine Datei zur Zeit liest, weil das bei HDDs eben schneller ist als mehrere parallele zu lesen, nur bei SSDs ist es eben in aller Regel umgekehrt und außerdem dürfte die CPU begrenzen. Das ist aber schwer zu diagnostizieren, denn wenn ein Thread am Limit ist, dann schiebt der Scheduler von Windows den so schnell hin und her, dass man nie einen Kern voll ausgelastet sieht und im Taskmanager sind 100% erst erreicht, wenn alle Kerne voll ausgelastet sind, so kann z.B. bei 8 (4+HT) Kernen ein Thread alleine maximal 13% erreichen.
 
Zurück
Oben