Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Projekt: Heimserver auf HyperV Basis mit Server 2012 R2 Datacenter und Storage Spaces
1. Improve "CSM" policy.
2. Update Intel SATA initialize code.
3. Add customize Fan function.
4. Add "Restore BMC Mac from backup" function.
5. Support DDR3 16GB.
6. Improve system boot up time.
7. Add "ECC support" item to control ECC function.
gerade auf die Fan Control bin ich etwas gespannt.
Hab auch mal das BMC konfiguriert und angeschlossen. Hat mich etwas gewundert was man da alles einstellen kann.
Sehr nett zu lesen. Hatte auch einige Zeit einen Homeserver laufen, allerdings mehr als Spielerei. Produktiv nutze ich derzeit aus Zeitgründen "nur" ein Synology NAS. Aber mal sehen was die Zukunft bringt.
Schade, dass du deine Settings nicht wirklich einsteigerfreundlich erklärst, sondern in gewisser Weise schon Kenntnisse vorraussetzt. Wäre natürlich überragend, wenn du deine gewonnenen Kenntnisse in einem Tutorial sauber, übersichtlich und anfängertauglich darstellen könntest.
Vielleicht hast du da ja mal Interesse dran^^
Was sich mir noch nicht ganz erschließt: Wieso braucht man für Tiering (also SSD und HDDs zusammen - soweit ich das verstanden habe) für einen Pool 2 SSDs bzw eine SSD mit zwei virtuellen Platten (so hast es du ja gelöst)?
Kann ich da nicht einfach nur eine SSD hinzufügen ohne virtuelles Laufwerk?
Kann man beim Board Staggered Spin-up, also dass zeitversetzte anlaufen der Festplatten einstellen bzw. wird es überhaupt unterstützt ?
Du schreibtest zwar das 7 HDDs mit der Pico 160 problemlos anlaufen, würd mich allerdings trotzdem interessieren ob das irgendwie möglich ist.
Ansonsten Super Idee und sehr geil beschrieben, habs auch mal aboniert.
Kann man beim Board Staggered Spin-up, also dass zeitversetzte anlaufen der Festplatten einstellen bzw. wird es überhaupt unterstützt ?
Du schreibtest zwar das 7 HDDs mit der Pico 160 problemlos anlaufen, würd mich allerdings trotzdem interessieren ob das irgendwie möglich ist.
Ansonsten Super Idee und sehr geil beschrieben, habs auch mal aboniert.
Das macht Windows von allein. Im BIOS selbst gibts keine Option für.
Ich werde wohl etwas umkonfigurieren. Storage Tiering geht ja nur mit Mirror (Also SSD Cache+ Tier für häufig verwendete Inhalte) - im Parity kannste lediglich auf Write Back Cache zurückgreifen der aber bei den Schreibraten viel bringt (Lesend is das Parity auch so recht fix)
Ich hab viele kleinere Files und Bilder auf nun 2x2 TB im Mirror mit 2x 258GB SSD. Daraus bauch ich nun ein richtiges Tier und Deduplication.
Die 4x 4 TB im Raid 5 werde ich weiterhin mit 2x~ 40GB Write Back Cache unterstützen in Form von 2 Virtuellen SSDs.
Unter 2 SSDs / Tier geht leider nicht und splitten ist leider auch nichts. Du kannst also nicht einfach mal 2x100GB an Tier 1 und 2x100Gb an Tier 2 hängen, außer du machst Virtuelle SSDs auf diesen physikalischen SSDs. So mach ichs bei den weniger kritischen Daten.
Das 2x256GB SSD + 2x2 TB Mirrored Tier is für meine hochperformanten und wichtigen Daten + Musik + VMs die aufm Homeserver laufen. Die 4x4 TB + 50 GB Write Back Cache für recht unkritische Daten, Filme, Software.
Ich hab dann nachher folgendes am System:
256GB SSD (OS) -> darauf ~ 50 GB VHD
128GB SSD -> Port Apps + 50GB VHD
4x4 TB HDD + diese 2x50 VHDs (SSDs) -> Pool 1 -> 12 GB Parity + 50GB Write Back Cache (reicht für jeden Film)
-> macht 11 belegte SATA + Platz für ne weitere 4 TB ins Parity falls mal eng wird.
Ergänzung ()
glacios schrieb:
Was sich mir noch nicht ganz erschließt: Wieso braucht man für Tiering (also SSD und HDDs zusammen - soweit ich das verstanden habe) für einen Pool 2 SSDs bzw eine SSD mit zwei virtuellen Platten (so hast es du ja gelöst)?
Das mit den 2 SSDs ist nur bei gespiegelt, also mirrored der Fall. Ich hab jetzt auch erst über die Zeit etwas gelernt was geht und was nicht geht. Gespiegelt macht das ja auch Sinn, imho teilt Windows ja transparent IO kritische Daten auf die SSD, und andere Daten auf die HDDs auf, bzw schiebt das dynamisch je nach dem was gebraucht wird auf SSD oder HDD. Ordner auf die SSD Seite zu pinnen geht auch.
Damit dieser Pool aus SSD und HDD auch bei Verlust einer SSD noch aktiv und zu retten ist, braucht du schlicht 2 SSDs. Zudem hast du bei den Storage Tiers (Also Mischung HDD + SSD) nur die Option die ganzen Laufwerke als einen Pool anzulegen (glaub ich).
Ich sicher eben 2 TB weg und mach dann aus 2x256GB und 2x2 TB diesen gespiegelten Pool. Etwas viel SSD aber die Preise sind ja gefallen.
Ich hoffe dass MS die Sache noch aufbohrt. Am sinnigsten wäre für mich das Tiering eben mit Raid5 da ich wenig Lust hab alles doppelt zu unterhalten
Also konkret... 2x256GB SSD + z.B. 4x4 TB HDD. Die 4x4 TB kann er Raid 5 machen, also 12 GB effektiv während die SSDs ja mirror sein können (zwecks Verfügbarkeit + Ausfallrisiko ein Muss)
Stand heute geht da nur Write Back Cache (verbessert Schreibraten) - aber das eigentliche intelligente Caching geht nicht, also dass zb das immer wieder selbe geladene Bild etc auf den gespiegelten SSDs vorgehalten wird).
Was man sagen muss... dieser ATOM, selbst mit 8 Kernen, reißt natürlich im Vergleich zu nem XEON auf Haswell keine Bäume aus - auch bei Schnittstellen Geschwindigkeiten. Dennoch, meine Platten sind alle AES verschlüsselt und die Raten sind definitiv hoch genug für n fixes Gigabit Lan.
Wo ich selbst noch etwas strauchel ist die GUI. Viele Settings gibt die GUI einfach nicht her und verlangt Powershell. So muss man zb auch defekte Platten (hat ich jetzt noch nicht) - glaub erst auf "veraltet" setzen, dann entfernen, dann ne neue hinzufügen. Vielleicht auch erst neue hinzufügen, defekte veraltet setzen etc.
Da findet sich erst solangsam brauchbare Doku im Netz.
Wichtig wäre vielleicht noch zu erwähnen dass ich den Eindruck hab, dass nicht immer alle Platten des Raid5s laufen. Also wird nicht zwangsläufig trotz Parity über 4x4TB nicht immer auf alle Platten geschaufelt.
Edit: Was mich bei Nas4Free und Freenas zb super nervt ist, dass ZFS nicht erweiterbar ist.
Ahh jetzt blick ich langsam durch. Ich fasse jetzt nach meinem Verständnis zusammen:
Heißt, Tier ist ein Pool aus SSD und HDD mirrored, also quasi RAID 1. Dieser hat dann das Tiering, also wichtige, oft aufgerufene und aktuelle Dateien werden auf die SSDs geschrieben, der Rest auf HDDs. Write Back Cache hat der Pool dann also nicht, bzw. braucht es nicht?!
Da das Ganze mirrored ist, müssen mindestens 2 SSDs oder VSSDs (so nenne ich jetzt mal virtuelle Festplatten auf den SSDs) verwendet werden, selbes gilt logischerweise auch für HDDs.
Parity (quasi RAID 5) erlaubt dagegen nur Write Back Cache auf den SSDs, um die extrem langsamen Schreibraten ausgleichen zu können. Die Höhe des Schreibcaches ist eher irrelevant. Es müssen auch keine 2 SSDs bzw. VSSDs sein, da sollte es eine doch genauso tun, oder?!
Für was hättest du denn gerne Tiering auch bei Parity? Durch den Cache erreichst du doch auch so spielend Gigabit-Geschwindigkeit, das würde doch dann kaum mehr was bringen.
Puuhhh...Für Tiering wär ich mir nicht so sicher ob das jemals kommen wird, weil es im Enterprise-Bereich ne eher ungewöhnliche Konstellation. Da benutzt man ja doch meistens RAID1 (so als untersten Unterbau). Was wohl eher gehen würde, wäre eine Cache-Platte wie der ZIL und L2ARC bei ZFS (da diese ja unabhängig vom Rest sind)
Krautmaster schrieb:
Edit: Was mich bei Nas4Free und Freenas zb super nervt ist, dass ZFS nicht erweiterbar ist.
Wird bestimmt noch kommen. BTRFS bietet das ja z.B. schon
glacios schrieb:
Heißt, Tier ist ein Pool aus SSD und HDD mirrored, also quasi RAID 1. Dieser hat dann das Tiering, also wichtige, oft aufgerufene und aktuelle Dateien werden auf die SSDs geschrieben, der Rest auf HDDs.
Ohne jetzt direkt in Kontakt mit Storage-Pools gekommen zu sein, würde ich eher sagen, dass der Verbund aus Massenspeichern als "Pool" bezeichnet wird, Tierung bezeichnet dann das aufteilen der kritischen Daten auf ein schnelles Medium und die Tiers sind dann die entsprechenden Massenspeicher. Also Tier1 = SSD, Tier2 = SAS, Tier3 = SATA
Ja genau. Ein Pool ist erstmal ne Zusammenlegung von Platten egal ob SSD oder HDDs. Darüber baust du dann einen Virtuellen Datenträger mit "Storage-Tiering" -> kannste direkt in GUI und sagt dir dann wie viel Platz für SSD und wie viel Platz für HDD zur Verfügung gestellt werden soll. Ich hab jetzt noch nicht getestet was passiert, wenn man weniger als "Max" nimmt... ob der Platz dann anderweitig zur Verfügung steht.
Vermutlich kann man dann nen 2. Virtuellen Datenträger auf selbem Pool aufsetzen, aber Tiering geht immer nur als "fest Provisioniert" -> also nicht thin. Was leider nicht geht ist zb 2x256 GB SSDs für zwei Pools herzunehmen und zb zu 4x 128Gb zu splitten.
@ Parity und Tier.
Naja. Ich mein von der Implementierung dürfte das nicht wesentlich komplexer sein. Party geht ja jetzt schon... wenn geht die Schreibraten im Vergleich zu Raidz echt bescheiden sind...
Wenn man ne SSD im Pool hat und diese als Journaling nutzt, dann wird der Speed aber deutlich besser. Ob Journaling nun auch zwei SSDs braucht... glaub nicht. Wenn ichs richtig verstanden hab is n Journal auch nur sozusagen nen Sicherheits Write Cache.
Man kann aber das Parity dann auch einfach mit definierten 50GB Write Cache anlegen, das steigert die Schreibrate dann doch recht stark.
Ergänzung ()
glacios schrieb:
Write Back Cache hat der Pool dann also nicht, bzw. braucht es nicht?!
hat er trotzdem, default 1 GB. Ist wohl auch empfohlen.
Ergänzung ()
glacios schrieb:
Parity (quasi RAID 5) erlaubt dagegen nur Write Back Cache auf den SSDs, um die extrem langsamen Schreibraten ausgleichen zu können. Die Höhe des Schreibcaches ist eher irrelevant. Es müssen auch keine 2 SSDs bzw. VSSDs sein, da sollte es eine doch genauso tun, oder?!
Du kannst auch 1 GB Schreibcache einrichten wenn du zb 5 HDDs als Parity aufsetzt, ich kann mir aber nicht vorstellen dass das viel bringt denn default nimmt er da nur 32 MB was iwi sein Grund haben wird.
Das Verhalten bei 1x SSD + 4x HDD Parity + Writecache von sagen wir 50 Gb hab ich bisher nicht getestet. Sofern ich die 8 TB vom Parity iwo hinbekom mach ich das. Mal zusammenkratzen. Hab hier nen NAS für wen mit 3 TB, noch 2x2 TB Platten so, ne Externe 2Tb, sollte eig gehn ^^
Man muss sich halt immer bewusst werden, dass für Integrität auch ein Cache erstmal ausfallsicher sein muss. Theoretisch darf ein Write Cache also nicht allein auf eine SSD schreiben denn wenn die hopps geht is das geschriebene futsch.
Für was hättest du denn gerne Tiering auch bei Parity? Durch den Cache erreichst du doch auch so spielend Gigabit-Geschwindigkeit, das würde doch dann kaum mehr was bringen.
Naja, es ist auch Sache von IO. Gerade bei LightRoom und Bilderordnern kann ich mir schon vorstellen dass häufig verwendete Dinge recht gut gecached werden, dann schnell ausgelesen werden wo das iO der Platten allein limitiert.
Ich hatte halt innerhalb des nächsten Jahres vor, meinen aktuellen, auf HW-Raid basierenden Homeserver aus Sicherheits- und Speicherplatzgründen durch einen Parity-Pool auf Storage Spaces-Basis zu ersetzen.
Angedacht hätte ich an eine SSD + 5 HDDs, um die 6 Sata-Plätze auf gut ausgestatteten Mini-ITX Boards bestmöglich ausnutzen zu können.
Die SSD kann vollständig oder nur teilweise als Cache verwendet werden, je nachdem würde ich die Größe der SSD aus Kostengründen auch anpassen (angedacht ist eher eine kleine 40-100GB SSD).
Da die Daten auf so einem Parity nicht so verfügbar und sicher gehalten werden müssen (bei mir zumindest), würde auch ein Ausfall des Write Caches durch Sterben der SSD nicht allzu problematisch sein, da dann ja nur der aktuelle Schreibvorgang defekt wäre, nicht aber der Rest der Daten.
So denk ich auch. Was passiert müsste ich nachher mal mit ner virtuellen SSD testen.
Ziehe gerade mal vom 4x4TB Parity auf
2TB (Im Server)
2TB Extern USB 3 an Workstation über GB Ethernet
2TB SATA II an Workstation über GB Ethernet
3TB NAS mit 2x3TB Raidz über GB Ethernet
Geht recht fix wie ich finde, gerade in Anbetracht dass Parity + alles AES verschlüsselt (bis auf die Zielplatten) + das meiste über LAN und 4 Copy Jobs auf einmal mögen HDDs ja nicht besonders
Damit dürfte auch der Switch bei 1,2 GB/s recht ausgelastet sein, der Heimserver selbst hat ja 2x 1 GB-E am selben Switch (16 Port GB-E).
Die Leseraten beim Storage Spaces Parity sind wirklich gut - die Schreibraten aber richtig schlecht, auch im Vergleich zu einem Intel Raid5 an der ICH.
Ich hatte den letzten Parity Pool mit 2x Virtuellen SSDs als Journal aufgesetzt was wohl gar so blöd war, die Schreibraten waren iO (gut genug für GB-E)
Grml. Mir fehlen einfach 2 TB um restlos alles wegzusichern. Glaub ich kauf mir noch ne 4 TB HDD. iwi hatte / hab ich das Zeugs noch nicht ganz restlos verstanden, aber man lernt nicht aus.
S13 im link eben war recht interessant.
Ich frage mich eben wieso ich nicht bisher einen Pool gemacht hab aus 2-3x 256GB SSD + 4x4TB + 3x2 TB sondern immer zwei Pools.
Auf dem einen Pool könnte ich ja genauso 1 Datenträger mit Tier anlegen mit ~ 200GB SSD Tier und 2000GB HDD Tier (mirror) + nen zweiten Datenträger mit Single Parity und WBC von 40 GB.
Die PDF ist wirklich ausgezeichnet!
Edit: Ich löse das NAS auf und mach aus den 2x3 TB 6TB. Grml.
Dann hab ich:
2TB liegen so rum (SATA II)
6TB NAS II
2TB Extern... das müsste gerade so reichen um meine Daten wegzusichern. Nach Möglichkeit sicher ich halt meine Benutzerdaten (Bilder Lightroom etc) 2x - und das sind 2 TB.
Zu deinem Setup: Warum erstellst du dir nicht einen Pool ausschließlich mit Parity? Für einen Storage-Server/NAS sollte das doch ausreichend sein? Brauchst du denn wirklich die höhere Geschwindigkeit eines Mirrored Tiers?
PS Was meinst du mit auflösen? Heißt das alles für die Katz oder wie?
na das NAS was hier rumsteht, das 2. mit 2x3 TB geht an nen Kollegen raus. Da is ohnehin noch nichts drauf und das Raidz mit mirrored 2x3 Tb hab ich nun aufgelöst damit ich meine Daten zwischensichern kann. Nicht so einfach die ganzen Daten für n paar Storage Spaces / Tiering Versuche freizubekommen.
Hab nun im Homeserver 4x4 TB, 3x256GB SSD und 3x2 TB frei. Damit kann ich jetzt "spielen" und mal bisschen dazulernen.
Von Storage Tiering profitiere ich schon. Ich mach viele grafische Sachen, in Photoshop und Lightroom, schieße viele Bilder. Da war der Speed schon echt nice die letzten Tage auf dem Tier, einfach gerade beim Laden von Thumbnails, auslesen der Bildinfos aus den Raw / JPEGs, das Browsen durch Ordner. Auch das öggnen von Projekten in Photoshop sowie das speichern. Die sind schnell 1Gb und mehr groß.
Außerdem sind diese Benutzerdaten fürs ganze Haus (~1,5TB mit Musik) - heißt da arbeiten einige Leutz drauf und auch Userprofile werden drauf abgelegt. Eine VM aufm Server spielt AD Server, DNS und DHCP. Ne andere VM Remote Access Server bzw SSL VPN etc.
Über Policies kann man ja auch Remoteprofile verwenden. Dabei wird das komplette Anwenderprofil aufm Server gespeichert und beim Login geladen. Das geht überraschend fix da er ja nur das Delta abgleicht. Ist echt chick.
Ergänzung ()
Puh. Also mit der GUI konnte man das Erstellen von meiner Wunschkonfig (4x4TB im Parity | 2x2TB+2x256GB SSDs Tiering) vergessern. Ging 0.
Muss man über die Powershell machen.
-> Im Test schreib ich über Lan ~ 113MB/s auf beide Volumes, sowohl Parity wie auch Mirror.
Edit: Beim Anlegen von Volumes auf den Datenträgern gibts übrigens n Bug in der GUI
Einfach auf MB umstellen, wert kopieren und ins Textfeld einfügen ^^
fertig
Ergänzung ()
Hm.
Ich hab eben mal geschaut. Also das Parity aus 4x4TB bricht nach WriteCache = full schon massiv ein (auf ~ 30MB/s). Mit ist das aber beim alten Setup nicht so aufgefallen, meine dass ich da weit mehr Daten schneller kopieren konnte. Einziger Unterschied: Ich hatte neben 10GB Write Cache 2 virtuelle SSDs als Journaling im Verband drin.
Siehe Post von Dez:
Ergänzung ()
So also ich hab gestern angefangen zu kopieren:
Wie es scheint helfen die SSDs wirklich enorm, er schafft auch über die Größe des WriteCaches hinweg 100 MB + auf das Parity wegzuschreiben... kein Plan was MS da macht und wieso die einfache HDD Parity Performance so grottig ist aber mit ner SSd schafft man es wohl dann plötzlich Terabyteweise mit hoher Geschwindigkeit Daten zu verarbeiten.
strange. Entweder bin ich balla balla und weiß nicht was nun an dem Parity aus 4x4 Tb anders ist als damals oder es reißen wirklich diese Journaling Disks raus. Ich teste mal denn grad siehts so aus:
grml. Lesen is kein Thema. Konstant 113MB/s über GBE
Ergänzung ()
Hab jetzt folgendes gemacht:
-> 2x20GB fix Virtuelle Platte auf der 3. ungenutzen SSD.
-> getestet -> immernoch selbes Ergebnis auf Parity. Langsam nach 10 GB.. (WBC full)
(Das Parity war ja auch explizit auf die 4 Platten angelegt worden, hat sich vermutlich nicht weiter um die zusätlichen 2x20Gb Journaling gekümmert.
-> Parity gelöscht
-> Parity neu angelegt (ohne die Option "-PhysicalDisksToUse (Get-PhysicalDisk | ? Size -gt 3000GB )")
(Müsste nun also 4x4TB + 2x20GB Journaling nutzen)
-> von der Größe her passts (10,9TB Nutzdaten)
Jetzt kommt das witzige: Die Schreibperformance ist besser und - es rödeln komischerweise keine Platten mehr.
Zusammenfassend:
Parity (4x4TB) + 10GB WBC
-> 113MB/s schreiben über GBE bis WBC full, kurz 0kb/s, dann ~ 30 MB/s und starkes Gerödel ... nach weiteren paar GB wieder kurz auf 100MB/s+ dann wieder 30MB/s
Parity (4x4TB) + 2x20GB Journaling + 10GB WBC
-> 113MB/s für ca 20-25GB. Dann kurz 0kb/s und anschließend 50-60Mb/s ... dann wieder 90-110MB/s + für ~ 20 GB und so pendelt es sich dann ein
Getestet jeweils mit 80GB Transfer.
Was suckt ist das dubiose Abstürzen auf 0kb/s für 5-10 Sek, danach wieder 90MB/s +.
Müsste ich raten was die Kiste nun macht, würde ich sagen dass die Parity nun nicht mehr auf der Platte berechnet wird und immer lesen/schreiben sich abwechseln muss... sieht nun eher so aus, als würde dieses Zeugs nun auf den 2 Journal SSDs gemacht werden.
Schaut man sich das vorherige Setting an, so hatte ich 20GB WBC (auf dem Parity) + 2x43GB SSD (virtuell) als Journal. Das Konstrukt könnte die Schreibraten weiter angehoben raten um wie im alten Screen oben quasi fast die 100MB/s durchgängig zu halten.
Ergänzung ()
nächste Test um bei der Sache zu bleiben:
dieses mal mit der Stoppuhr: 78,8GB Daten von Samsung 512GB Pro @ Workstation aufs NAS
Eigentlich sollte beides doch quasi gleichkommen. Dennoch scheint sich Journaling besser zu schlagen. Auch die Geräusch-Charakteristik ist erneut eine komplett adere. Das Parity ist viel leiser mit Journaling als Ergänzung.
KleinesFazit meiner seits:
Um auf Parity kurze Schreibstöße abzufangen -> WBC, is tendentiell in diesen ersten Sekunden bis WBC full = schneller als rein Journaling.
Für mehr "Puste hintenraus" bzw bessere Performance bei langen Transfers auf sonst langsame Paritys: -> WBC + Journaling
Ich mach mal noch "Parity only" als Vergleich, also 32MB WBC -> den muss ich erzwingen, da ich SSDs im Pool hab nimmt er sonst 1Gb default aber ich hät gern ,möglichst ein reines Parity ohne SSDs.
Setting 3:
Parity aus 4x4TB +32MB WBC
Zeit: 00:18:52.311
Schon strange. Das Setting rennt schneller als 30GB WBC - WTF. Auch ohne Aussetzer konstant um die 50-80MB/s und am Anfang cached auch iwas, eventuell die 16 GB Ram des Servers.
Nicht vergessen. Die 32MB sind vermutlich dennoch auf den SSDs, 32MB @ Parity komplett ohne SSDs is langsamer.
Setting 4:
Parity aus 4x4TB + 1GB WBC
Zeit: 00:15:27.690
^^ neue Bestzeit aber .... weniger Endspeed als Journaling.
Sehr interessant. Gefällt mir, dass du immer alles schön mit Bildern hinterlegst. Ich hoffe du findest bald ein zufriedenstellendes Setting, das ich dann einfach nur noch kopieren muss^^
Einige Anmerkungen hätte ich noch:
1. Teste doch mal komplett ohne WBC und nur mit Journaling - Wie ist da die Geschwindigkeit?
2. Was passiert, wenn du den WBC nochmal dramatisch erhöhst (60-100GB)? So wie ich die Diagramme sehe, scheinen 30 GB WBC ja für die ersten Minuten dauerhaft 110 MB/s liefern zu können, was die anderen WBC-Einbstellungen schonmal nicht schaffen. Erst danach folgt der ominöse, nicht erklärbare Absturz der Schreibgeschwindigkeit.
3. Vielleicht kannst du ja auch mal eine komplette SSD für WBC nutzen und eine für Journal.
Krautmaster schrieb:
Ich frage mich eben wieso ich nicht bisher einen Pool gemacht hab aus 2-3x 256GB SSD + 4x4TB + 3x2 TB sondern immer zwei Pools.
Auf dem einen Pool könnte ich ja genauso 1 Datenträger mit Tier anlegen mit ~ 200GB SSD Tier und 2000GB HDD Tier (mirror) + nen zweiten Datenträger mit Single Parity und WBC von 40 GB.
Das mit den Pools wirst du jetzt wohl nicht mehr testen oder? Ich könnte mir vorstellen, dass wenn du, wenn du nur einen Pool erstellst, Probleme mit dem Spindown der Festplatten bekommen wirst. Kp, ob das der Fall ist, ich könnte es mir aber vorstellen, da dann immer der ganze Pool aktiv ist, auch wenn bspw. der Parity-Teil nicht gebraucht wird, sondern nur der Mirror-Teil.
Teste das doch lieber nochmal mit diversen, unterschiedlich großen Dateien, bevor du das als finales Setting festmachst.
Z.B. Mal mit ner 10 GB-Datei oder einer 2GB, 1Gb, 500 MB-Datei.
zuerst die Parity Space angelegt (definiert auf die 4x4 TB Platten). Macht man das aus GUI legt er komplett konfuse Konstrukte an. Zb erst ein Parity mit Max Size ~3 TB dann wieder eins mit 6 TB dann wieder eins mit 4,X, so in der Art...
Nachdem dieser 4x4 TB Parity Space da war einfach per GUI den Storage Tier aus 2x256GB SSD und 2x 2TB HDD angelegt, was soweit wunderbar klappte und mir auch signalisiert, dass er bei dem 4x4 Parity auch wirklich nur die 4TB Platten nahm.
Diesen zweiten Mirror Tiered Pool hab ich nicht mehr angefasst bisher. Den 4x4 TB Pool kann ich nun auch nach belieben Löschen und neu aufsetzen, er rafft jedenfalls dass er das Parity richtig über diese 4x4 TB anlegen soll, von der Größe her.
Komisch wirds beim WBC. Zum einen warnt einen Win schon bei der Erstellung des Tiered Pool, dass der WBC unter Umständen zusätzlichen Platz der SSDs braucht (wenn es um die SSD + HDD Tier Größen Einstellung geht), zum anderen kann ich jetzt aber auch mit 210 GB SSD Tier (230GB total Kapazität) einfach hingehen und einen 100GB WBC einrichten. Wohin er dann die Daten speichern will, kein Plan ^^
Das mit den Pools wirst du jetzt wohl nicht mehr testen oder? Ich könnte mir vorstellen, dass wenn du, wenn du nur einen Pool erstellst, Probleme mit dem Spindown der Festplatten bekommen wirst. Kp, ob das der Fall ist, ich könnte es mir aber vorstellen, da dann immer der ganze Pool aktiv ist, auch wenn bspw. der Parity-Teil nicht gebraucht wird, sondern nur der Mirror-Teil.
Da die Zuordnung gut zu funktionieren scheint (also ein Pool mit nem Mirror Tier + Parity Space) mach ich mir da eigentlich keine Sorgen. Da muss man ja jetzt wieder überlegen wie es um Columns steht. Hat man 2 SSDs, sollte er ja eig wieder das als Limit haben (wenn ich die Docs richtig verstanden hab) und eh nie auf mehr HDDs geschieben als Columns des Spaces.
Siehe auch
Ergänzung ()
glacios schrieb:
Teste das doch lieber nochmal mit diversen, unterschiedlich großen Dateien, bevor du das als finales Setting festmachst.
Z.B. Mal mit ner 10 GB-Datei oder einer 2GB, 1Gb, 500 MB-Datei.
dass fluppt alles endlos schnell rüber - in Ram oder so. Kein Plan
Ich teste Morgen mal anders -> von SSd auf Server nach Space. Ohne Lan dazwischen.
PS:S Bisher ist jedes Volume auf jedem Pace bei mir immer mit 4k Blocksize angelegt. Standard. Ich kann mich noch an Raid5 erinnern, in SW, da waren große Blöcke längen schneller als kleine. Zb 32 oder 64k. Müsste ich auch mal testen.
Ergänzung ()
also über die Nacht schreib er jetzt mit durchweg ~70MB/s auf das 4x4TB Parity mit 5GB WBC. MS Empfehlt ja nicht ohen Grund 1-10GB WBC laut diversen aussagen sogar nur bis 5GB.
70 MB vermutlich weil das NAS von dem ich herkopiere nicht viel mehr schafft.
Aufs Parity schreiben und gleichzeitig Lesen geht übrigens auch recht fix. Ich schieb gerade mal 200GB Testdaten auf die SSD (im Homeserver) vom Parity runter und schreib parallel drauf.
Er liest nun durchweg zw 120 und 250MB/s vom Parity und schreibt nebenher mit 70-80MB/s drauf.
Kannst du das mal testen mit deinem Client-PC oder etwas anderem, um etwaige Geschwindigkeitseinbusen durch das NAS einzugrenzen? Ich mein 70 MB/s ist für mich und für die Hardware nicht tragbar. Da schaffen selbst Fertig-NAS-Geräte mehr.
naja 70MB/s auf ein verschlüsseltes Raid5 haben die FertigNas schon etwas zu kämpfen und wie gesagt ist das ja auch erst ab zig GB der Fall (siehe tests oben, 110MB/s über fast 80GB) , auch je nach Cache Größe. Auch ist der ATOM keine Überrakete und braucht unter 10W Delta zw. idle und last beim Kopieren.
Ich teste nachher lokal. Hab ja 200GB Filme auf die 3. ungenutzte Samsung 840er gelegt. Das sollte lesend nicht limitieren.
Prinzipiell muss man wohl sagen, dass MS seine Technik schonr echt klar ausgerichtet hat:
1. Prio 1 hat klar Lesen, lesen ist vergleichsweise extrem schnell - kann ich nachher mal testen mim Parity. Das Tier hat ja nur 2HDDs und gespiegelt, das reißt keine Bäume aus.
2. Schreiben ist rasend schnell (schubweise) - da man eben in Realität meist Datenmengen von wenigen GB kurz wegpuffern muss. Ist nun mal so. Auch ich kopier nicht jeden Tag 2 TB aufs NAS. Kopier ich von SSD aufs Parity dann hab ich über sagen wir 10 GB locker 300 MB /s.
3. Wenn jeglicher Puffer voll ist, dann muss man sich nicht wundern dass die Geschw. massiv einbricht. Das kann von 300MB/s auf 30MB/s runter gehen... aber im Hintergrund muss er diesen Puffer ja auch leeren können. Heißt man muss eig warten bis sich das System dann "eingeschwungen" . Mag sein er kann 100MB/s dauerhaft aufs Parity schreiben... dann muss er um den Cache wieder zu leeren ganzschön rackern und wenn dann noch mehr Daten kommen dann sind die logischerweise erstmal weit unter diesen 100MB/s.
Im Prinzip orientiert sich MS dabei ja am normalen Nutzerverhalten. Man liest meist deutlich öfter als man schreibt und zudem schreibt man meist überschaubare Datenmengen.
Ergänzung ()
Nope: Also ich hab jetzt... nochmal das Parity platt gemacht (nachdem schon wieder 4Tb über meine SSDs gelaufen sind ) um mal direkt von SSD auf Parity zu testen aber das is einfach nich viel schneller als 80-100MB/s über längere Zeit.
Am Anfang sind es dann halt 350MB/s und wenn alle Caches erschöpft sind bricht er halt noch stärker ein.
Ich denke ich setze fürs Parity einfach etwa 5-10 GB WPC und gut ist. Kein Journal etc.. Lesend werd ich gleich noch testen.
Edit: Mag auch sein dass ne 5. 4 TB Platte die Performance um Faktor 3-10 verbessert. Beim Intel Software Raid war dem so. Gerade Anzahl an Platten, ganz schlecht bei Raid da ja abzüglich Parity = ungerade und somit alles Schreibend gesplittet werden muss (Cluster zu Stripe Size)
Ergänzung ()
Lesen halt... vom 4X4TB Parity auf SSD. ~200-220MB, von Anfang an, die Grafik die Win da plottet is fürn Arsch.
naja 70MB/s auf ein verschlüsseltes Raid5 haben die FertigNas schon etwas zu kämpfen und wie gesagt ist das ja auch erst ab zig GB der Fall (siehe tests oben, 110MB/s über fast 80GB) , auch je nach Cache Größe. Auch ist der ATOM keine Überrakete und braucht unter 10W Delta zw. idle und last beim Kopieren.
Das relativiert natürlich einiges. Und dass du alles verschlüsselt hast, ist mir wohl entfallen .
Soviel GB schiebt man meistens eh nur anfangs, wenn man das RAID erstmalig mit den alten Daten befüllt. Danach bleibt man doch eh unter 10 GB pro Schreibvorgang.
Kann man denn ungefähr sagen, abwieviel GB der WBC vollgelaufen ist bzw. der Speed merklich abnimmt?
Krautmaster schrieb:
Prinzipiell muss man wohl sagen, dass MS seine Technik schonr echt klar ausgerichtet hat:
1. Prio 1 hat klar Lesen, lesen ist vergleichsweise extrem schnell - kann ich nachher mal testen mim Parity. Das Tier hat ja nur 2HDDs und gespiegelt, das reißt keine Bäume aus.
2. Schreiben ist rasend schnell (schubweise) - da man eben in Realität meist Datenmengen von wenigen GB kurz wegpuffern muss. Ist nun mal so. Auch ich kopier nicht jeden Tag 2 TB aufs NAS. Kopier ich von SSD aufs Parity dann hab ich über sagen wir 10 GB locker 300 MB /s.
Find ich schön, was du rausgefunden hast. Ich hätte ohne deine Messungen den WBC wohl anstandslos auf 100 GB gesetzt und damit massiv Festplattenspeicher verschwendet. Jetzt werd ich mir zukünftig einfach ne kleine 40 GB Trödelmarkt-SSD oder evtl. sogar ne mSata-SSD für den WBC holen + 5 HDDs und das sollte mehr als ausreichen.
Das einzige, was jetzt tatsächlich noch fehlen würde, ist den restlichen SSD-Speicher als Tiering einsetzen zu dürfen. Vielleicht klappt das ja dann mit Win 9/Server 2016 (oder wie der Nachfolger auch immer heißen soll).
@DDD
Die Werte von 200 MB/s sind intern und nicht übers Netzwerk. Ich schätze OS-Festplatte auf Pool.