Projekt: Heimserver auf HyperV Basis mit Server 2012 R2 Datacenter und Storage Spaces

Jop, genau das. Solltest du auch probieren, da kannst du dann deine ganzen Konstellationen durchchecken. Du könntest bspw. auch mal auf deiner SSD eine besser zwei virtuelle SSDs erstellen und diese dem Pool hinzufügen und schauen, ob sich deine Schreibrate irgendwie verändert.
Wobei ich nicht weiß, ob das jetzt noch möglich ist, wo das System schon produktiv im Einsatz ist.

Merk dir das: Vorher ausführlich testen (und zwar auch und gerade den Fehlerfall) bevor man solch einen großen Schritt wagt und sein Storage-System komplett umstellt.
Deswegen informiere ich mich auch jetzt schon in divseren Threads und teste auch selbst unter Server 2012, um dann - wenn es so weit ist (in etwa einem Jahr) - gleich die Funktionsweise des Systems zu kennen. :schluck:
 
glacios schrieb:
EDIT: Von insgesamt 28,5 TB bleiben nur 17 TB übrig? Es sollten eigentlich 24,5 TB übrig bleiben! Bei Synology wäre das zumindest so. Das solltest du dir nochmal genauer anschauen, das ist doch Platzverschwendung.

ne wie gesagt, 17TB kommt schon hin siehe meine Rechnung mit 18TB, udn jeder weiß dass 4TB Platten nicht ganz 4000GB haben ;)

Wie ichs gerechnet hab hab ich oben gezeigt, anders geht es nicht und anders bekommst du auch nicht mehr Platz in seiner Konstellation. So gesehen geht das Parity bei ihm richtig vor.
 
Danke @Kraut
Ich hab nochmal alles gepfrüft und bin zum Entschluss gekommen, dass immer ca. 1/3 der Kapazität bei parity "verloren" geht.
 
das kommt ja schlicht drauf an wieviele Platten du hast.

Hast du 10x4GB im Parity verlierst du nur 10%, hast 9x4TB.

Bei deinen Platten sieht es anders aus. Die Rechnung habe ich ja oben angestellt. Erstmal schaut er welche Speicherplatz Menge er über wie viele Platten aufteilen kann und dabei eine sterben darf (Prüfsumme) -> ergo limitiert da deine kleinste Platte mit 2 TB:

-> 9 Platten nimmt er dazu, wovon er bei allein 2 TB abgreift -> ergibt ein Netto Parity von 8x2TB.
-> Damit is die 2 TB WD voll belegt. Auf der 2.5 TB Platte noch 500 GB frei.
-> wie kann er möglichst gut vorgehen, natürlich wieder dasselbe in grün. 500GB über alle Platten (bis auf die belegte)
= 8 Restplatten a 500 GB = 3,5 TB netto Parity
-> Damit ist die 2 TB WD + die 2,5 TB WD voll belegt
Auf den 3 TB Platten sind nun nur noch je 500 GB frei, also 7 Restplatten, jeweils 500GB -> 3 TB Netto Parity (einmal 500Gb auf einer Platte wieder Prüfsumme)
-> Damit sind alle 3 TB Platten voll
-> Nun der Rest, auf jeder 4TB Platte is noch 1 TB frei, ergo 3x1TB brutto = 2TB netto Parity.

In summe wären das Theoretisch 16+3,5+3+2 (hatte mich oben verrechtent ich Horst) -> 24,5 TB. Wenn er dir nur ~ 16-17 TB anbeitet geht der Algo komisch vor. Du kannst sicher dann direkt nochmal ein Datenträger aufm selben Space anlegen.

Vielleicht dann genau wie ich gesagt hab. Er macht er erst eins mit ~ 16, dann mit ~3,5 und dann immer weniger - nimmt die aber nicht zusammen.
 
hmm interessant,
dazu dann gleich eine Frage. Was würde ich an Speicher gewinnen, wenn ich z.b. die 2TB rausnehme?
Oder welchen Tip hast du für mich um den Speicherplatz optimaler zu nutzen.

Die 4x3TB und die 3x4TB möchte ich belassen, die Frage ist was mach ich mit der 2,5TB und der 2,0TB Platte?

Würde es was bringen, wenn ich die 2,5 und 2,0 TB Platte rausnehme und statt dessen eine weitere 4TB Platte kaufe?

Dann hätte ich 4x3TB und die 4x4TB. Was hätte ich dann zur Verfügung? mehr als die 17TB momentan?
 
Zuletzt bearbeitet:
Krautmaster schrieb:
ne wie gesagt, 17TB kommt schon hin siehe meine Rechnung mit 18TB, udn jeder weiß dass 4TB Platten nicht ganz 4000GB haben ;)

Wie ichs gerechnet hab hab ich oben gezeigt, anders geht es nicht und anders bekommst du auch nicht mehr Platz in seiner Konstellation. So gesehen geht das Parity bei ihm richtig vor.
Es geht ja auch um Brutto-Kapazität. Und Synology schafft das mit seinem SHR aus dem verrückten Festplattenverbund mit insgesamt 28,5 TB 24,5 TB herauszuholen. Natürlich ist der Nettowert ein anderer.

Im Übrigen lies nochmal genau weiter oben, da habe ich ja geschrieben, dass ich das ausprobiert habe mit VHDs. Raus kamen 22,9TB nutzbarer Speicher, 1,74 TB blieben unbenutzt. Von daher sieht man, dass der Algo anders rechnet, wenn der Parity auf Anhieb erstellt oder nachträglich Platten hinzugefügt werden.

Von daher scheint deine letzte Rechnung eher zu stimmen, aber auch noch nicht ganz (da 1,74 TB übrig).

Deine Vermutung ist aber denke ich richtig: Parity scheint im Hintergrund immer gleich große abgeschlossene RAID 5s aufzubauen. Ich weiß nicht, ob ichs hier oder in einem anderen Thread dazu erwähnt habe: Deswegen können Platten nachträglich nicht ohne weiteres hinzugefügt werden bzw. nicht ohne MASSIVEN Verlust an potentiellem Speicherplatz.

Beispiel:

1. Test:
Ich erstelle ein Parity über 8x2TB Platten. Netto: 14 TB.

2. Test:
Ich erstelle ein Parity über 4x2TB Platten. Ich füge später 4x2TB hinzu. Theoretisch müssten beide Optionen das gleiche Kontingent haben.
In der Praxis siehts aber so aus:
4x2TB = Netto 6TB. Dann nochmal 4x2TB und da der erste Parity erstellt und abgeschlossen ist, passiert jetzt folgendes: Es wird ein zweiter Parity erstellt mit 4x2TB=6TB Netto.

Ergo insgesamt: 12TB Netto. 2TB Verlust, bzw. ein verkrüppelter RAID 6 mit Option auf zwei Plattenausfälle, sofern sich beide in dem jeweils anderen, Parity befinden. Für den User ist das nicht ersichtlich. Für den schaut es aus, als wäre es ein Parity, dabei besteht er in Wahrheit aus mehreren, unsichtbaren Paritys.

Ich gehe also davon aus, das m0bbed für seinen komisch verküppelten Parity nicht auf Anhieb alle Platten dem Pool zugeordnet hat, sondern einige nachträglich hinzugefügt hat. Wie gesagt, ich kam mit seinem Aufgebot auf 22,9TB - nicht 17.
 
Zuletzt bearbeitet:
das mit dem erweitern müsste ich mal testen. Da ich ja nur 1 Column habe müsste ich auch einzelne Platten zum Parity zufügen können.
 
Hat ja nach meinen Tests nicht so richtig funktioniert. Ich musste genauso viele hdds hinzufügen, wie im Ausgangszustand vorhanden waren, um den fixed pool erweitern zu können. Bei thin provisioning ist das natürlich anders.

Ich hatte imo auch nur 1 column (4 x 2 TB).

Vielleicht hast du aber auch unter zuhilfenahme von powershell mehr Glück als ich mit der gui.
 
Hi, sehr interessantes Projekt!

Wollte jetzt etwas ähnliches aufbauen.

Windowser Server virtualisieren (Host ist proxmox) und meinen SAS-Controller an die VM per pci passthrough weiterreichen.

Was ich mir gedacht habe:

Ich packe 8 reale Platten rein und zwei jeweils 5 GB große virtuelle Festplatten (kommen je von einer ssd die am proxmox host hängen)

Diese zwei virtuellen Platten wollte ich als Write-Back-Cache verwenden. Wenn ich meinen Storage Space anlege (RAID6 bzw. double parity) und die virtuellen SSDs mit aufnehme erkennt der die auch als Platten auf die keine Daten (also bis auf die temporären die dann irgendwann auf den HDDs landen) kommen, oder geht das so nicht?

Danke und gruß

Edit:

Habe gerade probiert einen Speicherpool anzulegen, jedoch erstmal nur mit den virtuellen Festplatten. Leider werden diese gar nicht angezeigt, obwohl die Datenträger verfügbar sind.

1.jpg
2.jpg

Hmmmm :/

so wie es aussieht ist sowas in einer VM nicht möglich :(

link kann ich hier nicht einfügen wo das steht ... :/ steht aber auf windowsitpro.com

Ich denke ich werde weiterhin OpenMediavault einsetzen und eben ohne ReFS oder ZFS auskommen müssen. Mal sehen wie die Performance im RAID6 so ist...
 
Zuletzt bearbeitet:
Du machst da auch irgendwas falsch. VHDs funktionieren sehr wohl, ich machs ja testweise auch damit.

Ich würde aber soweit möglich eh immer bei ZFS bleiben. Das System ist stabil, und im Praxiseinsatz erwiesen, während SS lahm, unzuverlässig und unnachvollziehbar sind. SS machen nur dann Sinn, wenns unbedingt ein Windows OS sein soll (z.b. Domäne etc.)
 
glacios schrieb:
Du machst da auch irgendwas falsch. VHDs funktionieren sehr wohl, ich machs ja testweise auch damit.

Ich würde aber soweit möglich eh immer bei ZFS bleiben. Das System ist stabil, und im Praxiseinsatz erwiesen, während SS lahm, unzuverlässig und unnachvollziehbar sind. SS machen nur dann Sinn, wenns unbedingt ein Windows OS sein soll (z.b. Domäne etc.)

Wo könnte bei mir der Fehler dann liegen?

Wie auf den Screenshots zu sehen sind die Festplatten ja da, nur kann ich sie nicht auswählen
 
Deine Screenshots sagen ungefähr gar nichts aus. Mach gescheide Bilder und beschreibe deine Situation, dann kann man dir helfen. Und mach mal nicht solche kleinen Popel-Festplatten, sondern ab 1TB. Bei VHDs ist das ja eh wurst.
 
Wenn ich das richtig im Kopf habe, dann müssen die Platten unformatiert sein um verwendet zu werden. In jedem Fall können nur Platten verwendet werden, die im Reiter "Storage Pools" unter "Ursprünglicher Pool" (oder so ähnlich) angezeigt werden.
 
glacios schrieb:
Deine Screenshots sagen ungefähr gar nichts aus. Mach gescheide Bilder und beschreibe deine Situation, dann kann man dir helfen. Und mach mal nicht solche kleinen Popel-Festplatten, sondern ab 1TB. Bei VHDs ist das ja eh wurst.

lol?

Ich habe das zum testen genommen und nicht produktiv.

Und welche "gescheiden" Bilder brauchst du denn? Ich wollte nur zeigen, dass die Platten normal erkannt werden, aber eben nicht bei der Anlage der Storage Spaces.

Wenn du richtig lesen würdest, dann hättest du auch kapiert, dass ich mit proxmox arbeite und die virtuellen Platte die auf den SSDs liegen, als Cache nutzen möchte, die restlichen physikalischen Platten hängen direkt am SAS-Controller und werden per pci passthrough an die vm durchgereicht.

Was für ne Wurst bist du eigentlich, mich so von der Seite anzumachen? *kopfschüttel

@Miuwa

hatte ich auch unformatiert probiert, wurden leider auch nicht angezeigt.
 
Zuletzt bearbeitet:
Hi zusammen, tolles Projekt Krautmaster.
Ich habe mir nun auch ein System zusammen gestellt, um Dienste und mit Storage Spaces ein wenig Speicherplatz im Netzwerk bereitzustellen (HW Details hier: https://www.computerbase.de/forum/threads/heimserver-virtualisierung-nas.1365422/)

8mal 3TB WD Red, 3mal Crucial MX100 mit 256gb (war wohl ein Fehlkauf, hätte die 500er nehmen sollen).

Nun würde ich gerne Dual Parity einsetzen und Teile der SSDs als Write Back Cache.
Ich kann glacios absolut verstehen, auch ich als zertifizierter Microsoft Consultant mit über 10 Jahren Erfahrung habe, das ganze Thema noch nicht durchblickt. Zugegeben, bin ich schon ein 1-2 Jahre aus dem aktiven Consulting raus, aber ehrlich gesagt finde ich kein wirklich aussagekräftiges Tutorial um soetwas mal zu konfigurieren. Über die GUI geht es schon mal nicht. Powershell Muffel bin ich auch nicht.

Mein Plan war, dass ich die 3TB HDDs zu einem schönen großen "Raid6" zusammenbaue und ~60GB für den Write Back Cache über die SSD bereitstelle.
Die SSDs an sich sollten für die Ablage von VMs genutzt werden (4-5 Stück nur OS, die "Daten" liegen auf dem großen SS Pool). Wie mache ich das am geschicktesten?

Krautmaster hat es in etwa so konfiguriert, wie er es genau gemacht hat, habe ich nicht herauslesen können.

Danke für euere Rückmeldung.
 
Zuletzt bearbeitet:
@Patric
Danke für deine Mühe und deinen Einsatz. Hat sich ja gelohnt, wie ich sehe^^

@The Sane
Ich hab deinen anderen Thread nur kurz überflogen, aber was ich so rauslese, ist das fast schon eher im semiprofessionellen Bereich angesiedelt. Bist du dir sicher, dass du dann auf SS setzen willst? Imo wäre ein richtiger RAID-Controller sinnvoller, weil deutlich schneller und zuverlässiger.

Was das Setup angeht: Bei der Aufstellung würde ich mindestens 1 SSD aus dem Pool nehmen und direkt ins OS einbinden,d.h. du hast dann 1x SSD fürs OS
1x SSD für VMs
Der Rest für Storage Spaces.

Wenn wirklich die VMs aufm Pool liegen sollen, dann auf jedenfall auf einem Mirror, nicht Parity, das ist zu lahm.
 
Ich bin gerade wieder so ein bisschen bei Storage Spaces Tests hängen geblieben und stelle mir die Frage, was genau eigentlich die Nachteile von "Thin Provisioning" gegenüber "Fixed" sind und wie sich beide unter der Haube unterscheiden.
Bisher wird ja hier und anderswo fast immer ein fixed Space erstellt.

Gibts denn irgendwie verlässliche Aussagen darüber, ob diese Einstellung die Geschwindigkeit oder die Datenintegrität irgendwie negativ beeinflusst?

Und was passiert bei einem thin parity? Werden da dann auch - wie nach Krautmasters Rechnung - lauter kleine, abgeschlossene Paritys erstellt (ergo Speicherplatzverlust) oder schichtet SS dann dynamisch den Speicher um (reallocate).
 
Zurück
Oben