Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
Hallo zusammen,
seit etwa 3 Jahren betreibe ich einen Clarkdale Heimserver mit I5 und AES, basieren auf einem Raid aus 5x2000 GB und 16 GB Ram. Nun steht die Ablöse ins Haus die ich etwas professioneller angehen will als eine reine Windows Server Installation über einem Intel Raid. Außerdem lern ich gern dazu.
Aktuelles Case:
-> Eigenbau
Dank nun ITX kann ich oben noch 4x3,5" Unterbringen (bereits ausgemessen) - > die HDD Halterung muss ich noch im CAD machen und lasern lassen
-> 10x 3,5" dann, sehr kompakt - frage ist ob das das Pico PSU 150 oder 200W abkann.
Einsatzgebiete des Servers:
Als Basis kommt ein brandneues Avoton 8 Kern ATOM Board zum Einsatz, Basis Silvermont (wie Baytrail).
Link zum Board:
http://geizhals.de/asrock-c2750d4i-pc3l-12800e-ddr3-a1040153.html
Bilder:
Ein paar Benchmarks:
TrueCrypt:
CineBench V11.5:
CineBench V15:
Verbrauch:
Mit Dem PicoPSU 90W sind es
20W idle (hier hatte ich eher auf 5-15W gehofft)
max 35W load in CineBench
Nun zum Projekt:
Laufen soll darauf eine Hyper-V Server 2012 R2 Datacenter Edition (Alles von Dreamspark). Datacenter Edition deshalb, da diese eine beliebige Anzahl an Aktivierungen für die darüber laufenden Windows Server 2012 R2 Versionen zulässt.
Alle Festplatten darunter will ich an - vorerst eine, VM mit Server 2012 R2 Standard durchreichen und hier mittels Storage Spaces 2x Raid 5 (Parity) in Software definieren:
Infos:
http://www.petri.co.il/new-features-windows-server-2012-r2-storage-spaces.htm
Siehe http://blogs.technet.com/b/josebda/...spaces-tiering-in-windows-server-2012-r2.aspx
Das ist an sich recht abgefahren da ein Tier aus SSDs und HDDs komplett transparent erkennt ob der Traffic High IO Lastig ist und dann auf die SSD oder eben auf die HDD schreibt, wo genau interessiert dich in der Layer darüber überhaupt nicht.
Zudem gibt es Deduplication also werden mehrfach vorhandene Dateien nur einmalig gespeichert.
Das Gesamtprojekt hab ich mal in eine Grafik gepackt:
Das Failover ist erstmal nicht vorgesehen, kann aber ergänzt werden und der Space wird dann transparent und automatisch auf die zweite VM umgezogen... Blech bleibt es trotzdem nur eines.
Komme ich mit dem ganzen Kram nicht klar werde ich eventuell auf NAS4FREE in VM setzen, ich kann die Platten ja direkt durchgeben und dann da ein ZFS aufsetzen.
Mich würden eure Meinungen interessieren - zudem habe ich einige offene Fragen:
Grüße
Krautmaster
Update 20.12.2013
So erste Ergebnisse mit NAS4FREE embedded
16GB RAM
4x4TB RAID5 (RaidZ)
Alle Platten an 4x SATA II vom C2750
PicoPSU 90W (der 84W Adapter kämpft glaub ich)
Ohne Kompression:
PC -> NAS
NAS -> PC
JZJB
PC -> NAS
NAS -> PC
Maximum (GZIP-9)
PC -> NAS
NAS -> PC
Verbrauch:
43W idle (drehende Platten)
Last (PC -> NAS) 52-64W schwankend
Lokale Plattentests:
Jeweils 30GB lesen / schreiben
ohne Kompression:
-> NAS (260MB/s)
<- NAS (270MB/s)
So Platten idlen nach 5 Min wie in NAS4FREE eingestellt. Damit wäre das auch geklärt, geht problemlos mit den WDs. 30W saugt die Kiste nun was aber auch etwas dem Linux geschuldet ist. Frisst per default 2-3W mehr als Win.
Spin-Down mit R5 geht also im NAS4FREE
Update 20.12.2013
Storage Spaces Test im SSD Tiering und Raid5 (Parity)
Hier ein sehr guter Thread zu Storace Spaces mit vielen Benches!
http://forums.servethehome.com/wind...0-serer-2012-r2-storage-spaces-tiering-2.html
lol ich war si frei die zwei EVO 250GB SAMSUNG SSDS zu nehmen die hier schon rumliegen um mal Tests zu fahren, sieh an, auf einmal rockt das Parity sowas von wenn man die SSDs mit in den Pool wirft deutlich mehr.
SSDs hängen am Marvel Controller, werden wie die Platten durchgegeben:
Setting:
Performance:
RealWorld Benches:
MP3 -> NAS
NAS -> MP3
ISO -> NAS
(hier limitiert die WS NIC, der alte Server schaufelt mit 113MB/ drauf)
NAS -> ISO
alle Speeds konstant auf ein mit Bitlocker verschlüsseltes NAS Volume mit Parity.
so bin ich happy damit. Zumal es mit Datacenter schönes Teaming der NIC gibt (meine WS hat nur ein GBE in Benutzung und Marvel Teaming unter WIn 8.1 geht iwi nicht...) - aber könnte vorteilhaft sein wenn ich zb was mit dem HTPC mache oder andere VMs auf das Volume zugreifen.
seit etwa 3 Jahren betreibe ich einen Clarkdale Heimserver mit I5 und AES, basieren auf einem Raid aus 5x2000 GB und 16 GB Ram. Nun steht die Ablöse ins Haus die ich etwas professioneller angehen will als eine reine Windows Server Installation über einem Intel Raid. Außerdem lern ich gern dazu.
Aktuelles Case:
-> Eigenbau
Dank nun ITX kann ich oben noch 4x3,5" Unterbringen (bereits ausgemessen) - > die HDD Halterung muss ich noch im CAD machen und lasern lassen
-> 10x 3,5" dann, sehr kompakt - frage ist ob das das Pico PSU 150 oder 200W abkann.
Einsatzgebiete des Servers:
- Fileserver
- Direct Access für Win 8.1 Clients / VPN + eigene Zertifikate
- Webserver (linux)
- Buildserver (linus)
- eventuell Router/Firewall
- weitere VMs...
Als Basis kommt ein brandneues Avoton 8 Kern ATOM Board zum Einsatz, Basis Silvermont (wie Baytrail).
Link zum Board:
http://geizhals.de/asrock-c2750d4i-pc3l-12800e-ddr3-a1040153.html
Bilder:
Ein paar Benchmarks:
TrueCrypt:
CineBench V11.5:
CineBench V15:
Verbrauch:
Mit Dem PicoPSU 90W sind es
20W idle (hier hatte ich eher auf 5-15W gehofft)
max 35W load in CineBench
Nun zum Projekt:
Laufen soll darauf eine Hyper-V Server 2012 R2 Datacenter Edition (Alles von Dreamspark). Datacenter Edition deshalb, da diese eine beliebige Anzahl an Aktivierungen für die darüber laufenden Windows Server 2012 R2 Versionen zulässt.
Alle Festplatten darunter will ich an - vorerst eine, VM mit Server 2012 R2 Standard durchreichen und hier mittels Storage Spaces 2x Raid 5 (Parity) in Software definieren:
Infos:
http://www.petri.co.il/new-features-windows-server-2012-r2-storage-spaces.htm
Siehe http://blogs.technet.com/b/josebda/...spaces-tiering-in-windows-server-2012-r2.aspx
Das ist an sich recht abgefahren da ein Tier aus SSDs und HDDs komplett transparent erkennt ob der Traffic High IO Lastig ist und dann auf die SSD oder eben auf die HDD schreibt, wo genau interessiert dich in der Layer darüber überhaupt nicht.
Zudem gibt es Deduplication also werden mehrfach vorhandene Dateien nur einmalig gespeichert.
Das Gesamtprojekt hab ich mal in eine Grafik gepackt:
Das Failover ist erstmal nicht vorgesehen, kann aber ergänzt werden und der Space wird dann transparent und automatisch auf die zweite VM umgezogen... Blech bleibt es trotzdem nur eines.
Komme ich mit dem ganzen Kram nicht klar werde ich eventuell auf NAS4FREE in VM setzen, ich kann die Platten ja direkt durchgeben und dann da ein ZFS aufsetzen.
Mich würden eure Meinungen interessieren - zudem habe ich einige offene Fragen:
- geht offensichtlich technisch irgendetwas nicht in meiner Plaung
- ich nehme an dass ich die Hyper-V Server 2012 R2 Datacenter Install als Core Installation mache?
- hat jemand schon Erfahrungen damit?
- kann man zusätzlich Bitlocker einbringen?
- Nachteile durch HyperV Portable auf USB oder lieber auf die SSD installieren?
- ... weitere Anmerkungen willkommen
Grüße
Krautmaster
Update 20.12.2013
Ergänzung ()
So erste Ergebnisse mit NAS4FREE embedded
16GB RAM
4x4TB RAID5 (RaidZ)
Alle Platten an 4x SATA II vom C2750
PicoPSU 90W (der 84W Adapter kämpft glaub ich)
Ohne Kompression:
PC -> NAS
NAS -> PC
JZJB
PC -> NAS
NAS -> PC
Maximum (GZIP-9)
PC -> NAS
NAS -> PC
Verbrauch:
43W idle (drehende Platten)
Last (PC -> NAS) 52-64W schwankend
Ergänzung ()
Lokale Plattentests:
Jeweils 30GB lesen / schreiben
ohne Kompression:
-> NAS (260MB/s)
<- NAS (270MB/s)
Ergänzung ()
So Platten idlen nach 5 Min wie in NAS4FREE eingestellt. Damit wäre das auch geklärt, geht problemlos mit den WDs. 30W saugt die Kiste nun was aber auch etwas dem Linux geschuldet ist. Frisst per default 2-3W mehr als Win.
Spin-Down mit R5 geht also im NAS4FREE
Update 20.12.2013
Storage Spaces Test im SSD Tiering und Raid5 (Parity)
Hier ein sehr guter Thread zu Storace Spaces mit vielen Benches!
http://forums.servethehome.com/wind...0-serer-2012-r2-storage-spaces-tiering-2.html
Ergänzung ()
lol ich war si frei die zwei EVO 250GB SAMSUNG SSDS zu nehmen die hier schon rumliegen um mal Tests zu fahren, sieh an, auf einmal rockt das Parity sowas von wenn man die SSDs mit in den Pool wirft deutlich mehr.
SSDs hängen am Marvel Controller, werden wie die Platten durchgegeben:
Setting:
Code:
Get-StoragePool -FriendlyName TieredPool | Get-PhysicalDisk | ? MediaType -eq SSD | Set-PhysicalDisk -Usage Journal
New-StorageTier -StoragePoolFriendlyName TieredPool -FriendlyName SSD_Tier -MediaType SSD
New-StorageTier -StoragePoolFriendlyName TieredPool -FriendlyName HDD_Tier -MediaType HDD
New-VirtualDisk -StoragePoolFriendlyName TieredPool -FriendlyName HDD_Parity -UseMaximumSize -ResiliencySettingName Parity -ProvisioningType Fixed-WriteCacheSize 100GB
Performance:
Ergänzung ()
RealWorld Benches:
MP3 -> NAS
NAS -> MP3
ISO -> NAS
(hier limitiert die WS NIC, der alte Server schaufelt mit 113MB/ drauf)
NAS -> ISO
alle Speeds konstant auf ein mit Bitlocker verschlüsseltes NAS Volume mit Parity.
so bin ich happy damit. Zumal es mit Datacenter schönes Teaming der NIC gibt (meine WS hat nur ein GBE in Benutzung und Marvel Teaming unter WIn 8.1 geht iwi nicht...) - aber könnte vorteilhaft sein wenn ich zb was mit dem HTPC mache oder andere VMs auf das Volume zugreifen.
Zuletzt bearbeitet: