FatNAS/Fileserver gesucht

Bigeagle

Lt. Commander
Registriert
Nov. 2008
Beiträge
1.512
Nach langer aber wenig erfolgreicher Suche hier ein Thread
Ich bin sehr unentschlossen was denn nun sinnvoll ist.

Gesucht: performante, zentrale Datenspeicherung bis ~20 TB für SoHo und Heimgebrauch mit Backupmöglichkeit (auf Platte und M-Disc)
Gewünscht ist Platz für 8 3,5' Platten, > 75 MB/s Transferrate und nicht zu heftiger Einbruch bei vielen kleinen Dateien, Fähigkeit Scripts (vorzugsweise Shell oder Python) auszuführen und ein Geräuschpegel der nur noch von den arbeitenden Festplatten dominiert wird. (Meine bessere hälfte betitelt mit 700-1100 U/min Lüftern als 'dröhnend') Wake on LAN verfügbar, aber 24/7 Betrieb ist ebenfalls möglich.
Platten werden WD Red 3/4 TB sein.

Einschränkungen auf bis zu 5 Platten wären zu verkraften, aber das zöge Einschränkungen in der Trennung der Daten und möglicher RAID Konfigurationen nach sich. Angesichts des Preises allein 500-1120 € für die Platten (5*3 TB bis 8*4 TB) sehe ich eigentlich keinen Grund auf saubere Strukturierung zu verzichten. Gleiches gilt für die Performance.

NAS Problem:
NAS mit 8 Slots fangen bei ca. 700 € an, bei dem Preis stellen sich bei mir Zweifel ein ob das Preis/Leistungs Verhältnis da noch stimmt. Ich bezweifle dass ich dort frei an einem Linux arbeiten kann bezüglich eigener Scripte und die Performance ist nach dem was ich in Tests gesehen habe auch oft nicht so makellos wie ich es erwarten würde. Einige fressen erstaunlich viel Strom und insgesamt werde ich das gefühl nicht los für das Geld einen ganzen PC zu bekommen mit dem ich wahrscheinlich wesentlich glücklicher werde.
Kleine NAS im Bereich 2 Slots leiden oft ebenfalls an argen Problemen bei der Schreibperformance und für die 8 Slots lande ich bei ca. 400 € und habe dafür 4 Boxen die ich getrennt verwalten muss und die ihren eigenen Switch bekommen.

Multislot externe Gehäuse:
Ich habe mir einige angeschaut, beispielsweise das Lian Li EX503 oder die Sharkoon Raid StationSharkoon Raid Station. Das Lian Li sagt mir durchaus zu, allerdings bekomme ich Bauchschmerzen bei der Vorstellung dass während des Schreibens jemand den Stecker zieht. Zumindest ein PC hier wird häufig von ~8 Kg Katzen als Stufe missbraucht, die Anschlüsse sind auf der Oberseite. Außerdem muss immer noch ein PC laufen damit die Daten ins Netz kommen, das wäre höchstens als Ergänzung gut.

Das führte mich dazu nach einem PC zu suchen den ich als Fat NAS (kein kleiner Arm Chip oder Atom) oder einfach als Fileserver in die Wohnung stelle.
Das Problem ist nun die Wahl der Komponenten. Speziell Mainboards mit > 8 SATA Slots sind bei Intel nur Z87/97 und ein einzelner Q87 Chipsatz bei Geizhals, Preispunkt ~ 100+ €

Sata Controller haben mich ziemlich abgeschreckt durch viele kleine Probleme die es offenbar immer wieder gibt, eine inkompatibilität hier, ein Treiberproblem da, fehlende Features (NCQ), oder bei besseren Modellen auch bald Kosten oberhalb denen eines Mainboards mit ausreichend Slots. Ich möchte keinesfalls nach einem Ausfall des Controllers feststellen dass die Platte nicht an einem x-beliebigen onboard Controller lesbar ist. Entweder wenig Vertrauenerweckend und 2-4 Ports, oder Teuer und speziell (Port Multiplier, entsprechende Sonderkabel etc). Irgendwie fand ich da nichts was ein Board mit ausreichend Ports ersetzt.

Momentaner Entwurf sieht so aus
Gehäuse: Fractal Design Define R4 Fractal (~85 €) oder Nanoxia Deep Silence 6 (mein persönlicher Favorit weil genug Platz, ~200 €) oder irgendein Billiggehäuse für ~ 40 €

Mainboard: AsRock Z87 extreme 4 oder Asus Z87 plus oder (Favorit? 10 Sata Slots!) AsRock extreme 6 oder ein anderes mit mSata Anschluss. Alle ~ 110-130 €
Hier hat das AsRock zumindest den Preis in Sachen Sparsamkeit bekommen, was für Dauerbetrieb auch nicht ganz unrelevant ist. Ausstattung für den Preis ist auch gut, denn soweit ich das gesehen habe kann man den mSata Anschluss nur auf kosten eines anderen Sata Anschlusses nutzen. Wenn ich also nun eine kleine SSD einbauen möchte um die Daten vom OS zu trennen und noch 8 Platten für Daten zu haben ginge das mit den anderen nicht.
Allgemein gibt es aus meiner Sicht sehr wenig relevante Unterschiede bei den Mainboards und eine Riesenauswahl. Leider geht alles was 8+ Platten kann richtung Gaming, Extreme und OC oder sonstigen Marketinggeblubber. Serverboards sind teurer und vergleichsweise puristisch und ich habe keine Ahnung was mich bezüglich Chipsatz und Stromverbrauch erwartet.

CPU: Celeron G1840T oder etwas größer (ob der Unterschied auch spürbar ist?) Pentium G3440T/Pentium G3220 oder um auch schnelles AES (und HT) zu haben i3 4130 oder um einen richtigen Server draus zu machen einen i5 4440. OC taugliche Boards sei dank lassen sich ggf Hyperthreading oder Turbo bei Bedarf abschalten und die Taktfrequenz bequem reduzieren, damit sollte auch der i5 manuell zu einem T Modell werden.
Das rangiert nun von ~ 30 bis 150 €. Erweiterte Serverfunktionen wie Spielereien mit VMs sollten ab dem i3 möglich sein in Verbindung mit genug RAM.

Netzteil:
Range von Be Quiet Pure Power L8 300W (günstig) bis zum Wunschkandidat Seasonic platinum fanless 400W. ~ 35-110 €
Für meine Konfiguration müsste ich bei jedem NT das nicht hoffnungslos überdimensioniert ist Sata Adapter besorgen.

RAM: etwa 30€ pro 4 GB, für den reinen Fileserver würde ich wohl Kingston Value RAM nehmen, für den Zusatz Homeserver entsprechend 16 GB oder 32 GB
Als Kühler käme bevorzugt ein Thermalright Macho 120 zum Einsatz. Der große steckt in meinem PC, der 120er im PC meiner besseren Hälfte. Letzterer kühlt einen i5 4570K ohne (!) WLP auf ca. < 70°C unter Vollast (BOINC WCG+Einstein GPU). Mit reiner CPU Last durch Prime95 oder Linpack sind es auch mal 75°C. Lüfter ist der im Lieferumfang. Der wird wohl reichen für einen Server ohne Dauerlast.

Damit lande ich bei ca. 290 € für die kleinste Variante bis 790 € bei 16 GB RAM.
Hey, die Luxusvariante entspricht auch etwa dem was ein günstiges 8 Slot NAS kostet. Allerdings habe ich hier einen vollwertigen PC mit reichlich RAM und einer brauchbaren CPU, nicht nur NAS sondern auch für den Heimgebrauch mächtiger Server. Und genau hier kommt der Technikteufel ins Spiel.
Wenn ich schon über 1000 € für Festplatten ausgebe, lohnt es da jeden Euro zu zählen für das drumherum? Schließlich soll das ganze zuverlässig meine Daten hosten und das leise wenns geht. Da fiele als erstes das Billiggehäuse weg. Bezüglich Netzteil bin ich mir nicht sicher ob das BQ billig oder einfach preiswert ist. Natürlich wäre das Seasonic toll, aber verliere ich viel?
Bei der CPU ergibt sich die typische 'nur ein paar Euro mehr für ein nettes Feature' Kette, jedes Upgrade hat seine Punkte für sich, wobei aus meiner sicht der Sprung vom Celeron auf den Pentium eher der kleinste ist.

Letzlich kann ich mich seit Wochen nicht entscheiden. Immerhin wird der Gesamtpreis so oder so am stärksten durch die Festplatten bestimmt.

Daher die Frage, was sind so die Meinungen dazu?
Lohnt das Nanoxia? Immerhin muss ich den Kram einbauen und mein Lian Li PC-8FIB war schon etwas eng.
Wie sieht es mit der Mischung Fileserver und Sonstiges-Server aus? Aus meiner sicht eigentlich kein Problem, RAM und CPU sind im vergleich zu jedem NAS das ich gefunden habe Herkules.
Und wie groß ist der Unterschied zwischen den Netzteilen? Gibt es vielleicht etwas sinnvolles dazwischen? Möglichst effizient im Hauptarbeitsbereich des Servers (~ 20-30 W, je nachdem wie viel Board und RAM brauchen, denn die Platten werden selten alle gleichzeitig benutzt werden, im echten idle sollte ein Haswell System auf bis zu 10 W runtergehen, sparsames Board und nicht zu viel RAM vorrausgesetzt)

Oder gibt es vielleicht doch die Möglichkeit günstig, also ohne gaming/oc board 8+ Festplatten an einen PC zu bekommen?
AMD fiel hinten runter weil die Prozessoren eher mehr Strom brauchen, ich von Arbeit her wenig positiven Eindruck im direkten Vergleich habe (Performance und Energieeffizienz) und ein ziemliches Chaos mit den Sockeln. Die Kombination Kabini und 12 Sata Ports fände ich richtig genial, leider scheint es sowas nicht zu geben. Da Intel aber gleich Power bei geringer Leistungsaufnahme bietet kam ich gleich weiter zur größeren Server-Idee ...
 
Langer Text...

Welchen CPU du brauchst, hängt ganz davon ab, was du alles vor hast.

Ein Celeron wird wohl für fast alles reichen, auch für VMs, vorausgesetzt, du hast damit nicht vor ein Projekt zu starten, dass an die Öffentlichkeit geht und dutzende Personen zeitgleich darauf zugreifen werden.

RAM genau das selbe.

Die Festplatten mögen vielleicht nicht alle zeitgleich während dem Betrieb aktiv sein, beim Hochfahren jedoch schon und gerade da verbrauchen sie viel Strom. Dann gleich bis zu 10 Platten, das sind, soweit ich weiß, dann beim Anlaufen aller 10 um die 250 Watt.
Das heißt du brauchst entweder ein Mainboard, das staggered Spinup unterstützt, ein größeres Netzteil (denke da so an 400 Watt, eventuell reichen auch 350 Watt).

Als Software würde ich OpenMediaVault nutzen (basiert auf Debian, dann hast du also dein Linux mit voller Freiheit + schöner Fileserver).

Schreib mal, was du vor hast, wenn du es als Homeserver nutzen würdest und wie viele Personen darauf zugreifen würden.

Gehäuse ist natürlich Geschmackssache... Jedoch würde ich wohl in jedem Falle ein gedämmtes kaufen.
Die CPU wirst du wohl mit dem Macho ohne Probleme passiv kühlen können.
Und vor die Festplatten Lüfter, langsamdrehend.
 
Zuletzt bearbeitet:
Guten Abend,

Einige kurze Fragen hab ich aber noch:

1) Mit welchem Raid-Level willst Du Die >75Mb/s erreichen. Ich denke nicht, dass der Celeron ein Raid 5 oder 6 entsprechender Leistung zur Verfügung stellen kann. Gute NAS-Systeme sind deshalb so teuer, weil darin ein guter Controller arbeitet.

2) Hast Du Dir schon mal die Möglichkeiten von Synology oder Qnap auf einem "Fertig"-NAS angesehen bzgl. Software. Da bekommst Du schon ziemlich viel geboten, bei beiden Firmen.

3) Wenn Du einen Homeserver aufbauen willst, was soll denn der können? Siehe Punkt 2!

4) Ich denke nicht, dass Du mit einem OC-/Gamer-Board auf den Stromverbrauch eines "Fertig"-NAS kommen wirst, zumindest nicht ohne sehr viel Arbeit.

5) Wenn Dir die Sicherheit Deiner Daten lieb ist und Du Angst vor bösen Steckerziehern bist, dann solltest Du über eine USV für Deinen Server nachdenken, auch der Gesundheit der Platten zuliebe.

Gruß
Tom

P.S: Kleiner Vorschlag von mir:
Synology DiskStation DS1513+

Die kannst Du dann, falls notwendig noch erweitern mit:
Synology DX513
 
Zuletzt bearbeitet:
Als Board / CPU würde natürlich auch sowas gehen: http://geizhals.de/asrock-c2550d4i-a1040154.html
Obwohl es für das Gebotene natürlich schon wieder ziemlich teuer ist. Dafür 12x SATA und passiv gekühlt im Mini ITX Format!

Gibt's auch noch als Octacore: http://geizhals.de/asrock-c2750d4i-a1040153.html

EDIT: Die Synologys brauchen 40W im Leerlauf (also beide zusammengerechnet)? Also ich gehe davon aus, dass die HDDs in diesem Zustand im Ruhezustand sind. Das kann doch nicht deren Ernst sein.
 
Zuletzt bearbeitet:
Auf die Fragen von BagBag
Vorhaben bezüglich CPU und RAM:
Kam wohl nicht ganz rüber, nach Bedarf. Im Falle einer kleinen Variante würde ich nicht mehrere VMs auf das System werfen, im Falle des i3/i5 käme ich schon in Versuchung dort einen Dauertest laufen zu lassen der auch etwas CPU intensiver wird. Spielereien mit verteiltem Rechnen und Servern. Ich würde schon davon ausgehen dass da bei VMs >= Cores eine beeinträchtigung der Zugriffsgeschwindigkeit aufkommen kann, besonders wenn ein Job mit vielen kleinen Dateien oder Kompression/Verschlüsselung läuft.
RAM würde ich an der CPU orientiert anpassen, wobei hier selbst das minimum von 4GB für die Basisaufgabe NAS ausreicht, ist also eher unkritisch und bei Bedarf nachzurüsten.

Anlaufstrom der WD Red 3/4 TB liegt laut Datenblatt bei 1,75 A. Das wären bei 10 Platten knapp die 18 A die das BQ auf einer 12V Schiene liefert. Wobei ich zumindest die Systemplatte gerne als SSD hätte für schnelles booten. Im endeffekt wären es also max. 9 HDDs. Blieben beim Start noch 6 A für den Rest, wobei ich davon ausgehen würde dass das NT kurze Überlast beim Start wegsteckt. Da mache ich mir mehr sorgen um die 230V Sicherung.

Software schaue ich noch, wobei schon feststeht dass es ein freies Unixoid wird. Wahrscheinlich ein Debian oder eines der NASdistributionen.
Dauerhafte Nutzer sind 2, allerdings verursachen wir beide ausreichend Last was Bandbreite und IOPs angeht.

Auf die Fragen von tom_meinhardt:
1) RAID ist optional und wird wenn ein RAID 5/6, wahrscheinlich Software da ein RAID6 nicht vom Intel Controller geliefert wird soweit ich das sehe. Allerdings schafft eine einzelne WD Red die 100 MB/s des Gigabit Ethernets, im Durchschnitt. Ich habe 3x 3 TB im PC, die brauchen nach meiner Erfahrung kein RAID um die Netzwerkverbindung auszulasten.

2) Die Software von FertigNAS bietet erstaunlich viel, ohne Frage, jedoch leider auch viel unnützen Kram aus meiner Sicht. Ich brauche keinen Mediaserver, wenn ich Film gucken will öffne ich die Datei über das Netzwerk mit VLC, wenn ich Musik hören will das gleiche mit dem Player meiner Wahl. Downloader brauche ich ebenfalls nicht. Dafür bieten sie weder die Leistung, besonders in Bezug auf RAM und CPU, um einfach eigene Programme darauf laufen zu lassen. Mir schwebt da beispielsweise automatische Kompression bestimmter Daten vor, die ich gerne mit 7Z mache. Da müsste ich auf etwas wesentlich sparsameres wechseln. Auch eigene Scripts zum durchsuchen der Daten benötigen eventuell etwas mehr an Ressourcen, gerne auch mit einer DB zur Verwaltung gekoppelt.
Für das gleiche Geld bekomme ich in der PC Variante ungleich mehr. Außerdem vermute ich dass die NAS kaum Softwarefunktionen mitbringen die ich nicht auch für einen PC finde oder vielleicht sogar selbst schreiben kann.
Ich bastle gern und probiere einfach aus was geht und was nicht. Allerdings nicht unbedingt gleich in Assembler und C muss auch nicht unbedingt gleich sein.

3) siehe ersten Absatz, high performance NAS bis zum File- und Virtualisierungsserver, ganz nach Bestückung. Virtualisierung etc wäre aber ein Bonus, das würde ich einfach ausnutzen um meinen PC zu entlasten, das könnte es mir ersparen auf 32 GB RAM aufzurüsten.

4) Mein Gedanke, allerdings siehe hier, der Stromverbrauch scheint, sofern die gut getestet haben, reichlich unabhängig vom Chipsatz und der Ausstattung zu sein. Das AsRock extreme 6 liegt bei 28,8W, das MSI GD65 Gaming bei üblen 46,8 und das AsRock extreme 4 bei 43,2W. Aber Idle ist garnicht so einfach zu testen wenn man nicht aufpasst.
Wenn ich allerdings sehe dass die großen NAS locker 30W Idle haben (ohne platten, oder die Angabe ist nach dem Mond) könnte ich da gut drunterkommen mit einer sparsamen Konfig, sprich nur 1 RAM Riegel etc. Ich weiß dass ein PC mit 8 oder 16 GB RAM und einem i7 4770 im Idle auf ~10-11 W kommen kann mit HDD. Das legt die Messlatte schon ziemlich niedrig finde ich, ich habe hier noch PCs die 200W im idle nehmen, aber vielleicht werde ich auch alt.

5) USV kann ich erst raussuchen wenn ich mir darüber im Klaren bin welche Dimensionierung das NAS, bzw der Fileserver hat. Ist geplant.

(6)) Ich komme nicht umhin das NAS mit der PC Version für ~ 700 € zu vergleichen und diesen Vergleich verliert es ziemlich deutlich. 50 W in Teillast könnte der PC mit i5 und 16 GB RAM auch nehmen, ggf etwas runtergetaktet. Mein PC mit i5 4570K und AMD 7870 und 16 GB RAM nimmt etwa 110 W unter voller CPU Last. Auch vermute ich mal dass ich Probleme mit der Gewährleistung bekomme wenn ich an dem NAS rumschraube um leisere Lüfter einzubauen. Für die Erweiterung sind 30 dba angegeben. Der ist bei 1100 Umdrehungen im Alugehäuse schon zu 'laut'. Da wird es eine herausforderung 2 80mm Lüfter in einem wahrscheinlich engen NAS leiser zu bekommen ohne im Sommer Wärmeprobleme zu bekommen. Die Räume sind nicht klimatisiert.

- - -

Die SOC Boards sehen prinzipiell echt interessant aus. Ich werde wohl mal ein wenig darüber grübeln, wobei mit so kleine Bauformen nur bedingt zusagen und es mich etwas stört dass ich für das Geld das Wunschboard AsRock extreme 6 und den i5 bekomme. Ich würde mal vermuten dass auch ein Octacore Atom in keiner Weise gegen einen Haswell Quad ankommt sobald wirklich Rechenleistung gefragt ist. Was den Verbrauch angeht haben die aber wohl einen Punkt. Leider fehlt denen USB 3, das wird in den nächsten Jahren unter umständen ein deutlicher Negativpunkt, oder aber völlig egal.

Das NAS Projekt ist aber definitiv interessant, aber ein paar dinge irritieren mich. Kopieren einer einzelnen Datei mit gzip -9 von NAS zu PC nahezu ohne CPU Last und mit 90 MB/s? Das lässt sich mit normalem gzip nicht parallelisiert komprimieren und mein PC packt OC etwa 2,5 MB/s.

Scheint als müsste ich mich zwischen Stromverbrauch und größe auf der einen und CPU Leistung auf der anderen Seite entscheiden. Aber vom Gefühl her würde ich lieber auf einem i5 arbeiten als auf einem Atom, auch wenn der 8 Kerne hat. Außer natürlich es geht um einen reinen Fileserver ohne große Zusatzaufgaben wir VM hosting mit CPU lastigen Aufgaben. Da stört mich dann aber widerrum dass die Variante mit dem Atom genauso teuer ist. Mehr als 9 HDDs + System SSD werde ich aber diese Hardwarerunde nicht brauchen.
Was müssen die kleinen Boards auch so teuer sein, der Atom wird den Preis wohl eher nicht hochtreiben. Aber bei 380 € vermisse ich doch irgendwie Leistung, den Stromverbrauch und die reine NAS Funktionalität sollte der Celeron auch bringen. Für etwa 250 € weniger allerdings.
 
Überleg dir auch 2 SSDs für's System im RAID1 einzusetzen für die Ausfallsicherheit.
 
Ein paar Anregungen:
Mein Heimserver (schon älter): http://geizhals.de/eu/?cat=WL-427435
mit Debian (Proxmox für virtuelle Maschinen) und ZFS on Linux, 5x2 TB WD Green (per Flashprogramm am verschleißenden Parken gehindert) am LSI Controller (umgeflashter "dummer" IBM HBA ohne fette RAID-CPU, <5W zusätzlich) im RaidZ1 (Raid5), die beiden SSDs für's System und ZFS Cache. Beim Kopieren limitiert das GBit-Netz ganz klar, allerdings bringen Windowsfreigaben (smb/cifs via Samba 4) reichlich Overhead und mit Netzwerk-Bonding und theoretischen 2GBit paralleler Lesezugriff komme ich nicht auf 2x118MB/s, auch wenn mein Cache das locker liefern sollte, aber es reicht ;)
Habe noch 3-4 virtuelle Systeme drauf, zu Test-, Programmier- und sonstigen Zwecken.

Einzelne Gedanken:
SATA-Anschlüsse
Bevor ich zum Mainboard komme: sogenannte HBAs von OEM-Anbietern (HP oder IBM) bekommt man deutlich billiger als "echte" RAID-Controller aber lassen sich häufig mit LSI-Firmware beschreiben und sind nicht mit 0-8-15-SATA-Controllern zu vergleichen. Meine Intention war, dass ich die Karte per VT-d an ein virtualisiertes NAS-Betriebssystem durchreichen wollte, aber falls die Mainboardanschlüsse nicht reichen, sind diese Karten ebenfalls ein sinnvoller Ersatz. (Stabil, mit 8 Anschlüssen gebraucht 50-100€, behalten recht lange ihren Wert wenn nicht gerade ein altes Modell hat das maximal 2TB/Platte erkennt, SAS-Stecker vereinfachen Verkabelung).

CPU / Mainboard
Wird Leistung benötigt (Verschlüsselung der Festplatten, Virtualisierte Systeme die wirklich rechnen sollen, Videoencoding oder Windows Server) ist ein i5 / Xeon E3 schick. IDLE-Stromverbrauch super und auch unter Last gut. Dazu ein B/H/Z-Mainboard mit 8 SATA-Anschlüssen. wenn möglich µATX mit so wenig Features wie nötig wegen Stromverbrauch, eher ASRock oder MSI. Zusätzlich falls nötig 4x oder 8x SAS-Controller oder System auf USB3-Stick installieren (wenn möglich auf 2 im Raid oder Kopie bereit halten - bei einer Intel oder ähnlich haltbaren SSD würde ich im Heimgebrauch auf dauerhafte Spiegelung verzichten).
Wird so viel Leistung nicht benötigit würde ich statt mainboardabhängig teurer Atom/Celeron-Lösung mal AMD Kabini (AM1) vorschlagen. Die Mainboards haben zwar kaum mehr als 2 SATA-Anschlüsse, aber in Verbindung mit besagtem Zusatz-Controller (8x) kommt man günstig weg. Mainboards und CPUs je 25-50€.

Gehäuse / Lüftung
Bei den i5- oder kleineren CPUs reichen teilweise schon die Boxed-Lüfter um die Geräuschkulisse der Festplatten zu unterbieten. So ohne Grafikkarte braucht man im großen Gehäuse wenig Zusatzlüfter, Festplatten müssen ja auch nicht auf 20°C gekühlt werden sondern fühlen sich bei knapp 40°C wohl. Wichtig ist also Festplattenentkopplung und ggf. Dämmung. Die von mir benutzten Silverstone Käfige haben eine weiche Aufhängung und mein Gehäuse ist von oben bis unten für 5,25" tauglich. Gibt leider nicht viele Gehäuse die sowas haben, aber deine genannten Gehäuse haben ja auch teilweise brauchbare Entkopplung und Dämmung, sollte gehen. 1-2 Gehäuselüfter auf 5V und PWM für CPU sollten imo reichen.

Netzteil
Ich hatte meinen Server in ähnlicher Konfiguration schon am 120W-PicoPSU betrieben, also i5(-2400 noch) mit 5 Festplatten, 50W im IDLE, beim Hochfahren habe ich die Spezifikation sicherlich kurzzeitig verlassen. Da bei 50W ein gutes 350W-Netzteil ähnlich effizient ist hab ich zu einem solchen gewechselt. Aber würde es auch bei 8+ Platten nicht zu groß dimensionieren, weil ein Markennetzteil mit kurzzeitigen Spitzen kein Problem hat, aber ein überdimensioniertes Netzteil bei wenig Last schon viel an Effizienz verliert. PicoPSU jetzt nicht gerade, aber 250-350W sollte je nach CPU-Maximum reichen.

RAM
Nur für Linux-RAID braucht's nicht viel RAM. Würde mal verallgemeinert mit 2GB pro (realem/virtualisiertem) System rechnen. Was von mehr Speicher profitiert ist ZFS, falls dir das nix sagt bitte mal kurz informieren. Viele Features und Vorteile gegenüber Software RAID + beliebiges Filesystem und hinreichend schnell, unendlich optimierbar. Daumenregel: 1GB RAM pro TB Festspeicher.

Virtualisierung
Wenn du dich da richtig austoben willst, darauf achten dass CPU und Mainboard VT-d können (CPU i5 oder Xeon E3, kein K-Modell; Mainboard vorzugsweise ASRock mit Z-Chipsatz, gibt aber auch andere), dann kann man auch PCIe-Geräte durchreichen, von Netzwerkchips über Festplattencontrollern bis hin zu Grafikkarten. Dann kannst du z.B. auch für dein NAS eine Spezialdistribution installieren und muss nicht im Host laufen.
 
Dazu hab ich doch gleich ein paar Fragen:

1. Wozu der Z-Chipsatz? Übertakten will ja niemand. Wäre nicht eher ein Q87 Chipsatz angebracht + Xeon + ECC RAM?

2. Deine virtuellen Maschinen laufen ja (hoffentlich) über KVM oder?

3. Dann hast ja angedeutet, dass du als Gast eine VM laufen hast, die das ZFS bereitstellt. Aber warum dafür ein Linux und kein BSD/Solaris, wo ZFS (zumindest vor einem Jahr noch) deutlich besser unterstützt wird?

4. Beim Bonding sollte einem klar sein, dass man bei 2 gebündelten Ethernet-Anschlüssen eben auch 2 Clients braucht, um diese auslasten zu können. Ein einzelner Client kann maximal einen Ethernet-Anschluss auslasten. Aber (deinem restlichen Test nach zu urteilen) das weißt du ja sehr wahrscheinlich. Was für Transferraten hast du denn erreicht beim Bonding? Ich würde auch nicht von 2x118MB/sec ausgehen, sondern max. von 2x100MB/sec und bei ganz schlechten Protokollen von ~2x75MB/sec.

5. Beim Durchreichen des RAID/SATA-Controllers wäre ich vorsichtig. Da verliert man doch eine sehr schöne Abstraktionsschicht oder? Wenn der Controller durch einen neuen ersetzt wird, müsste man im Gast die Treiber/Konfiguration sehr wahrscheinlich anpassen. Wenn aber nur die einzelnen HDDs durchgereicht werden, muss man diese nur wieder in der richtigen Reihenfolge von den Gast übergeben und alles sollte wie gehabt laufen. Vielleicht ist es auch nur Erbsenzählerei ;)

6. RAM und ZFS = beste Freunde. In den allgemeinen Empfehlungen für die beste Performance wird einem geraten: "For systems with large disk capacity (greater than 8 TB), a general rule of thumb is 1 GB of RAM for every 1 TB of storage." (Quelle: http://doc.freenas.org/index.php/Hardware_Recommendations ). Zusammen mit den anderen Tips: "If your system supports it and your budget allows for it, install ECC RAM.".
Dabei handelt es sich jeweils um den nutzbaren Speicher. Also bei einem 5x3GB RAID5 wären es 12TB nutzbarer Speicher und folglich optimalerweise 12GB RAM.
Deduplication kann man sich im Heimgebrauch eigentlich Sparen. Vor allem, wenn es um die Lagerung von Musik und Video geht.
 
@benneque:
Da den TE nach bisherigem Stand nicht unbedingt alles im Detail interessiert, versuche ich mich kurz halten, Rest via PM oder woanders oder bei vertiefendem Interesse von Bigeagle ;)

1. Hatte bereits ein Q67 von Intel im Einsatz, da war ich nicht so überzeugt von. War nichts halbes und nichts ganzes, teurer als H-Versionen und speziell bei dem Intel hatte ich hohen Stromverbrauch und Probleme mit dämlichen IRQ-Zuordnungen der PCI-Steckplätze. Dachte bei VT-d und mit "MSI" (nicht der Hersteller) spielt IRQ keine Rolle, aber bei meinen Geräten irgendwie immer... Daher wäre ich eher für ein gutes Consumerboard (zu ASRock Z-Boards gibt's viele Erfahrungsberichte in Kombination mit vt-d) oder gleich ein Xeon-Board. Da gibt's von supermicro auch welche mit SATA- und SAS-Anschlüssen. Stromverbrauch soll generell höher sein, Messwerte vermisse ich aber. Erwähnenswerter Vorteil der neueren Q-Boards ggü H/Z: V-Pro und Fernwartung über Netzwerk, ich selbst hab aber für Notfälle ein Monitor in der Nähe und sonst SSH/Webinterface.

2. Ja, KVM auf verschiedenen Distributionen getestet, Proxmox auf Debianbasis gefällt aber sehr, nur Neuerdings nerven die "Freemium"-Hinweise. Ganz kurz auch ESXi getestet. Das Durchreichen des Controllers habe ich aber seit Mainboardwechsel von einem MSI Z77 auf ein ASRock H77 eingestellt, da dort zwar auch VT-d geht aber eben erwähntes IRQ-Problem auch besteht und der Controller nach scheinbarer Funktion rumgezickt hat, die Festplatten sporadisch offline waren und mein ZFS so kaputt gemacht haben, dass ich es nicht mehr zum Laufen gebracht habe, aber immerhin noch kompletten Lesezugriff hatte! NTFS auf Hardware-Raid ist da lange nicht so gnädig...

3. OmniOS auf OpenIndiana/Solaris-Basis ist sehr empfehlenswert, siehe HWLuxx-Forum, perfomantere oder leichtere CIF/SMB und iSCSI-Freigaben, aber hatte sehr spezielle Probleme mit meiner sehr speziellen Kombination. ESXi + Solaris + durchgereichter Controller klappte, KVM + Linux + Controller auch, aber KVM + Solaris + Controller nicht. ZFSonLinux hat sich aber als sehr stabile Entwicklung erwiesen, jetzt ist ja alles unter einem Dach und wird parallel für Solaris, BSD und Linux entwickelt (Open ZFS). Sobald ich Zeit finde möchte ich den Server auf FreeBSD umziehen, eher aus Bastellust und Neugier und interessanten Sicherheits-Features (praktikable Verschlüsselung mit ZFS, jails etc.)

4. Wenn man einen teuren Switch einsetzt und/oder auch für Windows eine unterstützte Netzwerkkarte findet sind auch 2GBit zu einem PC möglich, aber ja, ich hab nur serverseitig die einfachste Methode aktiviert die für parallele Zugriffe gedacht ist. Mein einer PC ist inkl. Jumboframes auf schnellen Zugriff optimiert, da schaffe ich die 118MB/s (ohne Jumbo 112MB/s) lesend wie schreibend, wenn ich dazu mit einem 2. nicht-optimierten PCs parallel iso-Images lese komme ich insgesamt auf etwa 140-160MB/s, mit reinem Netzwerkbenchmark iperf auf 180MB/s.
Ich wollte eigentlich nur darauf hinaus, dass auch wenn mit ZFS trotz der vielen Features bei entsprechender Hardware im RaidZ lokal >500MB/s lesen wie schreiben auch ohne Cache und Komprimierung keine Seltenheit sind, sind Windowsfreigaben doch noch ein anderes Thema und mit ungünstiger Hardware der Gigabit manchmal nur knapp erreichbar.

5. Beim durchreichen von einzelnen Festplatten wird meines Wissens nach sehr viel emuliert. Im OS muss man auf die libvirt-Treiber zurückgreifen damit das überhaupt performant klappt. Beim durchreichen des Controllers (mit VT-d) hat man nahezu 100% Performance ohne erhöhte CPU-Last. Und für Linux-Raid oder ZFS ist die eingesetzte Betriebssystemversion sehr egal, man sollte vielleicht auf das ein oder andere achten um Aufwand zu minimieren, aber grundsätzlich lassen sich die Festplatten unabhängig vom Controller wieder finden und einbinden. Und Treiber für Festplattencontroller sind in *nix selten ein Problem ;)

6. Ja, Deduplikation lohnt nur bei seeeehr billigem RAM und wirklich redundanten Daten. Sinnvoll ist hingegen lz4-Kompression zu aktivieren. Bei der kleinstmöglichen CPU müsste man gucken ob es lohnt, aber mit jedem i3/5/7 ist das so effizient, dass man sowohl Datenrate, als auch Platz gewinnt. Je nach Inhalt halt in unterschiedlichem Ausmaß. Bei meinen Fotos in größtenteils RAW (und viele EXIF-Daten) spare ich 2% Platz, bei den diversen eigenen Dateien 16%.
 
Zu den Leistungsangaben bei NAS von Synology - Die sind im Vollausbau - sprich alle möglichen Platten drinnen, und zwar meistens die gröszten die zu dem Zeitpunkt verfügbar waren.
ZB braucht meine 1812 im Ruhezustand etwas über 20W und im Betrieb ca. 48-55W mit 7*3TB Toshiba.
Mein 2411 braucht im Ruhezustand etwas mehr als 30W und im Betrieb unter 70W mit 11*2TB, jedenfalls zeigt das die USV an.
 
Danke für die ausführlichen Infos.
Ich habe die Orientierung bekommen und werde nun folgende Konfiguration nehmen.

Gehäuse: Nanoxia Deep Silence 6, größer, schwerer und damit eher vibrationsunempfindlich
Mainboard: AsRock extreme 6 Z87, bietet genug SATA Anschlüsse, scheint sparsam und relativ günstig
Q87 Boards habe ich keins gefunden das mehr als 8 SATA Anschlüsse bietet, ich sehe da keinen Vorteil. Eher den Nachteil dass weniger Funktionen ohne die Zielgruppe OC verfügbar sind.
CPU: Xeon E3 1231, ich schätze mal Preis-Leistung unschlagbar für die Plattform und bietet die Freiheit wirklich mehr als nur NAS zu machen.
Netzteil: Seasonic Platinum fanless 400 W, einfach weil garantiert Silent und eine Sorge weniger was das angeht. Ich investiere da ausnahmsweise in Vertrauen darauf dass es lange hält. Ein kaputtes Netzteil habe ich bisher erlebt und dabei kann es meiner Meinung nach auch bleiben.

Als Preis für die große CPU wird als Kühler ein Thermalright HR-22 eingeplant, ich erhoffe mir von diesem genug Kühlleistung im Semi-passiv Betrieb dass die CPU auch unter Last kühl bleibt ohne dass etwas zu hören ist. Eventuell hilft auch das Abschalten des Turbo um das zu erreichen, der ist ohnehin nicht Energieeffizient.

RAM wird für den Anfang ein 8 GB Riegel sein und bei Bedarf mit gleichen Riegeln erweitert. (KVR16E11/8)
Danke für den Tipp mit ECC, daran hätte ich nicht gedacht.


Zur Software:
Bisher laufen meine VMs mit Virtualbox. Abgesehen von den typischen Einschränkungen die ich dabei erwarte (leichte performanceeinbußen, nicht Benchmarktauglich ...) funktioniert das bisher sehr gut. KVM werde ich mir zusammen mit dem Terminalbasierten handling von Virtualbox anschauen.

Welches Betriebssystem am Ende hostet und den NAS bereitstellt ist mir relativ egal, es sollte ein freies System sein und in der Anwendung funktionieren. NAS4free hat mir im Test auf meinem lokalen PC sehr zugesagt. ZFS war in den Tests sogar schneller als jede RAID Konfiguration. Allerdings muss mich da noch richtig reinfinden wie ich mit ZFS richtig umgehe, es ist definitiv etwas anders.

Letzlich wird die Kiste nun NAS und Homeserver vereinen, das kommt deutlich günstiger als dafür getrennte Kisten hinzustellen.

Ich werde einen Erfahrungsbericht hier einstellen wenn das System aufgebaut und getestet ist, vielleicht kann das dann als Orientierung für andere dienen.
 
Klingt gut, ich konnte mit dem Macho HR-02 einen i5-2400 auch schon semipassiv betreiben (naja, der Lüfter war einfach wenige cm hinter dem Kühler am Gehäuse befestigt, weiß nicht wie "passiv" das ist :D ), also sollte der HR-22 das bei etwas Luftzugplanung erst recht packen.

Aber Achtung bei der CPU, die hat keine iGPU. Zur Erstinstallation ist ja definitiv eine Grafikkarte sinnvoll (hätte auch noch PCI-Modelle hier ^^), im Anschluss aber wohl in der Regel zum Hochfahren des Rechners nötig. Weiß nicht welche Mainboards es erlauben ohne Grafikkarte zu booten. Also wäre wohl das kleinste übel den E3 1235 zu nehmen (gibt's keinen 1236?? aber Unterschiede sind ja marginal) mit ganz wenigen Watt mehr im Verbrauch.

Das Board finde ich sehr schick. Wird bei der Zahl an Features nicht das sparsamste Modell sein (orakelt), aber besser als die meisten Server- oder Intel-Q-Boards.
 
Ich wollte es erst nicht glauben, aber es scheint wirklich üblich zu sein dass die 'Consumer' Boards ohne Grafikkarte nicht starten. Als ob das nicht genug wäre unterstützen die auch keinen ECC RAM.

Das wirft einen Teil des Plans über den Haufen. Das kann doch nicht so schwer sein ...
Ich schaue mal was daraus wird. Anfrage bei AsRock könnte auch etwas dauern. Vielleicht lässt sich ja zumindest das Board dazu überreden auch ohne Grafik zu starten.
 
Die vorgesehenen Wege sind wohl leider (in preislich aufsteigender Reihenfolge)
- selbes Board aber CPU mit iGPU, kein ECC-Speicher
- Q87-Board mit iGPU und evtl. ECC
- Workstation-Board mit iGPU und evtl. ECC
- Server-Board ohne iGPU (Grafikchips onboard) und mit ECC

Da der Speichercontroller auf der CPU hockt kann der zwar mit ECC umgehen, aber es ist wohl auch eine zusätzliche Leitung zum Speicher nötig und klar, die sparen sich die meisten Hersteller bei den i3/5/7-Boards. Ein Unding von Intel finde ich auch dass die E3 keinen registered-ECC schlucken können sondern nur die E5. Das mit dem nicht-booten bei fehlender Grafikkarte finde ich auch schade und hat mich schon geärgert. Die Serverboards starten aber auch nicht ohne, die haben simplere Grafikchips die für Konsolenausgaben genügen onboard. Aber der Mehrverbrauch eines ungenutzten Intel-HD-Chips ist wirklich gering. Und da man beim Consumer-Board nicht aus der Ferne ins Bios kommt, braucht man ja eh hin und wieder ein Bild :D

Persönlich könnte bzw. kann ich mit der ersten Lösung gut leben, hätte ich so viel Geld übrig würde ich aber gerne mal ein supermicro-Board mit ECC-Speicher testen.
 
Das mit der GPU ist natürlich richtig. Aber sieh es mal so: Wenn man sich ein Consumer Z87 Board kauft, dann wird das in 99,999% aller Fälle für Desktop-Benchmark/Zocker/Overclocker-Systeme benutzt. Und da das die Prestige-Consumer Chipsätze sind, ist das der einzige Ort, wo sich die Hersteller denken: "Hier kann ich Feature X und Y noch mit drauf klatschen", denn der Aufpreis zu einem normalen Z87 Board fällt dann eher gering aus (prozentual gesehen).

Bzgl. ECC: Ein Intel Xeon E5-1620 v2 ist preislich gesehen jetzt auch nicht viel höher angesiedelt als ein Xeon E3 1330 V3. Allerdings finde ich die TDP von 130W abschreckend... Vermutlich ist die Betriebsspannung einfach massiv erhöht, um auf jeden Fall in jeder Situation einen stabilen Betrieb gewährleisten zu können. Ob der reg. ECC Speichercontroller in der CPU im Vergleich zu einem normalen DDR3 Speichercontroller auch noch mal mehr Strom frisst weiß ich nicht, aber ich gehe mal davon aus - Stichwort: Fehlerkorrektur.
Alternativ wäre da noch der Intel Xeon E5-2609 v2 (80W TDP). Darüber lohnt es sich Preis/Leistungs-mäßig gar nicht mehr: 850€ für 4x3,5GHz - da kann man sich auch gleich 'nen rostigen Nagel in den Kopf rammen.

Der richtige Preisaufschlag kommt dann erst beim Board zu tragen. Unter 240€ (mit >=9 SATA Ports) gibt's kein Server Sockel 2011 Board. Nur die Consumer 2011 Boards gibt's ab 160€, allerdings haben diese natürlich kein onBoard GPU.

@mauorrizze: Was meinst du mit "Workstation-Board"? Etwa sowas wie Sockel 1150 mit C222/224/226 Chipsatz? Da gibt's scheinbar auch nur ein einziges mit mind. 9x SATA und es kostet 185€.


Insgesamt ist die Computerlandschaft wohl speziell für deinen Anwendungsfall nicht geschaffen. Daher würde ich inzwischen auch mauorrizzes alten Plan wieder hervorgraben: SATA-Controller-Karte! Dann ist man vom Board komplett unabhängig.
 
Der AsRock Support hat schon am nächsten Mittag geantwortet und sagte dass das extreme 6 ohne GPU bootet, lediglich mit dem Warnpiepen muss man leben wenn der Piepser angeschlossen ist.
Damit steht dem Plan von technischer Seite nichts mehr im Wege, nur auf den ECC RAM werde ich wohl verzichten.

130 W TDP stünden dem strikten Silentkonzept dann langsam doch im Weg. Bei den 80 W bin ich noch zuversichtlich das durch deaktivieren des Turbo eingrenzen zu können. Zur Not muss ein Script ran das die Sensordaten auswertet und abhängig von der Tageszeit und ggf der Computeraktivität im Raum die CPU drosselt.
Der Arbeitspc daneben gibt ggf Statusmeldung ob gerade gearbeitet, gespielt oder Film geguckt wird und abhängig davon gelten bestimmte Limits für Lüfterdrehzahl und CPU Takt.
Beispielsweise: Wenn Film läuft wird ab 900 U/min auf bis zu 2,5 GHz begrenzt. Silent on-demand
 
"Silent-on-demand" haha. Lebst du im Jahr 2000? :D

Aktuelle CPUs (Haswell) takten sich auf 800MHz runter - Sandy und Ivy takten sich natürlich auch runter, aber ich weiß gerad nicht genau, ob es auch 800MHz waren oder doch etwas mehr - und senken die Spannung (~0,7V statt ~1,1V unter Last bei Quadcores), wenn sie nicht benutzt werden. Dann sinkt der Verbrauch mal eben von 80W (unter Vollast) auf 5-10W. Dazu können die Mainboards auch die Lüfter steuern und passen die Drehzahl der CPU Temperatur an.

D.h.: Einstecken und läuft. Wenn es dann immer noch zu laut sein sollte, kann man natürlich noch im BIOS ein wenig nachregeln - mir ist bisher noch kein Sandy/Ivy/Haswell Board untergekommen, wo das nicht ging. Und da du dich wohl für ein Super-Overclocker-Highend-Gamer Board entschieden hast, wird das BIOS vor Knöpfen und Reglern fast platzen.

Die CPUs sind seit Jahren keine Autos mehr, die nur im ersten Gang fahren können. Im Netz kursieren auch genügend Berichte, die zeigen, dass DualCore-Systeme im Idle auf ~10W Verbrauch kommen können (für das gesamte System inkl. Board), natürlich hängen da dann keine 10 Festplatten dran. Ich wollte nur aufzeigen, dass im Idle (bei 10W Leistungsaufnahme) nicht mehr viel Leistung übrig bleibt, die in Form von Wärme abgegeben werden kann. Selbst wenn es 10W reine Wärme wären, könnte man das passiv kühlen ;)

Alternativ kannst du natürlich auch noch nach einer 65W Variante der CPU schauen. Oder (so wie ich) das schnelle Modell nehmen und die Spannung senken: Weniger Spannung -> weniger Verbrauch -> weniger Hitze -> weniger Lautstärke. Aktuelle CPUs können sich in seeeehr vielen Zwischenschritten hoch und runter takten. Das heißt natürlich auch, dass die CPU bei minimaler Last auf 1,5GHz laufen kann und nicht bei der kleinsten Beanspruchung auf 3,xGHz hochtaktet. Und wenn du das Teil nicht ständig unter Volllast laufen lässt, kannst du den Turbo ruhig aktiviert lassen. Der wird ja nur benutzt wenn er benötigt wird.
 
Zuletzt bearbeitet:
So wie ich das sehe suchst du die Eierlegende Wollmichsau :D. Meine Ausgangslage ist eine etwas andere aber vielleicht hilft die Perspektive da ich ähnliche Überlegungen angestellt habe. Mein NAS sollte Vmwares (zum testen/trennen von Betriebsystemen), Downloaddienste, Media Server und eventull FTP und TFTP Dienste bieten und als sicheres Speichermedium dienen. Das Problem war auch hier Preis/Leistung,Prozessorleistung, ECC, Stromverbrauch und Lautstärke. Die traurige Wahrheit ist aber das letztendlich Stromverbrauch und Lautstärke miteinander in Verbindung stehen. Als "sicheres" Speichermedium hatte ich mich recht schnell auf ZFS eingeschossen. Um ECC nutzen zu können bleibt einem aber fast nur einen HP microserver zu nehmen oder gleich ein Serverboard. Meine ersten Tests ergaben für mich folgendes:

1) 10x2 TB Festplatten benötigen zwschen 40-100 Watt und sind dennoch relativ laut
2) Als ZFS System bietet sich für mich Freenas an da dies wenig frickel/administrationsaufwand für mich bedeutet und auch das recovery im Fall des Falles erleichtern sollte (große Community + fertiges System)
3) Der durchsatz am ZFS/Freenas System war nicht alleine von der Serverhardware sondern auch stark von den Clients abhängig. In diesem zusammenhang erreichte ich ca 70-110 MB über das Gigabit Netzwerk je nach Raid art und ZFS Einstellungen. Abhängig ist dies jedoch auch von der Netzwerkkarte des Clients und dort führen gerade die weitverbreiteten Realtek Chips zu einen drop von 10-20 MB. Die beste Leistung hatte ich jeweils wenn mein Client eine Intel Netzwerkkarte genutzt hat (Intel Q67 Mainboard). Realistisch mit der von mir gewählte ZFS Variante (Raid6 und hoher kompressionsgrad aber keine deduplizierung) erscheinen 90-110 Mb.
4) Die (grund) Lautstärke wird bei 10 Festplatten eher durch die Festplatten als durch Lüfter oder die CPU bestimmt.
5) Das Netzteil für den Server sollte 400-600 Watt besitzen (getestet mit 10-15 Festplatten). Für 15 Festplatten benötigte ich bei mir eine 500W PSU.

Durch die neuen Haswell CPU's bin ich daher bei folgender Lösung gelandet:
1) Ein Serverboard der vorletzen Generation (Sockel 704) +24MB ECC von Ebay (ca 80-120 Euro). Dazu ein auf LSI umgeflashter 8 port Controller (ca 20-40 Euro). --> ZFS Freenas Server
2) Ein separates NAS mit einem Asrock B85M-pro und einem Haswell Celeron 1820 mit 8 GB Ram.

Das Asrock benötigt mit einem 200 Watt micro Netzteil und SSD 13,5 Watt im idle unter Windows 8.1, 14,5 Watt mit einem DVB-T Stick und sofern das Datenblatt der RED 4 TB Platten stimmt 19W mit 4 TB Platte. Das System verbraucht im Suspend to Ram 2,5 Watt. Es lassen sich Vmwares für kleinere Tests oder separate Systeme darauf betreiben. Transcodieren von Media Inhalten funktioniert. Die Lautstärke ist silent (die CPU wird passiv ausreichend durch einen Scythe Ninja mini gekühlt)

Wenn man dies einem Mehrverbrauch von 20-40 Watt im Jahr gegenüberstellt so sind dies bei mir ca 2,5 Euro x 20 bzw 40 = 50-100 Euro im ersten Jahr. Die Asrock Lösung kostet neu (ich hatte schon Ram und Netzteil) ca 130 Euro und hat sich daher in 1-2 Jahren amortisiert.

Ich kann den Asrock jederzeit aufrüsten (i5 oder Xeon oder Ram oder weitere 4TB Platte). Er ist leise und kann auch im Wohnzimmer stehen. Der Server wiederum soll als Datengrab dienen und Zeitgesteuert starten und sich mit dem Asrock synchronisieren.

Würde ich die gleiche Lösung heute Aufbauen und mehr Geld in die Hand nehmen würde ich mir ein C206 oder ähnliches Serverboard holen und darauf einen Celeron 1820 setzen (die durchaus ECC beherschen!), zusätzlich darauf achten das das Serverboard remote Administration bietet und einen i5 oder Xeon für die Asrock Lösung sollte ich feststellen das die Vmwares zu langsam sind (denke aber nicht). Den 8 Port Controller würde ich weiterhin bei Ebay holen und umflashen.

Sicherlich spricht für einige einiges dafür eine Komplettlösung zu bauen aber die Trennung in 2 Maschinen (Asrock zum frickeln und Server als do not touch Version), gerade die Lautstärke von 10+ Festplatten, der niedrige suspend to ram verbrauch und die Tatsache das ich für die getrennte Heimlösung kein VT-d etc etc benötige sind für meine Zielsetzungen scheinbar bisher optimal.

Als "Luxus" ist noch geplant einen Router mit 3W oder den Raspberry dazu zu nutzen meine Fernseher regelmäßig anzupingen und das Asrock zu wecken wenn einer der Fernseher angeht so dass der WAF Faktor erhalten bleibt :)

CePeU
 
Den Stromsparaspekt kann ich überhaupt nicht nachvollziehen:

1. Es ist völlig egal, ob man einen Celeron, Pentium, i3, i5, i7 oder Xeon hernimmt. Im Idle unterscheiden die sich kein bisschen. War bei Ivy Bridge auch so, wie man hier gut sehen kann.

2. Wenn sich die Festplatten schlafen legen (also wirklich ausgehen und sich nicht mehr drehen), sinkt der Verbrauch auch auf ca. 0 und dazu hört man sie nicht mehr.

3. Virtualisierung ist doch genau dafür da, dass man nur 1x Hardware braucht und man darauf viele Systeme betreiben kann, die jeweils zu 90% keine CPU Last erzeugen. Und ich hoffe, du meinst mit "VMWare" nicht VMWare Workstation, sondern VMWare ESXi ;) (Oder als Alternative KVM, Xen oder Hyper-V) Das ist ein riesiger Unterschied in Sachen Effizienz!
Das VT-D Argument zählt natürlich auch nicht, weil jede brauchbare CPU VT-D hat (im Server werden keine Overclocker Teile eingesetzt). Und wenn man eine "Spielwiese" braucht: 2 Klicks und man hat eine neue VM laufen.

4. Bei zwei Rechnern hast du dann aber auch wieder 2 Boards die doppelt Strom saugen, 2x so viele RAM Riegel die Strom saugen, etc. pp. Außerdem hast du dann noch entweder ein HDD/Stromverbrauchsproblem oder ein Bandbreiten Problem: Wenn im zweiten Rechner auch wieder so viele HDDs stecken, frisst das Teil ja noch mehr Strom. Aber wenn man sie weglässt, ist die starke CPU von der winzigen Gigabit Ethernetbandbreite abhängig. (Eine 10Gbit/s Verbindung kostet 300€ Aufwärts und frisst 15-30W).

CePeU schrieb:
Wenn man dies einem Mehrverbrauch von 20-40 Watt im Jahr gegenüberstellt so sind dies bei mir ca 2,5 Euro x 20 bzw 40 = 50-100 Euro im ersten Jahr. Die Asrock Lösung kostet neu (ich hatte schon Ram und Netzteil) ca 130 Euro und hat sich daher in 1-2 Jahren amortisiert.
Wie gesagt: Im Grunde liegt der effektive Mehrverbrauch bei 0 - vor allem weil in deiner Lösung zeitweise 2 Rechner gleichzeitig an sind. Lass den Unterschied im Idle meinetwegen 10W betragen (natürlich nur, wenn dein Server aus ist und dein Celeron NAS im Idle ist - den Rest der Zeit dürfte das mit dem Stromverbrauch eher andersherum sein, aber das lassen wir gerade mal außer acht), das ganze auf 24h (ist natürlich eigentlich viel zu viel) am Tag gerechnet, macht ca. 20€ im Jahr.
Also 20€ im Jahr, wenn dein Server ein ganzes Jahr lang aus ist und das Celeron NAS im idle ist.
Im Betrieb laufen bei dir 2 Rechner, die sowohl im Idle als auch unter Last deutlich mehr Strom ziehen als ein einzelner.

Und: Weil bei dir RAM und Netzteil da waren, kannst du den Preis hier nicht so drücken ;) Ich hätte gerade nichts von beidem hier und müsste da noch mal 100€ investieren.


Bzgl. Suspend to RAM: Darf ein System überhaupt noch mehr als 1W aus der Steckdose ziehen im StandBy? (Gibt doch irgend so eine neue EU Norm). Oder zählt Suspend to RAM nicht als StandBy (was ja schon eine Sauerei wäre)?
 
Zurück
Oben