Selbstbau NAS im 10 Zoll Rack

MobaLA schrieb:
Interessant, dass bei dir nur der betroffene Teil abstürzt.
Um genau zu sein, ging nur ein Port der Karte aus. Also die Karte selbst lief normal weiter. Erst wenn das System ein Schlafkommando an den Port sendete, gab es in den System Logs einen Eintrag und die Platte war komplett weg. Sie kam sogar nicht wieder, wenn ich den Server neu startete. Erst als ich ihn komplett heruntergefahren habe, also der Adapter kurz komplett stromlos war. Für mich klingt das klar nach einem Fehler im Controller des Adapters. Denn entweder nimmt er den Befehl an und führt ihn korrekt aus oder er ignoriert ihn. Aber einen SATA Port komplett abschalten, ist ja nicht der Sinn der Sache.

Und wer weiß. Eventuell liegt es ja am BIOS deines Mainboards. Apropos. Schon die aktuellste Version drauf? Normal sollten solche Stromsparmechanismen gehen, denn zB Ubuntu hat diese teilweise integriert. Dann würde das Board ja quasi nicht Ubuntu kompatibel sein.
 
Was braucht das System denn im Bilde und bei geringer los? Also so bei einer VM im idle oder so?

Ich frage weil ich die Kombination interessant finde. Will mir ja selbst ein NAS besorgen.

Ich finde das Gigabyte C246N-WU2 leider nirgends.

Wie sieht es denn mit dem WU4 aus? Da seht kein i3 als supported dabei...
 
Gute Frage keine Ahnung was ich da vorher gelesen habe...

Insgesamt dann doch interessant. Damit kann man ja dann wirklich recht groß werden wenn der Bedarf steigt. Ich frage mich nur echt, ob das wirklich nötig ist oder nicht... kostet auf Dauer ja einfach durch den Strom. Da kann man in 5-10 Jahren vielleicht ein komplett neues System bezahlen...

Bin wirklich am Überlegen ob ich nicht erstmal ne ds220+ holen soll um zu schauen was ich wirklich brauche.

Das Ding kann ich dann zur Not ja noch als offline Backup wo anders aufstellen. Wäre also nicht verloren als Investition.

Wobei ich dafür eigentlich alte e8400 Rechner vorgesehen habe. Läuft ja fast nie. Wobei mir spontan nicht klar ist ob die überhaupt die 4TB Platten verwenden können. Da war doch irgendwas..

Hach das ist alles nicht einfach 10W mehr kostet halt aufs Jahr gesehen echt Geld...
 
Ja, aber das Memory Update direkt zum Start geht mir schon auf den Zeiger um ehrlich zu sein. Jetzt muss man da ewig Rum suche ....
 
Hallo zusammen,

Ich wünsche an dieser Stelle erstmal noch schöne Weihnachten an alle.

Ich bin über die Feiertage nun auch wieder etwas weiter mit meinem Gigabyte C246N-WU2 im Lian Li Gehäuse gekommen.

Leider gibt es gleich wieder die typischen Probleme beim PC Selbstbau.
Das Board mit RAM, CPU und M2 SSD bestückt, Leitungen vom Netzteil angeschlossen., Knöpfchen am PC Gehäuse gedrückt, Lüfter dreht, Lüfter dreht anfangs auch mal schneller , mal langsamer (als würde das Board sein Startprogramm durchlaufen), Lüfter dreht dann konstant und wie sie sehen sehen sie nichts.

Eine Ausgabe über HDMI und DP gibt's keine. VGA kann ich nicht mehr testen da kein Monitor.

@mgutt
Bei deinem Build kam ganz normal der Startbildschirm für's BIOS über HDMI oder?

Hat evtl. noch jemand eine Idee?
Eine Anzeige für Fehlercodes gibt es ja leider auch keine um zu sehen wo er hängt 😒
 
Ja ganz normal über HDMI. VGA habe ich nie getestet. Welchen RAM und welche M.2 hast du verbaut? Für Fehlercodes bräuchtest du jetzt einen kleinen Mainboard Speaker. Ohne Ausgabe wäre mein Tipp der RAM.
 
Ram ist dieser hier verbaut den hatte ich noch von meinem ursprünglich geplanten NAS Projekt
https://www.servershop24.de/micron-16gb-2rx4-pc4-2133p-r/a-121108/

Ich muss zu meiner Schande gestehen dass ich nicht überprüft habe ob der bei den kompatiblen Modulen aufgelistet ist.

So ein kleiner Mainboard Speaker lag beim Gehäuse bei. Ich wusste nur nichts damit anzufangen. Bekommt man die (Fehler-)codes dann als Morsesignal? 😅
 
Ziemlich peinlicher Anfängerfehler meinerseits. Er ist in der Kompatibilitätsliste des Mainboards natürlich auch nicht geführt 🤦
 
laber_90 schrieb:
Ich frage da der Mini SAS Stecker zwar passt aber nicht wirklich verriegelt.
Das Problem habe ich leider auch. Das Original Supermicro Kabel hat das Problem nicht, sieht aber optisch genauso aus:

IMG_20201228_135651.jpg

IMG_20201228_135744.jpg


Ich nutze trotzdem das von Cabledeconn, da ich die SATA-Kombistecker bevorzuge. Allerdings hatte ich mal beim Umstecken eines SATA Kabels direkt einen Wackelkontakt, so dass zwei Laufwerke fehlten. Man muss also penibel aufpassen, dass der Stecker gerade drauf sitzt.

Meiner Ansicht nach liegt das übrigens am Gigabyte Board, denn das Cabledeconn hatte ich bei dem Supermicro Board auch im Einsatz und da ist es sauber eingerastet.

Die Teilenummer vom Supermicro Kabel ist laut Packliste des Mainboards CBL-SAST-0616, wobei es sehr viele Varianten zu geben scheint:
https://store.supermicro.com/catalogsearch/result/?q=SFF-8643 sata
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: laber_90
Da das standardisiert ist, sollte es eigentlich passen. Eigentlich... Da reichen schon 1-2 Zehntel mm damit das Kabel nicht mehr einrastet. Vielleicht ist ja das Cabledeconn minimal länger und rastet deswegen nicht ein?
Da könnte man ja dann an der oberen Steckerseite (wo die Verriegelung ist) minimal was wegfeilen.
Oder die Buchse auf dem Gigabyte Mainboard ist zu weit; da hilft dann auch kein Feilen. Aber wie gesagt: Standardisiert :D
 
mgutt schrieb:
Mit einer Syno machst du nichts falsch. Sind ja auch wertstabil.
Also hatte mich jetzt schon zum Kauf eines DS-920+ durchgerungen, dann aber kurz vor dem Bestellen noch gemerkt, dass das Ding doch AUCH verlöteten RAM hat... Das geht aus meinen Augen gar nicht..

Ich werde jetzt wohl auf I3-9100 und GB C246 WU4 mit 2x8GB ECC RAM gehen. Bin dann bei rund 500€ ohne Gehäuse und Netzteil. Das Board ist ja doch ziemlich teuer, kann aber echt viel. Ich hatte ne Seite gefunden, dass das als Alternative zu dem von dir vorgeschlagenen Board nannte.

Was meinst du dazu? Würde mir wohl 3x 4TB Ironwolf rein packen und 2x 256GB WD Black NVMe.

Ich habe jetzt nur keine Ahnung, wie das mit dem sleep der HDD aussieht. Würde die an sich schon gerne im sleep haben, auch wenn der Ubiquiti controller und noch ein zwei Dienste laufen.

Dafür müsste aber quasi tearing laufen. Also das die Daten aus den Containern erst mal auf den NVMe landen und dann alle paar Stunden oder einmal am Tag auf die HDD geschoben werden. GEht das überhaupt mit den üblicken Verdächtigen und wenn ja mit welchem?

Zur Not müssten die NVMe 512GB groß werden, wird sich auf 5-10 Jahre aber sicherlich lohnen vom Stromverbrauch her. ODer was meinst du?
 
Skysnake schrieb:
Du meinst das Fujitsu? Das ist sehr sparsam, hat aber wie das mITX Gigabyte das Problem, das es nur einen M.2 Slot hat (der andere ist M.2 Key E WLAN). Also ein M.2 Cache ginge dann nur mit einer SSD ohne Ausfallsicherheit. Optimal ist das mATX C246 Gigabyte oder Asus. Da hat man zwei M.2 Slots.

Oder was evtl auch denkbar wäre ist so einen Adapter beim Fujitsu ausprobieren:
https://www.amazon.de/Sintech-NGFF-NVME-WiFi-Kabel/dp/B07DZF1W55

Aber damit kommt man dem Preis des Gigabyte mATX auch recht nahe. Ob dann die Bastelei wirklich lohnt ist fraglich.

Die neueste Variante wäre das Gigabyte W480 (hat sogar 2.5G LAN). Leider aber nur ECC RAM mit einem Xeon, da Intel den Support bei Pentium Gold und i3 gestrichen hat.

Statt 2x 8GB würde ich 1x 16GB installieren. Mehr Aufrüstpotential. Die Geschwindigkeit von Dual Channel spielt bei einem NAS eine untergeordnete Rolle.

Die Frage ist ob du M.2 überhaupt brauchst. Das Fujitsu mit zwei SATA SSDs ist sonst auch eine gute Option. Hat aber eben nur 6 SATA Ports und zwei wären dann schon wegen der SSDs weg.

Echt doof, dass die Händler so draufschlagen. Das C246M WU4 lag mal bei 160 €. Ich glaube ich habe zu viel Werbung dafür gemacht ^^

Ansonsten wäre auch noch die Option das Fujitsu nehmen und eine SATA PCIe Karte installieren. Dann liegt man bei vielleicht 150 €. Aber hat dann auch etwas mehr Stromverbrauch wegen der Karte.
Ergänzung ()

Skysnake schrieb:
alle paar Stunden oder einmal am Tag auf die HDD geschoben werden. GEht das überhaupt mit den üblicken Verdächtigen und wenn ja mit welchem?
Die Nutzerdaten von Containern liegen im Share appdata. Dieses lässt man in der Regel permanent auf dem SSD Cache, so dass man die beste Performance hat und die HDDs schlafen können.

Für Backups empfehle ich entweder das Plugin:
https://forums.unraid.net/topic/61211-plugin-ca-appdata-backup-restore-v2/

Oder mein Skript:
https://forums.unraid.net/topic/97958-rsync-incremental-backup/
 
Zuletzt bearbeitet:
hm... ist das ein echtes Tearing, oder nur ein backup? Für mich liest sich das nicht wie ein echtes tearing.

Hintergrund ist, das ich eventuell auch einen TICK stack laufen lassen will, der mir vom Switch das Monitoring macht und halt wenn möglich auch von der Viessmann Haustechnik. Da wäre tearing halt ein nobrainer.

Wenn das nicht geht, müsste man halt mit min zwei Volumes arbeiten, wobei das eine auf den SSDs liegt und das zweite auf den HDD. Dazu dann halt auch zwei DBs. Die eine auf den SSDs mit sagen wir mal 3-6 Monate retention policy und die andere dann auf den HDD ohne retention policy. Die Migration müsste ich dann halt mit einem Continues Querry machen oder so. Natürlich sehr viel aufwendiger, als wenn das Filessystem tearing könnte, aber es geht.

Vorraussetzung ist aber natürlich, das man mehrere Volumes angeben kann mit unterschiedlichen storage Backends. Geht das bei unraid?

Wobei ich mich nicht so ganz mit unraid anfreunden kann, wenn da die Daten nur auf einer Platte liegen. Also nicht wie bei raid ein striping gemacht wird...
 
Skysnake schrieb:
Tearing, oder nur ein backup?
Wenn du mir jetzt erklärst was Tearing sein soll, dann gebe ich dir die Antwort darauf ^^

Meinst du Snapshots?


Skysnake schrieb:
Vorraussetzung ist aber natürlich, das man mehrere Volumes angeben kann mit unterschiedlichen storage Backends. Geht das bei unraid?
Jede HDD ist ein Volume. Der SSD Cache ist ein RAID Volume. Beantwortet das deine Frage? Ich weiß ja nicht wo du wie Volumes hinterlegen willst.


Skysnake schrieb:
Wobei ich mich nicht so ganz mit unraid anfreunden kann, wenn da die Daten nur auf einer Platte liegen. Also nicht wie bei raid ein striping gemacht wird...
Wegen der Datensicherheit? Da ist Unraid sogar im Vorteil. Wenn du ein RAID5 hast, dann sind alle Daten weg, wenn 2 Platten sterben. Bei Unraid sind "nur" die Daten der 2 Platten weg, da die restlichen Platten ja normale Volumes sind. Bei einer defekten Platte gibt es dagegen keinen Unterschied. Bei beiden Konzepten kannst du dann die Daten dank der Parität wiederherstellen.

Du kannst sogar eine Unraid Platte aus dem Server nehmen und am PC anstöpseln und so die Daten auslesen, was ja bei einem RAID auch nicht geht.

Oder meinst du wegen der Performance? Da muss man die Daten so verteilen, dass "heiße" Daten auf den SSDs liegen. Das HDD Array alleine ist natürlich langsam.
 
mgutt schrieb:
Wenn du mir jetzt erklärst was Tearing sein soll, dann gebe ich dir die Antwort darauf ^^

Meinst du Snapshots?
Nein, ich meine das hier ;) Kommt klassisch aus dem Bereich der Tape libraries, wo man schon seit Ewigkeiten zwischen hot und cold data unterscheidet. Wäre hier halt genau die gleiche Geschichte. Daten die neu sind werden erstmal auf die SSDs geschrieben, wenn dann Zeitspanne X abgelaufen ist wird es auf die Platten migriert. Für den User sind es aber noch immer einfach Files in einem Verzeichnis. Er "sieht" also erstmal nicht wo die Daten liegen.
mgutt schrieb:
Jede HDD ist ein Volume. Der SSD Cache ist ein RAID Volume. Beantwortet das deine Frage? Ich weiß ja nicht wo du wie Volumes hinterlegen willst.
Nein, ich meine Docker Volumes. 1
mgutt schrieb:
Wegen der Datensicherheit? Da ist Unraid sogar im Vorteil. Wenn du ein RAID5 hast, dann sind alle Daten weg, wenn 2 Platten sterben. Bei Unraid sind "nur" die Daten der 2 Platten weg, da die restlichen Platten ja normale Volumes sind. Bei einer defekten Platte gibt es dagegen keinen Unterschied. Bei beiden Konzepten kannst du dann die Daten dank der Parität wiederherstellen.
Nein nicht wegen der Sicherheit, da hat ja wie du schon sagst Unraid an sich einen Vorteil, weil weniger Daten durch einen katastrophalen Verlust betroffen sind. Ich sehe es auch als Vorteil an, das man beliebige Disks mischen kann. Btw, geht mit unraid eigentlich auch doppelte Parität wie bei Raid6?
mgutt schrieb:
Du kannst sogar eine Unraid Platte aus dem Server nehmen und am PC anstöpseln und so die Daten auslesen, was ja bei einem RAID auch nicht geht.
Ja, wobei ich das nicht zwingend als vorteilhaft erachte. So gehen Daten leichter "verloren"
mgutt schrieb:
Oder meinst du wegen der Performance? Da muss man die Daten so verteilen, dass "heiße" Daten auf den SSDs liegen. Das HDD Array alleine ist natürlich langsam.
Ja ich meinte die Performance. Es gibt halt wie gesagt da kein stripeing über mehrere Platten. Klar, das hilft nur bei großen Files und nicht bei IOPs, aber wenn man backups z.B. als Tar speichert etc dann merkt man schon den Unterschied.

Bei parallelem Zugriff ist IOPs bei Unraid sicherlich auch gut, wenn man es auf die einzelnen Platten aufteilen kann, aber das erfordert schon wieder Planung, die ich jetzt eigentlich nicht möchte.
 
Zurück
Oben