Backup Server für Eigenbau NAS

bigbud

Newbie
Registriert
Jan. 2025
Beiträge
5
Hallo zusammen !
Ich plane mein Heimnetzwerk in ferner Zukunft(wahrscheinlich erst im Jahr 2026),um einen NAS-Server für Backups & Daten,Medien & Speicher bereitstellung(zb per DLNA,Samba,FTP,NFS und Jellyfin), zu erweitern was ich alles selbst bauen & einrichten will.

Beim Thema Backup bin ich auf die 3-2-1 Strategie gestoßen und habe mir deshalb gedanken gemacht.

Meine Idee ist jetzt, da ich bei dieser strategie, 2 Medien und ein Externes Medium benutzten soll, dass das erste Medium , mein NAS-Server, in meinem Heimnetzwerk sein wird,das zweite Medium, hätte ich gerne, an einem anderen Standort, zb bei meinen Eltern oder einen meiner Geschwistern, wo ist aber eigentlich egal,hauptsache an einen anderen standort, in einem anderen geschlossenes netzwerk,also Quasi ein zweiter NAS-Server also so gesehen irgendwie eine Private "Cloud", mit genauso viel Speicher wie mein Heim-NAS, an dem dann zusätzlich genauso viel, USB-Festplatten-Speicher hängt. Als Backup sollen dann einfach die Daten auf den HDDs im Heim-NAS," Fern"-NAS & den externen Festplatten, 1 zu 1 Gespiegelt werden, zb einmal die Woche.

Die NAS's werden nur bei bedarf über Home Assistant, zb durch eine automatisierung, hoch und runter gefahren.
Bestimmte dienste,aufgaben,programme und docker-container starten automatisch, andere werden auch nur bei bedarf über Home Assistant aus gestartet, angestoßen oder beendet.

Das "Fern"-NAS soll nur während der regelmäßigen oder manuell angestoßenen, Spiegelung oder Synchronisierungn Angeschaltet sein, damit es Festplatten schonend und ohne große Stromkosten betrieben werden kann.

Zu vermeiden gilt, das im " Fern"-Netzwerk, irgendwelche Ports geöffnet werden müssen.
Ein Starten muss aus der ferne möglich sein, das Problem werde ich wohl mit einem "ESP32" lösen, ich hab schon ein paar ideen.
Wenn sich meine Ideen zuverlässig und sicher umsetzten lassen, wird das esp32 zusätzlich zum anschalten des Servers, die Stromverbindung des NAS Unterbrechen und den Verbrauch Messen(um die angefallenen stromkosten berechnen & ausgleichen zu können) und die daten zu meinem Home Assistant schicken können.

Das ESP32 Projekt muss hier aber nicht weiter thematisiert werden.

Das "Fern"-NAS muss aus der ferne verwaltet also zb per SSH erreicht werden können, natürlich muss auch das Spiegeln funktionieren und das sicher & ohne router portfreigabe in beiden netzwerken.


Die hardware für das "Fern"-NAS stelle ich mir grob so vor:
CPU: min. 4-Kerne & 2Ghz
RAM: 8Gb
Konnektivität: 1Gbit LAN & Wifi
Speicher:
  • System: 128Gb SSD(NVMe wenn verfügbar,ansonsten SATA)
  • Datenträger Intern: 2x 12TB HDDs oder 3x 8TB HDDs(je nach Heim-NAS)
  • Datenträger Extern: 2x 12TB HDDs oder 3x 4TB HDDs(je nach Heim-NAS)


Die gründe für diese diskussion sind fragen zum "Fern"-NAS, die Themen sind in, Hardware & Software unterteilt.

Also zu meinen Fragen:
Thema: Hardware:

- Reicht eine 4-Kerne CPU ?

- Intel oder Amd ? Oder ist das egal ?

- ist es in meinem Anwendungsfall egal wie alt die Hardware ist (außer natürlich bei den Festplatten die sollten Neu sein)? Ich werde wohl mindestens DDR3 Ram und CPUs mit AES unterstützung auswählen.

- Reichen zb 2x 4Gb Ram ?

- Reichen da Normale HDDs oder Trotzdem NAS HDDs ?

- Die selbe kapazität wie die Festplatten im Heim-NAS, sollte für das Fern-NAS & die Externen Festplatten Reichen oder (also 1 zu 1 zu 1 Quasi, zb 3x 8TB je NAS + 3x 8TB Externe Festplatte) ?

- sehe ich es richtig das in diesem anwendungsfall(also NUR für das Backup-NAS(" Fern"-NAS) ein SSD-Cache fürs Lesen & Schreiben überflüssig ist ?


Thema: Software:
- welches betriebssystem würdet ihr empfehlen ? Zb Ubuntu-Server oder TrueNAS(TrueNAS oder Ubuntu wird wahrscheinlich auch auf dem Heim-NAS laufen, VM-Systeme wie Proxmox VE sind in meinem anwendungsfall wohl überflüssig da ich nur ein bis zwei Docker-Container auf dem Heim-NAS und auf dem "Fern"-NAS sind eigentlich keine geplant aber im höchstfall wäre das ein Docker-Container)

- wie mache ich das " Fern"-NAS von Zuhause aus erreichbar ? Am besten sogar so das gegenüber allen anderen geräten im "Fernen"-Netzwerk alle Ports Geschlossen sind. Mein Home Assistant läuft über eine Subdomain & Cloudflare tunnel, ich könnte noch einen tunnel einrichten ? Ist SSH & zb Syncthing darüber möglich ? Es gibt aber auch die möglichkeit das "Fern"-NAS per VPN in mein Netzwerk zu tunneln (würde ich gerne vermeiden weil ich da sicherheits bedenken habe)? Oder was mir grad noch einfällt es gibt noch dieses NordVPN Meshnet ? Da ich eh vorher noch einen X86 Intel Router besorgen wollte um damit mein gesamtes Netzwerk über NordVPN ins Internet zu bringen wäre das ja passend.

- wie löse ich die Synchronisierung/Spiegelung in einer Angemessenen geschwindigkeit ? Ich will bei mir und an dem anderen standort auf keinen fall einen Port öffnen. Ich kenne nur Syncthing aber ohne Portöffnung zb über einen cloudflare Tunnel(also einer https verbindung), geht das ?

- Ist es Sinnvoll wenn die hardware es zulässt, alles zu verschlüsseln ? Egal wo ich es am ende hinstelle, die gefahr besteht, das jemand fremdes, sich zugriff verschafft oder sogar das system klaut(das system wird wahrscheinlich in einem keller stehen, in einem mietshaus, einbruchsgefahr besteht also eher als in einer wohnung).Ich glaub per SSH ist das entschlüsseln bei Systemstart bei einer Vollverschlüsselung nicht möglich oder ? Dann könnte das ESP32 was das wecken übernehmen soll eine tastatur emulieren & das passwort bei systemstart eingeben.


Geplante Hardware des Heim-NAS für den den es Interessiert(was haltet ihr davon?):

Mainboard:
ASRock X570 S PG Riptide
CPU:
Ryzen 7 5700G
RAM:
G.Skill Aegis 32Gb kit(2x16Gb) DDR4-2666
1. M.2 NVMe(Systemspeicher):
Patriot P300 128Gb PCIe 3.0
2. M.2 NVMe(Lese oder Schreib Cache):
Western Digital Red SN700 500Gb PCIe 3.0 x4
2. M.2 NVMe(Lese oder Schreib Cache):
Western Digital Red SN700 500Gb PCIe 3.0 x4
Sata(Speicher für die Daten):
2x Seagate IronWolf NAS HDD 12TB(oder so)
Oder
3x Seagate IronWolf NAS HDD 8TB(oder so)



Vielen dank im vorraus und freundliche Grüße,

Jan
 
Zuletzt bearbeitet:
Du machst dir viel zuviele Gedanken.

Eine Grundidee zum Fern-Nas:
Also ich würde hier auf die kleinste Kiste setzen, die ich finde, daran 2 externe Gehäuse mit 18-20TB Platten und die per Smarter Steckdose / ESP32 / ... wechselseitig einschalten lassen. Dann Verbindung über Tailscale / Wireguard / ... herstellen und per Snapshot/delta/... die Änderungen bekommen.

Was du im Backup über Internet nicht brauchst:
Cache
Datenverfügbarkeit ( man hat ja noch das Hauptsys und monitort natürlich das Backup)
Power für die Verarbeitung

--> Keine Cache SSD, kein RAID, keine X Platten und damit auch keine NAS Platten, keine X Kerne




ABER

Das was du mit dem System zuhause vor hast, ist allerdings viel zu schwammig, so ein Aufwand für 2 Container und oder ein wenig Filesharing + Streaming? Bitte viel genauer beschreiben, was du vor hast und auch was für (Netzwerk-)Hardware du schon hast. Weil so wirkt z.b. dein Heim-NAS um ein paar Nummern zu groß.
 
  • Gefällt mir
Reaktionen: dauerbrutzler
bigbud schrieb:
1. M.2 NVMe(Systemspeicher):
Patriot P300 128Gb PCIe 3.0
2. M.2 NVMe(Lese oder Schreib Cache):
Western Digital Red SN700 500Gb PCIe 3.0 x4
2. M.2 NVMe
Western Digital Red SN700 500Gb PCIe 3.0 x4
warum diese winzigen SSDs und warum so viele? macht doch nur Steckplätze voll.
Mit einer einzelnen SATA SSD bekommst du ueberigens 5 GBit/s Ethernet dicht.
Viel cachen brauchst du da nicht.
Zum Preis der SN700 Gab es vor Weihnachten schon fast 2TB NVMe SSDs.

Steck eine 2TB Kioxia G3 Plus und gut ist.


bigbud schrieb:
.Ich glaub per SSH ist das entschlüsseln bei Systemstart bei einer Vollverschlüsselung nicht möglich oder
doch.
https://www.cyberciti.biz/security/how-to-unlock-luks-using-dropbear-ssh-keys-remotely-in-linux/


bigbud schrieb:
Da ich eh vorher noch einen X86 Intel Router besorgen wollte um damit mein gesamtes Netzwerk über NordVPN ins Internet zu bringen wäre das ja passend.
verbinde sie einfach via wireguard.
Du willst keine Ports auf machen, aber deinen kompletten Traffic bei fremden für ein paar Euro im Monat durchs Netzwerk schicken ist eine Alternative?
Würde ich nochmal überdenken.

Warum ein x86 Router? Es gibt hervorragende Router mit top Asics von Mikrotik, AVM, Ubiquiti & Co

bigbud schrieb:
wie löse ich die Synchronisierung/Spiegelung in einer Angemessenen geschwindigkeit ? Ich will bei mir und an dem anderen standort auf keinen fall einen Port öffnen. Ich kenne nur Syncthing aber ohne Portöffnung zb über einen cloudflare Tunnel(also einer https verbindung), geht das ?
rsync durch einen wireguard tunnel ist ein einfacher weg

Und auch sonst: Lieber mehr Backups als RAID
 
  • Gefällt mir
Reaktionen: hans_meiser, dauerbrutzler, VDC und eine weitere Person
bigbud schrieb:
Zu vermeiden gilt, das im " Fern"-Netzwerk, irgendwelche Ports geöffnet werden müssen.
Ohne Ports gibt es keine Datenübertragung. TCP (und UDP) Pakete brauchen Ports:
https://en.wikipedia.org/wiki/Transmission_Control_Protocol#TCP_segment_structure

Wenn du alles Tunneln willst, dann braucht die VPN-Software einen Port über den sie extern erreichbar ist. Analog braucht SSH ebenso einen extern erreichbaren Port.
Selbst wenn es über ein Relay geht und mit so Späßen VPN über HTTPs gibt offene Ports, die dein Router an etwaige Computer vermittelt.

bigbud schrieb:
- ist es in meinem Anwendungsfall egal wie alt die Hardware ist (außer natürlich bei den Festplatten die sollten Neu sein)? Ich werde wohl mindestens DDR3 Ram und CPUs mit AES unterstützung auswählen.
Hauptsache AVX2 ist vorhanden. Softwareraid, Verschlüsselung, Kompression, .. profitiert davon großartig. AES-Ni reicht allein nicht, AES-Ni sorgt ja nur für den AES-Teil und nicht den Block Cipher Mode.
Für Produktive Systeme mit <10 Anwendern reicht ansonsten jede CPU mit 4Kernen. So ein Intel N100 sollte grob eine 5GBe-Leitung auslasten können (als Dateiserver).

bigbud schrieb:
- Reichen zb 2x 4Gb Ram ?
Als reine Gegenstelle für Backups ja, als irgendwas Produktives eher nein.

bigbud schrieb:
- sehe ich es richtig das in diesem anwendungsfall(also NUR für das Backup-NAS(" Fern"-NAS) ein SSD-Cache fürs Lesen & Schreiben überflüssig ist ?
Schreibcaches sind sowieso problematisch. Der kleinste Schluckauf und so ein Schreibcache kann einem (alle) Daten verdampfen.


bigbud schrieb:
Ist es Sinnvoll wenn die hardware es zulässt, alles zu verschlüsseln ? Egal wo ich es am ende hinstelle, die gefahr besteht, das jemand fremdes, sich zugriff verschafft oder sogar das system klaut
Verschlüsseln ist nicht irgendwie magisch. Wenn das Zielsystem verschlüsseln soll, dann braucht es die entsprechenden Schlüssel. Solang du dir nicht beantworten kannst, wie die Schlüssel im Falle eines Diebstahls den Dieben nicht ebenso in die Hände fallen, ist die Überlegung ob das Zielsystem verschlüsselt nichtig.
Verschlüsselung auf den Clients ist daher in den meisten Fällen sinnvoller. Da kannst du die Kontrolle über etwaige Schlüssel besser sicherstellen.

bigbud schrieb:
Geplante Hardware des Heim-NAS für den den es Interessiert(was haltet ihr davon?):

Mainboard:
ASRock X570 S PG Riptide
X570 ist der Gamer/Übertakter/Featurgreep-Chipsatz, da treibt den Energiebdarf sinnlos in die Höhe. Die 5700G ist ansonsten eine reichlich mächtige CPU, die mit Rechenaufgaben auszulasten ist unwahrscheinlich.
 
  • Gefällt mir
Reaktionen: andy_m4, dauerbrutzler, VDC und eine weitere Person
Da ist eigentlich schon fast Alles gesagt - vielleicht noch eine Anekdote zu "die CPU braucht Leistung" ... ich hatte vor kurzem selbst einen kleinen "Raidvorfall" und selbst der uralte N3150 hat gereicht, um beim MD5 hashen über 500mb/s aus den Platten zu fahren. Der 5700G nebst x570 ist weit übers Ziel hinaus, auch bei der Leistungsaufnahme.
Mit einem N100 - so ca. 4 fache Leistung vom N3150 (gibt glaub ich zwei Boards von ASrock und ASUS) muss man dann den m2 PCI mit einem SATA Controller beglücken, weil nur 2x SATA aufm Board sind.
Dafür kann der dann aber HEVC in 10Bit für Jellyfin. Und reicht dicke für alles was ein NAS können muss.
Als Gehäuse evtl. noch ein Node 304.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: hans_meiser und VDC
VDC schrieb:
VDC schrieb:
Du machst dir viel zuviele Gedanken.

Eine Grundidee zum Fern-Nas:
Also ich würde hier auf die kleinste Kiste setzen, die ich finde, daran 2 externe Gehäuse mit 18-20TB Platten und die per Smarter Steckdose / ESP32 / ... wechselseitig einschalten lassen. Dann Verbindung über Tailscale / Wireguard / ... herstellen und per Snapshot/delta/... die Änderungen bekommen.

Was du im Backup über Internet nicht brauchst:
Cache
Datenverfügbarkeit ( man hat ja noch das Hauptsys und monitort natürlich das Backup)
Power für die Verarbeitung

--> Keine Cache SSD, kein RAID, keine X Platten und damit auch keine NAS Platten, keine X Kerne
Also meinst Du das ich ein System mit wenig Leistung sagen wir ein oder zwei Kernen, 2GB RAM,mit ner Festplatte nur für das System wählen soll, dort dann 2 Externe Festplatten Gehäuse mit 18-20TB dran. Richtig ?

Soll ich dann die Festplatten Spiegeln oder brauch ich das nicht ?

An RAID hab ich sowieso nicht gedacht, nur daran dass das System dann alle neuen Dateien auf dem Internen Speicher, nachdem mit dem Heim-NAS Speicher Synchronisiert wurde, automatisch auf die Externe Festplatten Schreibt bevor er sich wieder automatisch abschaltet.

VDC schrieb:
VDC schrieb:
ABER

Das was du mit dem System zuhause vor hast, ist allerdings viel zu schwammig, so ein Aufwand für 2 Container und oder ein wenig Filesharing + Streaming? Bitte viel genauer beschreiben, was du vor hast und auch was für (Netzwerk-)Hardware du schon hast. Weil so wirkt z.b. dein Heim-NAS um ein paar Nummern zu groß.
Vorab Ich Skaliere Gerne Groß um später noch einige Reserven zu haben.

Also was ich mit dem Heim-NAS vorhabe:
1. Jellyfin Docker-Container(Eine Art eigenes Netflix falls unbekannt)
  • Wird wahrscheinlich über Cloudflare Getunntel um es von außen verfügbar zu machen
  • alle DVDs/Bluerays die mir gefallen Rippen und Auf dem NAS Speichern.
  • mit Windows und Audialis Movie Alles(Filme & Serien) was mir gefällt und ich wieder schauen würde auf Netflix, Amazon Prime & co "aufnehmen"(das Programm kann das anscheinend ziemlich gut) und die Dateien auch auf dem NAS Speichern
  • Das Codieren für die Streams funktioniert bei Jellyfin über die CPU oder über was die bessere Wahl ist die GPU(egal ob dedizierte oder iGPU).
Wir sind in dieser Wohnung zu 2. aber ich würde gerne zB für meine zukünftigen Kinder oder vielleicht jemand anderes in meiner Familie mit insgesamt 4 oder mehr Streams Rechnen.

2. Regelmäßiges Backup empfangen per Samba,NFS und/oder so(auch von Zukünftiger Hardware siehe auch weiter unten):
2x Laptop
1x Desktop-PC
1x Raspberry Pi 5 mit Nextcloud
1x Raspberry Pi 5 mit Home Assistent
1x Raspberry Pi 3 Logitech Media Server
1x Raspberry Pi 3 Zukünftiges Projekt

3. Regelmäßiges selbständiges Synchronisierung von den Daten auf der Festplatte an der Fritzbox (FTP/Samba)


Alles was besteht und geplant ist in meinem Netzwerk außer Smarte Steckdosen,Lautsprecher usw:
( alle SSD Speicher werden nur max. Zur Hälfte genutzt weil ich irgendwann gelesen habe das SSD Lese und Schreibgeschwindigkeit ab 50% der Kapazität Rapide Runter geht, Backup Größe also nur max die Hälfte der angegebenen GB/TB)
1x Fritzbox 6660 Cable
  • Medien Server für Multiroom-Lautsprecher
  • FTP Server für Überwachungskameras
  • 1TB USB Festplatte (für Musik & Videoaufnahmen)
2x Laptops
  • Backup auf NAS
  • Potenzieller Jellyfin Client
  • einer mit 1TB SSD
  • einer mit 1TB SSD + 2TB SSD
1x PC
  • Backup auf NAS
  • Potenzieller Jellyfin Client
  • 1x 4TB SSD für Windows+Programme+Spiele
  • 1x 4TB SSD für Daten
  • 1x 4TB SSD für Linux+Programme+Spiele
2x Smart TV
- Potenzielle Jellyfin Clients
4x Raspberry Pi 3 & 5
5er mit Home Assistent
  • 128Gb NVMe
  • Regelmäßiges Klonen auf das NAS
5er mit Nextcloud
  • 32Gb SD-Karte System
  • Regelmäßiges Klonen auf das NAS
  • 2TB NVMe für Daten
3er als Logitech Media Server
  • 32Gb SD-Karte
  • Regelmäßiges Klonen auf NAS
3er für Zukünftiges Projekt
  • 32Gb SD-Karte System
  • Regelmäßiges Klonen auf NAS
4x Smartphone mit je 128Gb
  • Potentielle Jellyfin Clients
  • Medien Synchronisiert mit Nextcloud
  • Regelmäßiges Komplett Backup auf NAS
1x Tablet mit 32Gb Speicher
- Regelmäßiges Komplett Backup auf NAS
Ergänzung ()

Piktogramm schrieb:
Schreibcaches sind sowieso problematisch. Der kleinste Schluckauf und so ein Schreibcache kann einem (alle) Daten verdampfen.
Okay das wusste ich nicht, aber ein lese cache macht für mein Heim-NAS Sinn oder nicht ?
Piktogramm schrieb:
Verschlüsseln ist nicht irgendwie magisch. Wenn das Zielsystem verschlüsseln soll, dann braucht es die entsprechenden Schlüssel. Solang du dir nicht beantworten kannst, wie die Schlüssel im Falle eines Diebstahls den Dieben nicht ebenso in die Hände fallen, ist die Überlegung ob das Zielsystem verschlüsselt nichtig.
Meine Überlegung ist ja dafür den ESP32 per MQTT über https und passwort geschützt oder so zu sagen "Jetzt Starten" der ESP32 Schaltet die Stromzufuhr an und Sendet nach keine Ahnung 10Sek halt sobald das Relay angeschaltet ist und ein kleiner Moment vergangen ist entweder ein "Wake On LAN" Packet an den Server oder es schaltet ein weiteres Relay kurz an welches dann den Power On pin auf dem Mainboard veranlässt das System zu Starten.
Nach einer angemessenen Zeit(würde vorher messen wie lange das System brauch um in den Screen zu kommen wo nach dem entschlüsselungspasswort gefragt wird und paar min drauf rechnen für den Fall das da mal was nicht richtig läuft) soll dann über usb-otg das esp32 über eine emulierte Tastatur das Passwort eingeben(welches ich bei der Programmierung schon dem ESP32 mitteilen).
Piktogramm schrieb:
Verschlüsselung auf den Clients ist daher in den meisten Fällen sinnvoller. Da kannst du die Kontrolle über etwaige Schlüssel besser sicherstellen.
Mein gedankengang dabei ist Dann müsste ich aber jede Datei einzeln verschlüsseln weil zB bei einer Partitionen Verschlüsselung ja jedes mal die ganze partion synchronisiert wird und nicht nur die Dateien die dazu gekommen,sich geändert oder entfernt wurden. Oder ist mein Gedanken gang da falsch ? In Meiner Vorstellung wird eine Partion ja dann wie eine Datei behandelt die sich geändert hat also wird quasi das alte backup der Partion gelöscht und die neue Version (zB wegen einer geänderten Datei von tausenden) komplett neu gesichert.
Piktogramm schrieb:
X570 ist der Gamer/Übertakter/Featurgreep-Chipsatz, da treibt den Energiebdarf sinnlos in die Höhe. Die 5700G ist ansonsten eine reichlich mächtige CPU, die mit Rechenaufgaben auszulasten ist unwahrscheinlich.
Das Mainboard war das einzige welches 3 M.2 NVMe Slots hatte mein Gedanke war:
1x 128Gb für das System,Programme, Dienste
1x 500Gb als Lese Cache
1x 500Gb als Schreib Cache
Und beim Thema übertakten dachte ich auch daran dass das ebenso bedeutet das ich die CPU auch untertakten kann falls ich mal auf die Idee komme das NAS dauerhaft eingeschaltet zu lassen für irgendwelche Projekte, was ja dann wieder Strom sparender wäre.

Die CPU hab ich gewählt weil sie 8-Kerne hat und eine integrierte GraKa + genügend PCIe Lanes.
Ergänzung ()

dauerbrutzler schrieb:
Da ist eigentlich schon fast Alles gesagt - vielleicht noch eine Anekdote zu "die CPU braucht Leistung" ... ich hatte vor kurzem selbst einen kleinen "Raidvorfall" und selbst der uralte N3150 hat gereicht, um beim MD5 hashen über 500mb/s aus den Platten zu fahren. Der 5700G nebst x570 ist weit übers Ziel hinaus, auch bei der Leistungsaufnahme.
Mit einem N100 - so ca. 4 fache Leistung vom N3150 (gibt glaub ich zwei Boards von ASrock und ASUS) muss man dann den m2 PCI mit einem SATA Controller beglücken, weil nur 2x SATA aufm Board sind.
Dafür kann der dann aber HEVC in 10Bit für Jellyfin. Und reicht dicke für alles was ein NAS können muss.
Als Gehäuse evtl. noch ein Node 304.
Ich kenne die N100 boards von ASrock und/oder ASUS.
Hab mir damit auch mal was zusammen gesucht bei Geizhals, ich wollte aber lese & schreib cache, & das Betriebssystem auf eine SSD (da es nur bei bedarf gestartet wird dann aber auch schnellst möglich für den jeweiligen zweck startklar sein soll, zB für Jellyfin da will keiner noch 5min warten bis man den Film starten kann) soll das starten schnell gehen was mit den Boards nicht einfach so möglich ist. Und ich glaube der N100 hat insgesamt sehr wenig PCIe Lanes glaube nur 9.

madmax2010 schrieb:
warum diese winzigen SSDs und warum so viele? macht doch nur Steckplätze voll.
Mit einer einzelnen SATA SSD bekommst du ueberigens 5 GBit/s Ethernet dicht.
Viel cachen brauchst du da nicht.
Zum Preis der SN700 Gab es vor Weihnachten schon fast 2TB NVMe SSDs.

Steck eine 2TB Kioxia G3 Plus und gut ist.
Die "Normale" 128Gb NVMe ist nur für das Betriebssystem+Programme+Dienste+Container gedacht.
Die beiden NAS 500Gb SSDs sollen je eins für Schreib und eins für Lese Cache gedacht.
Die Teuren NAS SSDs weil ich einfach vermute das diese wohl besser als Cache geeignet sind. Und ich glaube die haben mehr TBW.

Verstehe ich richtig das ich mit eine SATA SSD die vllt 600mb/s Lese Geschwindigkeit hat eine 5Gbit/s Leitung dicht mache ?
madmax2010 schrieb:
OK ich hab früher mal alten meinen Laptop mit Linux Mint, Verschlüsselt, da ist das System nicht mal Richtig gestartet,bevor ich das Passwort eingegeben habe, wenn das so verschlüsselt ist, kann ich das dann per SSH entschlüsseln ?
madmax2010 schrieb:
verbinde sie einfach via wireguard.
Du willst keine Ports auf machen, aber deinen kompletten Traffic bei fremden für ein paar Euro im Monat durchs Netzwerk schicken ist eine Alternative?
Würde ich nochmal überdenken.
Meinst du weil ich das alles über NordVPN Tunneln will ? Falls ja Ich hab meine Gründe.
Zb unterbindet Vodafone ständig, ich glaub sogar immer, den eingestellten verschlüsselten DNS.

Und/Oder meinst du weil ich die Option NordVPN meshnet in den Raum geworfen habe ?
madmax2010 schrieb:
Warum ein x86 Router? Es gibt hervorragende Router mit top Asics von Mikrotik, AVM, Ubiquiti & Co
x86 wegen dem VPN über den Router, erst hab ich an den neuen "OpenWRT One" gedacht, der Schafft aber niemals den maximal möglichen Durchsatz zumindest meines Wissens nach. Ich hab hier 250Mbit/s wenn ich die volle Geschwindigkeit über einen VPN Jagen will sollte ich laut recherche einen x86 Router benutzten
madmax2010 schrieb:
rsync durch einen wireguard tunnel ist ein einfacher weg
Ja ich könnte ja wireguare über fritzbox direkt nutzten.
madmax2010 schrieb:
Und auch sonst: Lieber mehr Backups als RAID
An RAID hab ich gar nicht gedacht, ich brauche zuhause auf einem System, die selben Daten nicht mehrfach. Ich brauch genug Speicher Zuhauee und mein Wunsch ist halt dann ein netzwerk fremdes gerät, irgendwo in meinem näheren Privaten umfeld,welches eine Kopie intern speichert und danach noch mal auf einem externen medium.Von mir aus halt auch 1 zu 1 auf verschiedenen externen Datenträgern.

Entspricht so zwar nicht ganz der 3-2-1 Backup Strategie aber Wichtige Private Daten wie fotos/Bilder/Dokumente und was weiss ich was noch über Nextcloud gespeichert wird sind bei mir ja dann insgesamt 5x Gespeichert zumindest dann halt spätestens dann nach einer Woche eben so oft wie Heim & Fern Nas Synchronisiert werden:
1x Auf Endgerät(zB Smartphone)
1x auf Nextcloud
1x auf Heim-NAS
1x auf Fern-NAS
1x auf Externer Festplatte am Heim-NAS
 
Zuletzt bearbeitet:
Ja... Dein Lese-&NichtSchreibcache ist am besten im RAM aufgehoben. Ausser du willst Enterprisehardware mit BBU's. Dann gibt's hübsche Controllerköpfe und 24x Spindelshelfs von Fujitsu, IBM und EMC. Mal ernsthaft?!
Zum booten brauchen die tatsächlich 5 Minuten.
Jedes NAS ist in unter einer Minute nach dem Start online.

Und dein Heimnetz besteht aus 10G SFP+ Switches? Channelbound inklusive? Und Up-/Downlink WAN ist auch bei min 1G Sync?
Eine 7200er Platte macht 180-250mb/s auf der Aussenbahn der Spindel. Im Raid5 bist dann im Bestcase mit 3 Platten bei ~720mb/s. Auf dem Weg nach innen auf der Spindel wird das schnell viel weniger.
WD Red laufen übrigens mit 5400.
Und das für bisschen Raspi, Notebooks und Smartphones. Und Kinder die noch ~10 Jahre brauchen.

Weiß ich jetzt tatsächlich nicht, was ich davon halten soll.
 
  • Gefällt mir
Reaktionen: Piktogramm und Capet
Für mich klingt das alles auch viel zu übertrieben und sehr nach Aktionismus.
  • Es reicht doch völlig, wenn man ungefähr schätzt, wie viel Speicher man braucht (ich tippe auf 10-20 TB) und sich dann ein etwas leistungsfähigeres NAS ("Master") und ein schwaches NAS (Backup) hinstellt.
  • Das Master-NAS stellt zum einen ein Backup-Ziel für alle Clients dar und zum anderen betreibst du darauf die ganzen Dienste + Jellyfin, die momentan auf den Raspis laufen. Ja, das NAS macht das so nebenbei.
  • Das Backup-NAS lässt du durch eine geplante Aufgabe via WoL vom Master-NAS einschalten. Wenn es hochgefahren ist, zieht es ein Backup des Master-NAS und fährt sich danach selber wieder runter.
  • RAID brauchst du nicht wirklich. Beim Master-NAS wäre wegen den ganzen Diensten RAID 1 oder 5 vielleicht eine Überlegung wert. So läuft das dann weiter, falls eine Platte die Grätsche macht.
  • Cache brauchst du nicht.
Das alles kannst du selber bauen oder von bspw. QNAP oder Synology kaufen.
Beim Master-NAS sollte etwas mehr Bums da sein. Ein Intel N100 kann für 8 Jellyfin-Clients zu wenig sein. Ich glaube aber, dass die nie alle gleichzeitig schauen werden, also kommt man damit vielleicht durch. Ansonsten einfach ein, zwei Nummern größer kaufen, wie z. B. einen Intel i3-N305.
Das Backup-NAS würde ich so klein und billig machen, wie es nur geht. Das macht ja nicht mehr als Backups ziehen. Da würde auch einer deiner Raspis reichen, wenn man genug Festplatten daran anschließen kann. Dafür gibt es aber sicher passende Aufsteckplatinen.
 
dauerbrutzler schrieb:
Ja... Dein Lese-&NichtSchreibcache ist am besten im RAM aufgehoben. Ausser du willst Enterprisehardware mit BBU's. Dann gibt's hübsche Controllerköpfe und 24x Spindelshelfs von Fujitsu, IBM und EMC. Mal ernsthaft?!
Zum booten brauchen die tatsächlich 5 Minuten.
Jedes NAS ist in unter einer Minute nach dem Start online.

Und dein Heimnetz besteht aus 10G SFP+ Switches? Channelbound inklusive? Und Up-/Downlink WAN ist auch bei min 1G Sync?
Eine 7200er Platte macht 180-250mb/s auf der Aussenbahn der Spindel. Im Raid5 bist dann im Bestcase mit 3 Platten bei ~720mb/s. Auf dem Weg nach innen auf der Spindel wird das schnell viel weniger.
WD Red laufen übrigens mit 5400.
Und das für bisschen Raspi, Notebooks und Smartphones. Und Kinder die noch ~10 Jahre brauchen.

Weiß ich jetzt tatsächlich nicht, was ich davon halten soll.
Jaa ist ja gut, mir war nicht bewusst das es so sehr zu viel ist xD deswegen hab ich ja gefragt, wie ich oben schon erwähnt hatte, Skaliere ich gerne mal groß xD
Ergänzung ()

Krik schrieb:
Für mich klingt das alles auch viel zu übertrieben und sehr nach Aktionismus.
  • Es reicht doch völlig, wenn man ungefähr schätzt, wie viel Speicher man braucht (ich tippe auf 10-20 TB) und sich dann ein etwas leistungsfähigeres NAS ("Master") und ein schwaches NAS (Backup) hinstellt.
Ja ich werde wohl bei 24TB bleiben obwohl du recht haben könntest.
Krik schrieb:
  • Das Master-NAS stellt zum einen ein Backup-Ziel für alle Clients dar und zum anderen betreibst du darauf die ganzen Dienste + Jellyfin, die momentan auf den Raspis laufen. Ja, das NAS macht das so nebenbei.
Okay, du hast vllt Recht, aber mein Home Assistant wird weiterhin, über ein Raspberry Pi 5 laufen. Den hab ich lieber in der Wohnung, wegen Zigbee & co. Das Master-NAS wollte ich in den Keller Verfrachten wo es keinen Platz weg nimmt.

Zum Thema Jellyfin hab ich auch noch mal etwas nachgelesen, Jellyfin fordert min. 100Gb SSD für einen Transcoding Cache.
Krik schrieb:
  • RAID brauchst du nicht wirklich. Beim Master-NAS wäre wegen den ganzen Diensten RAID 1 oder 5 vielleicht eine Überlegung wert. So läuft das dann weiter, falls eine Platte die Grätsche macht.
RAID 1 bedeutet das aus zwei Festplatten eine gemacht wird, also zB 2x 24TB was aber trotzdem nur einen 24TB "pool" bildet Richtig ?
Und so wie ich den Kollegen oben verstanden habe bedeutet das auch das doppelte an Schreib und Lese Geschwindigkeit oder ?
Krik schrieb:
  • Cache brauchst du nicht.
Das beruhigt mich xD aber wie ist das mit dem transcoding cache für Jellyfin gemeint ?
Und wäre da nicht eine NAS SSD wegen der deutlich höheren TBW sinnvoll ?
Krik schrieb:
Das alles kannst du selber bauen oder von bspw. QNAP oder Synology kaufen.
Ich will definitiv selber bauen, fertige Lösungen sind um einiges teurer das steck ich dann lieber in den Speicher.
Krik schrieb:
Beim Master-NAS sollte etwas mehr Bums da sein. Ein Intel N100 kann für 8 Jellyfin-Clients zu wenig sein. Ich glaube aber, dass die nie alle gleichzeitig schauen werden, also kommt man damit vielleicht durch. Ansonsten einfach ein, zwei Nummern größer kaufen, wie z. B. einen Intel i3-N305.
Genau den i3-N305 hab ich mir gestern raus gesucht. Gefällt mir gut aber die verfügbaren boards sind nicht die besten.
Weisst du, welcher der nächst größere nach dem i3-N305 wäre ?
Ich brauch keine 8 Jellyfin-Clients ich will aber mit maximal 4 Clients gleichzeitig Rechnen.
Da Video in der GraKa berechnet wird, audio aber trotzdem über CPU was wohl sehr arbeitsintensiv sein soll, Frage ich mich ob der N305 dann für 4 Clients gleichzeitig ausreichend ist. Ich glaube die Graka ist die selbe nur mit etwas höheren Takt.
Krik schrieb:
Das Backup-NAS würde ich so klein und billig machen, wie es nur geht. Das macht ja nicht mehr als Backups ziehen. Da würde auch einer deiner Raspis reichen, wenn man genug Festplatten daran anschließen kann. Dafür gibt es aber sicher passende Aufsteckplatinen.
Ja das mit einem Raspberry Pi zu machen hatte ich auch überlegt möchte ich aber lieber nicht.
Ich glaub ich werde ein N100 board nehmen das in ein Mini-ITX Gehäuse packen, eine NVMe SSD, als Systemspeicher, eine 24TB HDD als Backup Speicher und dann die Selbe HDD nochmal in ein externes Festplatten Gehäuse für ein zusätzliches Externes Backup.
 
Zuletzt bearbeitet:
bigbud schrieb:
aber mein Home Assistant wird weiterhin, über ein Raspberry Pi 5 laufen. Den hab ich lieber in der Wohnung, wegen Zigbee & co. Das Master-NAS wollte ich in den Keller Verfrachten wo es keinen Platz weg nimmt.
Auch da braucht man keinen Raspi, eine Zigbee Bridge reicht. Darauf kann das HA, das auf den NAS läuft, auch zugreifen. Oder es reicht auch möglicherweise ein Zigbee USB-Dongle aus, den man ans NAS steckt. Zigbee bildet ja ein Mesh-Netzwerk. Wenn das durch irgendein Gerät (Licht, Temperatur, Thermostat, etc.) bis in den Keller reicht, dann erreicht das auch das NAS.

bigbud schrieb:
Jellyfin fordert min. 100Gb SSD für einen Transcoding Cache.
So viel musst du nicht vorhalten. Davon abgesehen, ist das kein Problem, da das NAS ohnehin Terabytes bereitstellen wird.

bigbud schrieb:
RAID 1 bedeutet das aus zwei Festplatten eine gemacht wird, also zB 2x 24TB was aber trotzdem nur einen 24TB "pool" bildet Richtig ?
Und so wie ich den Kollegen oben verstanden habe bedeutet das auch das doppelte an Schreib und Lese Geschwindigkeit oder ?
Ja und ja. Und bei RAID 5 hast du dann mindestens 3 Festplatten, wovon eine ihren Speicherplatz nicht direkt für den "Pool" bereitstellen kann, z. B. 3x 10 TB => 30 TB brutto aber nur 20 TB netto nutzbar. Bei 4x 10 TB sind das 40 TB brutto und 30 TB netto. Hier darf immer maximal eine Platte gleichzeitig ausfallen. Die Performance steigt mit der Anzahl der Festplatten, aber nicht so schnell wie bei RAID 1.

bigbud schrieb:
Das beruhigt mich xD aber wie ist das mit dem transcoding cache für Jellyfin gemeint ?
Das ist einfach nur etwas Speicher, wo Jellyfin ein paar Daten temporär ablegt. Das ist wie der Temp-Ordner unter Windows oder die Auslagerungsdatei oder Swap unter Linux.

bigbud schrieb:
Und wäre da nicht eine NAS SSD wegen der deutlich höheren TBW sinnvoll ?
Du überschätzt, wie viel Schreiblast auf die SSDs wirklich zukommt. Angenommen du hast die sehr beliebte Lexar NM790. Die hat eine TBW von 3 PB. Wenn da jetzt jeden Abend durch Jellyfin 50 GB temporäre Daten auf die Platte geschrieben werden, dann erreicht man die TBW in schlappen 34 Jahren. Bis dahin hast du die Hardware 3x ersetzt.

Aber auch 34 Jahre sind nicht die ganze Wahrheit, da nur dann transcodiert wird, wenn der Client mit dem Format nichts anfangen kann. Ansonsten werden die Daten einfach unverändert durchgereicht, Jellyfin wird quasi zu einem einfachen Dateiserver. Die TVs z. B. können die allermeisten Video- und Audioformate, die es gibt. Da wird quasi nie transcodiert werden müssen. Ähnlich sieht es bei den meisten anderen Geräten aus.

Ich bin mir recht sicher, dass das NAS im Schnitt pro Woche weniger als 100 GB schreiben muss. Die SSD hält dann länger als du lebst.

bigbud schrieb:
Ich will definitiv selber bauen, fertige Lösungen sind um einiges teurer das steck ich dann lieber in den Speicher.
Aber nur, wenn man die Arbeitszeit, die man in das Gerät steckt, ausklammert. Bei fertigen NAS muss man nichts mehr großartig machen. Einfach drei Klicks oder so und es läuft. Beim Selbstbau-NAS wirst du mindestens Tage, eher Wochen und Monate verbringen, ehe alles so läuft, wie du es wünscht. Und selber warten muss man die Software auch noch. Bei einem Fertiggerät übernimmt das alles der Hersteller, es ist quasi Fire'n'Forget.

bigbud schrieb:
Weisst du, welcher der nächst größere nach dem i3-N305 wäre ?
Da gibt es keine im engeren Sinn. Die N-Prozessoren sind low power, low energy consumption CPUs. Der N305 ist der Größte in dieser Klasse. Darüber kämen dann andere Klassen, wie klassische Mobile-CPUs oder die Einsteiger-Desktop-CPUs , also "richtige" Core i3 oder wie deren neue Bezeichnung nun lautet.

bigbud schrieb:
Ich brauch keine 8 Jellyfin-Clients ich will aber mit maximal 4 Clients gleichzeitig Rechnen.
Du hast 2 Laptops, 2 TV und 4 Handys als Jellyfin-Clients aufgezählt. Zwei 4K Streams kann der N100, bei vieren bin ich überfragt. Ohne Transkodieren sollte es eigentlich laufen, aber mit Transkodieren... kein Plan.

bigbud schrieb:
audio aber trotzdem über CPU was wohl sehr arbeitsintensiv sein soll
Das machen die CPUs mit dem kleinen Finger. Da brauchst du dir keine Gedanken machen. Das Transcoding wird übrigens nicht von der GPU an sich gemacht sondern von der Media De-/Encoder-Einheit darauf. Die ist auf diese Aufgaben spezialisiert und kann das sehr gut, sehr schnell und sehr effizient.

bigbud schrieb:
Ja das mit einem Raspberry Pi zu machen hatte ich auch überlegt möchte ich aber lieber nicht.
Warum? Er würde völlig ausreichen. Und wenn du die Raspis eh schon da hast und das NAS deren Aufgaben ohnehin komplett übernehmen kann, bleibt da sicher einer übrig.

bigbud schrieb:
Ich glaub ich werde ein N100 board nehmen das in ein Mini-ITX Gehäuse packen, eine NVMe SSD, als Systemspeicher, eine 24TB HDD als Backup Speicher und dann die Selbe HDD nochmal in ein externes Festplatten Gehäuse für ein zusätzliches Externes Backup.
Mach lieber zwei große Festplatten rein, damit du RAID 1 fahren kannst. Oder du steckst drei rein und machst dann RAID 5.

Es müssen auch keine 24-TB-Platten sein, kleinere reichen wahrscheinlich auch aus. Man muss schon irre viel sammeln, damit man auf so viele TB kommt. Ein zweistündiger 4k-Film nimmt irgendwas zwischen 20 und 40 GB ein, d. h. auf die Platte passt über 800 Filme. Das klingt auf den ersten Blick nicht so viel, aber wenn du jeden Abend einen davon siehst, dann brauchst du über 2¼ Jahre, bis du durch bist. FullHD nimmt die Hälfte ein, also könntest du dann 1600 Filme oder 4½ Jahre an Abendfilmen unterbringen. Glaub mir, das meiste davon schaust du dir eh nie wieder an.
Darüber hinaus hast du ein paar Streaming-Anbieter abonniert. Da sind ohnehin alle Filme immer abrufbar. Es reicht, wenn man nur ein paar auf der Platte hat, um mal einen Internetausfall oder so zu überbrücken.
 
Das du überhaupt an eine 3-2-1 Sicherung denkst ist schon mal gut, doch deine Idee ist für meinen Geschmack "to much". Denk daran, das du das alles auch noch warten musst. Wie viel Zeit willst du zukünftig mit dem Sicherungskram verschwenden?

Ich hab das für mich so gelöst:
Haupserver mit Unraid pro
6x 4 TB Datenplatten mit 2x Parity Platten zur Ausfallsicherheit

Alte NAS von Synology
2x 16 TB (4 wären insgesamt möglich)

2x Docker Container zu Microsoft One Drive mit je 1 TB (Office Family Paket)


Alle 4 Wochen sichere ich von Unraid auf die alte NAS. Den Rest der Zeit ist sie ausgeschaltet.
Alle 6 Monate sichere ich "wichtigsten" Daten (Paperless, Nextcloud) in die MS Cloud. Vorher Zippe ich die Daten und erstelle kleine Zip-Pakete die ich per Docker direkt in mein One Drive Konto schiebe.
 
Krik schrieb:
Auch da braucht man keinen Raspi, eine Zigbee Bridge reicht. Darauf kann das HA, das auf den NAS läuft, auch zugreifen. Oder es reicht auch möglicherweise ein Zigbee USB-Dongle aus, den man ans NAS steckt. Zigbee bildet ja ein Mesh-Netzwerk. Wenn das durch irgendein Gerät (Licht, Temperatur, Thermostat, etc.) bis in den Keller reicht, dann erreicht das auch das NAS.
Alles schön und gut, ist ja richtig was du sagst,ich fahr aber ganz gut mit dem Raspi, vielleicht überlege ich es mir.
Krik schrieb:
So viel musst du nicht vorhalten. Davon abgesehen, ist das kein Problem, da das NAS ohnehin Terabytes bereitstellen wird.
Ja das NAS wird aber nur Terabytes HDD Speicher bereitstellen, wenn auf deren Seite aber für den Anwendungsfall SSD steht sollte ich das doch möglichst umsetzen oder nicht ?
Krik schrieb:
Ja und ja. Und bei RAID 5 hast du dann mindestens 3 Festplatten, wovon eine ihren Speicherplatz nicht direkt für den "Pool" bereitstellen kann, z. B. 3x 10 TB => 30 TB brutto aber nur 20 TB netto nutzbar. Bei 4x 10 TB sind das 40 TB brutto und 30 TB netto. Hier darf immer maximal eine Platte gleichzeitig ausfallen. Die Performance steigt mit der Anzahl der Festplatten, aber nicht so schnell wie bei RAID 1.
Okay ich glaube aber mir sollte RAID 1 reichen.
Krik schrieb:
Das ist einfach nur etwas Speicher, wo Jellyfin ein paar Daten temporär ablegt. Das ist wie der Temp-Ordner unter Windows oder die Auslagerungsdatei oder Swap unter Linux.
Also keine SSD für den Cache ? Kann ich den im nachhinein noch nachrüsten und einfach einbinden ? Oder muss ich dafür wahrscheinlich jellyfin neu aufsetzen ?
Krik schrieb:
Du überschätzt, wie viel Schreiblast auf die SSDs wirklich zukommt. Angenommen du hast die sehr beliebte Lexar NM790. Die hat eine TBW von 3 PB. Wenn da jetzt jeden Abend durch Jellyfin 50 GB temporäre Daten auf die Platte geschrieben werden, dann erreicht man die TBW in schlappen 34 Jahren. Bis dahin hast du die Hardware 3x ersetzt.
Es ist gut möglich das ich das überschätze, also kann ich wenn ich auf SSDs setzte auf die extra NAS Dinger verzichten ?
Krik schrieb:
Aber nur, wenn man die Arbeitszeit, die man in das Gerät steckt, ausklammert. Bei fertigen NAS muss man nichts mehr großartig machen. Einfach drei Klicks oder so und es läuft. Beim Selbstbau-NAS wirst du mindestens Tage, eher Wochen und Monate verbringen, ehe alles so läuft, wie du es wünscht. Und selber warten muss man die Software auch noch. Bei einem Fertiggerät übernimmt das alles der Hersteller, es ist quasi Fire'n'Forget.
Mir ist bewusst, das ich mit dem Eigenbau, erheblichen Zeit Aufwand zur Einrichtung haben werde, das ist es mir wert, so wie ich mich kenne würde ein fertiges System mich irgendwann irgendwie Einschränken und ich würde mich dran setzten, auf den gekauften Systemen Open Source Software drauf zu packen.
Krik schrieb:
Da gibt es keine im engeren Sinn. Die N-Prozessoren sind low power, low energy consumption CPUs. Der N305 ist der Größte in dieser Klasse. Darüber kämen dann andere Klassen, wie klassische Mobile-CPUs oder die Einsteiger-Desktop-CPUs , also "richtige" Core i3 oder wie deren neue Bezeichnung nun lautet.
Okay dann soll es wohl der N305 für mein Master-NAS werden, der N100 dann für das Slave NAS.
Krik schrieb:
Du hast 2 Laptops, 2 TV und 4 Handys als Jellyfin-Clients aufgezählt. Zwei 4K Streams kann der N100, bei vieren bin ich überfragt. Ohne Transkodieren sollte es eigentlich laufen, aber mit Transkodieren... kein Plan.

Das machen die CPUs mit dem kleinen Finger. Da brauchst du dir keine Gedanken machen. Das Transcoding wird übrigens nicht von der GPU an sich gemacht sondern von der Media De-/Encoder-Einheit darauf. Die ist auf diese Aufgaben spezialisiert und kann das sehr gut, sehr schnell und sehr effizient.
Ich hab schon verstanden, die N100 sind super,du hast mich schon lange über zeugt aber um auf der sicheren Seite zu sein, dann aber trotzdem ein N305 für den Master.
4 Kerne mehr + bisschen mehr Rechen power für die GraKa.
Krik schrieb:
Warum? Er würde völlig ausreichen. Und wenn du die Raspis eh schon da hast und das NAS deren Aufgaben ohnehin komplett übernehmen kann, bleibt da sicher einer übrig.
Ich weiss wie du das meinst.
Krik schrieb:
Mach lieber zwei große Festplatten rein, damit du RAID 1 fahren kannst. Oder du steckst drei rein und machst dann RAID 5.
Ich meinte damit das der N100 für den Slave gedacht ist falls ich mich dazu entscheide das mit dem Raspi so zu lassen. Achso und bei mir bleiben nie irgendwelche Raspis übrig xD ich hab noch so viele Dinge die ich noch machen will mit den Dingern.
Krik schrieb:
Es müssen auch keine 24-TB-Platten sein, kleinere reichen wahrscheinlich auch aus. Man muss schon irre viel sammeln, damit man auf so viele TB kommt. Ein zweistündiger 4k-Film nimmt irgendwas zwischen 20 und 40 GB ein, d. h. auf die Platte passt über 800 Filme. Das klingt auf den ersten Blick nicht so viel, aber wenn du jeden Abend einen davon siehst, dann brauchst du über 2¼ Jahre, bis du durch bist. FullHD nimmt die Hälfte ein, also könntest du dann 1600 Filme oder 4½ Jahre an Abendfilmen unterbringen. Glaub mir, das meiste davon schaust du dir eh nie wieder an.
Darüber hinaus hast du ein paar Streaming-Anbieter abonniert. Da sind ohnehin alle Filme immer abrufbar. Es reicht, wenn man nur ein paar auf der Platte hat, um mal einen Internetausfall oder so zu überbrücken.
Ja Okay, bleibt ja noch einiges an Zeit, bis ich die Projekte Starte. Ich mach mir mal Gedanken.

Meine Neue Vorstellung mal zusammen gefasst:

1. Master-NAS:
Mainboard mit CPU: N305
DDR5-RAM: 1x 32/48Gb(würde direkt 48 nehmen weil auf der motherboard Seite steht es würde das unterstützten aber bin mir nicht sicher weil bei Intel 32 steht)
M.2 SSD: 1x 1TB(Für Proxmox VE, VMs, Container. Oder wäre hier auch ein RAID 1 mit 2 M.2 SSDs zu empfehlen ?)
HDD RAID 1 Speicher: 2x 8/12/24TB(wie viel genau sehen wir dann)

Wie schon gesagt als Unterbau Proxmox VE,auf jeden fall Jellyfin und TrueNAS Scale als VMs.

2. Slave-NAS :
mit Intel CPU:
Mainboard mit CPU: N100(hier schau ich mich noch weiter um vllt gibts ja ein N50 für weniger Geld was ich aber stark bezweifel)
DDR-5 RAM: 1x min. 8Gb(sollte reichen oder ?)
M.2 SSD: 1x 128Gb(Betriebssystem Empfehlungen ? Vielleicht TrueNAS Scale?)
Interner Speicher: 1x 8/12/24TB
das selbe noch mal extern: 1x 8/12/24TB

Oder mit Raspberry Pi & System auf der NVMe SSD:
1x Raspberry Pi 5 8 oder 16Gb
1x M.2 NVMe Erweiterung
1x 128Gb NVMe SSD
2x Externes Festplatten Gehäuse
2x 8/12/24TB HDDs

Oder mit Raspberry Pi & System auf SATA SSD:
1x Raspberry Pi 5 8 oder 16Gb
1x 5-Fach SATA Erweiterung
1x 128Gb SATA SSD
1x Externes Festplatten Gehäuse
2x 8/12/24TB HDDs(eine über SATA eine über USB)

Oder Raspberry Pi mit System auf der SD-Karte...sollte eigentlich auch reichen da das system ja nur einmal beschrieben wird & danach nur noch geupdatet wird.
Ergänzung ()

DerKoernel schrieb:
Das du überhaupt an eine 3-2-1 Sicherung denkst ist schon mal gut, doch deine Idee ist für meinen Geschmack "to much". Denk daran, das du das alles auch noch warten musst. Wie viel Zeit willst du zukünftig mit dem Sicherungskram verschwenden?
Ich erhoffe mir, das ich es so hinbekomme, mit etwas auffwand das die Datensicherung komplett automatisch abläuft.
DerKoernel schrieb:
Ich hab das für mich so gelöst:
Haupserver mit Unraid pro
6x 4 TB Datenplatten mit 2x Parity Platten zur Ausfallsicherheit

Alte NAS von Synology
2x 16 TB (4 wären insgesamt möglich)

2x Docker Container zu Microsoft One Drive mit je 1 TB (Office Family Paket)


Alle 4 Wochen sichere ich von Unraid auf die alte NAS. Den Rest der Zeit ist sie ausgeschaltet.
Alle 6 Monate sichere ich "wichtigsten" Daten (Paperless, Nextcloud) in die MS Cloud. Vorher Zippe ich die Daten und erstelle kleine Zip-Pakete die ich per Docker direkt in mein One Drive Konto schiebe.
Klingt Simpel ich hab aber kein altes NAS, ich will mir aber eins zulegen,bzw bauen wobei die Hardware auch noch supportet werden soll. Also ein veraltetes fertig NAS eventuell sogar gebraucht kaufen kommt für mich nicht in Frage.
 
Zuletzt bearbeitet:
bigbud schrieb:
Okay das wusste ich nicht, aber ein lese cache macht für mein Heim-NAS Sinn oder nicht ?
Kommt auf die konkrete Umsetzung des Caches an. Bcache als Beispiel cached 4MB je zu cachendem Laufwerk als Standard. Bei reinem Raid5 über 3 Laufwerke sind das also relevant 2x4MB = 8MB. Hast du viele Zugriffe, die in der Größenordnung stattfinden, dann lohnt ein Cache. Ansonsten eher nicht.
Am Meisten hilft noch der Cache um die Verwaltungsdaten vom Dateisystem zu cachen. Der simple Trick ist da aber ein tree /foo/bar >/dev/null nach dem Booten loszutreten. Dann landen die Metadaten großteils im Ram und haben eine recht gute Chance da zu verweilen.

bigbud schrieb:
dann über usb-otg das esp32 über eine emulierte Tastatur das Passwort eingeben(welches ich bei der Programmierung schon dem ESP32 mitteilen).
Tierisches Gebastel und je nach geschätzter Bedrohungslage reicht ein Keylogger um das System auszuhebeln.

bigbud schrieb:
Mein gedankengang dabei ist Dann müsste ich aber jede Datei einzeln verschlüsseln weil zB bei einer Partitionen Verschlüsselung ja jedes mal die ganze partion synchronisiert wird und nicht nur die Dateien die dazu gekommen,sich geändert oder entfernt wurden. Oder ist mein Gedanken gang da falsch ? In Meiner Vorstellung wird eine Partion ja dann wie eine Datei behandelt die sich geändert hat also wird quasi das alte backup der Partion gelöscht und die neue Version (zB wegen einer geänderten Datei von tausenden) komplett neu gesichert.
Ich habe Probleme zu verstehen was du beschreibst.
Wenn es inkrementelle Updates geben soll, dann geht das auf Dateiebene und/oder blockbasiert auf Dateisystemebene. Gescheite Backupsoftware bildet Hashsummen über die Dateien bzw. Blöcke und etwaige Änderungen werden damit zuverlässig erkannt. Man kann also problemlos auf dem Client verschlüsseln, der Backupserver kennt keine Inhalte, hat aber tendenziell Metadaten im Klartext (Datenobjekt mit $Hash wurde beim Backup vom dd.mm.yyyy geändert).

bigbud schrieb:
Und beim Thema übertakten dachte ich auch daran dass das ebenso bedeutet das ich die CPU auch untertakten kann falls ich mal auf die Idee komme das NAS dauerhaft eingeschaltet zu lassen für irgendwelche Projekte, was ja dann wieder Strom sparender wäre.
Untertakten lassen die meisten Boards sowieso zu und bringt genau nix. Selbst die günstigen Boards können (mitunter) die TDP beschränken und das hilft mitunter. Jedoch nicht im Idle (da sind die meisten Komponenten der CPU eh aus), sondern unter Last. Wobei die Rechnung unter Last auch immer so ein Ding ist. Wenn da irgend ein Job ein paar Prozent schneller durch ist, dafür die HDDs aber eher abschalten können, lohnt sich meist die 65WTDP stehen zu lassen und nicht weiter runter zu gehen.
 
bigbud schrieb:
Alles schön und gut, ist ja richtig was du sagst,ich fahr aber ganz gut mit dem Raspi, vielleicht überlege ich es mir.
Deine Entscheidung. Da du Proxmox einsetzen willst, bietet es sich an, die Dienste in LXC-Container zu packen und beide NAS (Master & Slave) als Proxmox-Nodes zu verwenden. Die kann man dann jeweils als Fail-over definieren, sodass die Container je nach Umstand auf der einen oder anderen Node ausgeführt werden. Gerade bei HA ist da praktisch und teils notwendig (z. B. Ausfall der Thermostatsteuerung -> kalte Wohnung).

Der N100 ist stark genug für Proxmox, mehrere Linux-VMs und ein Dutzend LXCs. Selbst getestet.

bigbud schrieb:
Ja das NAS wird aber nur Terabytes HDD Speicher bereitstellen, wenn auf deren Seite aber für den Anwendungsfall SSD steht sollte ich das doch möglichst umsetzen oder nicht ?
Es ist nicht nötig auf SSDs zu setzen. Hauptsache am Ende kann der Server bis zu 4x 40-80 MBits/s an Videostreams senden. Die Bitrate reicht für 4k. Das wird auch mit HDDs funktionieren.

bigbud schrieb:
Also keine SSD für den Cache ? Kann ich den im nachhinein noch nachrüsten und einfach einbinden ? Oder muss ich dafür wahrscheinlich jellyfin neu aufsetzen ?
Wie schon geschrieben, ist das nicht nötig. Man kann es aber wegen Lautstärke und Energieverbrauch machen.

bigbud schrieb:
Es ist gut möglich das ich das überschätze, also kann ich wenn ich auf SSDs setzte auf die extra NAS Dinger verzichten ?
Du kannst drauf verzichten.

bigbud schrieb:
Mir ist bewusst, das ich mit dem Eigenbau, erheblichen Zeit Aufwand zur Einrichtung haben werde, das ist es mir wert, so wie ich mich kenne würde ein fertiges System mich irgendwann irgendwie Einschränken und ich würde mich dran setzten, auf den gekauften Systemen Open Source Software drauf zu packen.
Schau dir einfach mal ein paar Videos zu QNAP und Synology-Systemen an. Die bieten alle(?) die Möglichkeit, Container und teils auch VMs laufen zu lassen. Der Vorteil ist, dass sie dafür fertig konfiguriert sind. Man hat für gewöhnlichen einen Katalog, über den man neue Container (z. B. HA) installieren lassen kann und dann läuft das einfach so.

Wenn du das alles selbst aufsetzt... puh, das würde ich mir heute nicht mehr antun, obwohl ich einen N100 habe. Was man da immer alleine an Doku lesen muss, um simpelste Dinge zum Laufen zu bekommen. Z. B. bei Dateifreigaben im Fertig-NAS erstellst du einen Ordner und gibst nur noch an, wer darauf zugreifen kann. Fertig.
Selbst einen Samba- oder NFS-Server zu konfigurieren, kann einen hingegen schon mal ein graues Haar kosten. Wenn ich mich an die Steuerung der Zugriffsrechte zurückerinnere, bekomme ich immer noch Schweißausbrüche.

Und ich kann dir sagen, dass ich bei jedem Update 2x überlege, ob ich das machen will. Ich habe große Angst, dass es mir irgendwas zerschießt und ich wieder ein paar Stunden investieren muss. Ich will mittlerweile einfach nur, dass es funktioniert.

bigbud schrieb:
Der N305 stammt von der Alder-Lake-Architektur ab. Die unterstützt pro Memory Channel bis zu 64 GB RAM. Das hat man beim N305 und N100 nicht begrenzt. Die offizielle Unterstützung sind zwar "nur" 32 GB bzw. 16 GB, aber würde es 64-GB-Riegel geben, würden die auch laufen. Bei Reddit gibt es Leute, die ihren N100 mit 48-GB-Riegeln betreiben.

Brauchst du so viel RAM? Ja, VMs benötigen schon was, aber wirst du sicher so viele betreiben?
Ich hatte mehrere Linux VMs mit 2 GB je Stück in Betrieb. Das war kein Thema, bis mir der ganze Trubel zu viel wurde und ich alle Container und VMs eingestampft habe. Jetzt läuft das meiste nativ und ich habe nur noch, glaub, 3 Docker-Container am Laufen. Das benötigt zusammen mit dem System weniger als 3 GB RAM.
1737027568439.png

Die VMs und Container müssen unbedingt mitgesichert werden. Wenn man die bei einem Plattencrash verliert, heult man.

bigbud schrieb:
Zu viel RAM. Wahrscheinlich kommst du hier mit 1-2 GB (inkl. System) aus.
Betriebssystemempfehlung wäre bei mir Debian oder DietPi. Irgendein Minimal-Linux tut es auch.

bigbud schrieb:
Oder mit Raspberry Pi
Wenn du den inkl. nötiger Erweiterung günstiger als ein N100-System bekommst, kannst du das so machen.
Dürfte aber schwierig werden.
 
Krik schrieb:
Deine Entscheidung. Da du Proxmox einsetzen willst, bietet es sich an, die Dienste in LXC-Container zu packen und beide NAS (Master & Slave) als Proxmox-Nodes zu verwenden. Die kann man dann jeweils als Fail-over definieren, sodass die Container je nach Umstand auf der einen oder anderen Node ausgeführt werden. Gerade bei HA ist da praktisch und teils notwendig (z. B. Ausfall der Thermostatsteuerung -> kalte Wohnung).
Ich meine von Proxmox-Nodes gelesen zuhaben, muss ich dafür dann nicht wieder ports öffnen ? das zweite NAS soll ja nicht bei mir stehen und auch nicht dauerhaft laufen.
Wenn Home Assistant down ist, muss ich dann erst mal manuell über meinen PC oder so das Zweite NAS starten,weil ja dann normalerweise geplant ist das Home Assistant den Anstoß zum Backup gibt, falls dann dort Home Assistant starten würde, würde es ja trotzdem nicht an die Funkmodule
(Zigbee usw) zur Kommunikation mit den Smarten Geräten kommen, da die USB-Dongles ja am ersten NAS hängen würden.
Also wäre die zweite Instanz wiederum nutzlos und könnte meine Heizung nicht Regeln. (Ich hab zwar noch keine Heizungsregler aber mal so Hypothetisch)

Meine Idee ist, Home Assistant, zu allererst so zu konfigurieren, das es ich nur buttons drücken oder Schalter umlegen muss(in Home Assistant nicht physisch) um zB das Ereignis "Master-NAS macht Backup auf Slave-NAS" anzustoßen, was dann erst das Master-NAS startet dann das Slave-NAS aus der ferne startet, wartet bis das System Ready ist,zB bis beide NAS das ein GO geben, und erst dann wenn Home Assistant dieses GO bekommen hat, gibt es dem Master-NAS den befehl das Backup zu starten.
Das Master-NAS soll nicht dauerhaft an sein,genauso wenig das Slave-NAS.
Das Master-NAS soll auch wenn es an ist nicht automatische alle konfigurierten Dienste anbieten oder ausführen, es soll wenn es schläft also aus ist, bei bedarf automatisch oder per Knopf druck, per Wake On Lan gestartet werden, sobald es dann komplett gestartet ist, soll das Master-NAS dann mindestens eine vorher definierte Nachricht an HA schicken, eine die dem HA sagt "ich bin bereit für weitere Anweisungen" wenn ich es hinkriege, soll dann auch eine Nachricht kommen, falls irgendwelche Dinge zb nicht starten konnten die aber automatisch starten sollten, wenn möglich sogar mit dem inhalt was nicht starten konnte diese Nachricht soll dann an mich weiter geleitet werden(wenn ich dann das Problem mit einem einfachen Befehl oder einer Befehls reinfolge lösen kann erstelle ich eine Automation die dann den Befehl oder die befehle per SSH beim wieder kehren dieses Fehlers automatisch ausführt)erst dann wenn das Master & Slave NAS signalisiert haben das sie bereit sind, befiehlt Home Assistant dem Master das Backup zu starten & wenn es damit fertig ist, sagt es wieder bescheid diesmal das es fertig ist & auch das Slave NAS sagt bescheid wenn es fertig ist und beide warten wieder auf befehle. Dann gibt HA dem Slave den Befehl die Interne Platte mit der Externen Platte zu Synchronisieren & da Home Assistant ja weiss, was der Master gerade macht und was für Dienste laufen, entscheidet er ob es noch nötig ist, das der Master angeschaltet bleibt oder ob es herunter gefahren werden soll.
Wenn der Slave mit der Synchronisierung fertig ist & wenn das dann geklappt hat sagt es wieder bescheid und wartet auf befehle woraufhin wahrscheinlich nur noch der Befehl kommt das der Slave sich ausschalten soll.
Das gleiche zählt für Jellyfin, es wirt nur gestartet wenn es nötig ist und nur so lange es nötig ist (ich glaube in proxmox kann man VMs & Container per Wake On LAN starten)
Es gibt bestimmt die Möglichkeit Home Assistant mitzuteilen, wenn ein Client gerade auf Jellyfin zugreifen will, wenn home assistant das weiss & der Master ist aus, startet er den Master und wenn der gestartet wurde & bereit ist und home assistant das wiederrum weiß, weckt Home Assistant, Jellyfin-Server. Und so weiter und so fort.
Alles was SSH beherrscht & per Wake On LAN gestartet werden kann & MQTT Empfangen & Senden kann, will ich so gut es geht über HA Starten/Beenden und auf den Entgereräten befehle ausführen lassen.
Mit allem was auf Linux basiert ist das alles zwar viel Arbeit aber möglich umzusetzen !
Unter Windows wird das schon schwieriger aber da ist das auch nicht unmöglich.

Lang geworden aber damit will ich eigentlich sagen, das Home Assistant hier der Master im Netzwerk werden soll. Wenn er selbst ein Sklave in einem Container oder in einer VM ist wird er das aber nicht.

Wenn ich das so weiter umsetzen will muss Home Assitant auf einem Externen gerät wie dem Raspberry Pi 5 laufen das selbe Zählt für das Raspberry Pi mit Nextcloud. Das sind die beiden Server die immer laufen müssen.
Ich kann wohl das ein oder andere Raspberry Pi Server Projekt was ich noch hier habe oder noch umsetzen will auch auch auf dem Master NAS einrichten,das ist richtig das geht aber mit meinem plan nicht mit Dingen die ständig Aktiv sein müssen. Die anderen Geräten in äußersten Notfällen auch einfach mal den Stecker ziehen können wenn es nötig ist.

Ein Raspberry Pi 5 + NVMe SSD verbrauchen wahrscheinlich um die 15W unter Volllast.
Macht für 2 Instanzen 30W unter Volllast !

Ob beim N100 oder N305 mit min. 2 HDDs + einer SSD + Lüfter + Beim N305 CPU Kühler + das im Vergleich zum Pi riesige Mainboard + laufenden Containern oder VMs sind wir bei 35-40W.

Aus diesen und weiteren Gründen will und werde ich weiter auf die 2 Raspberry Pis Setzten.

Krik schrieb:
Der N100 ist stark genug für Proxmox, mehrere Linux-VMs und ein Dutzend LXCs. Selbst getestet.


Es ist nicht nötig auf SSDs zu setzen. Hauptsache am Ende kann der Server bis zu 4x 40-80 MBits/s an Videostreams senden. Die Bitrate reicht für 4k. Das wird auch mit HDDs funktionieren.
Ja ist ja OK aber das System,die VMs und Container & so weiter sollen einfach sehr schnell gestartet werden können.
wenn ich Home Assistant bei bringen kann wie er erkennt das Zb der SmartTV im Schlafzimmer gerade die Jellyfin App zB dadurch das der SmartTV grad die Domain oder IP anspricht öffnet soll falls der Server gerade aus ist der Jellyfin Server am besten in Echtzeit angehen & paar sek später auf dem Server geladen sein.
Wird so schnell nicht werden das ist mir klar weil Home Assistant das erst mal erkennen muss, & prüfen muss ob der Server Läuft, um ihn dann falls Proxmox komplett aus ist, zu starten muss erst proxmox geweckt werden bla bla bla.
Aber SSDs als Speicher für Proxmox & für die VMs & Container usw, beschleunigen das immens.

Weshalb wenn ich so überlege vllt wirklich eine zweite NVMe SSD und diese beide dann in einem RAID1 verbund,für das Betriebssystem + container + vm.
das würde die Ladezeiten doch noch mehr verkürzen oder sehe ich das falsch ?
Krik schrieb:
Wie schon geschrieben, ist das nicht nötig. Man kann es aber wegen Lautstärke und Energieverbrauch machen.


Du kannst drauf verzichten.


Schau dir einfach mal ein paar Videos zu QNAP und Synology-Systemen an. Die bieten alle(?) die Möglichkeit, Container und teils auch VMs laufen zu lassen. Der Vorteil ist, dass sie dafür fertig konfiguriert sind. Man hat für gewöhnlichen einen Katalog, über den man neue Container (z. B. HA) installieren lassen kann und dann läuft das einfach so.

Wenn du das alles selbst aufsetzt... puh, das würde ich mir heute nicht mehr antun, obwohl ich einen N100 habe. Was man da immer alleine an Doku lesen muss, um simpelste Dinge zum Laufen zu bekommen. Z. B. bei Dateifreigaben im Fertig-NAS erstellst du einen Ordner und gibst nur noch an, wer darauf zugreifen kann. Fertig.
Selbst einen Samba- oder NFS-Server zu konfigurieren, kann einen hingegen schon mal ein graues Haar kosten. Wenn ich mich an die Steuerung der Zugriffsrechte zurückerinnere, bekomme ich immer noch Schweißausbrüche.
Ich hab hier eigentlich noch einen mini PC darauf läuft Proxmox darauf hatte ich eine vm glaube das war ubuntu Server darüber hab ich auch NFS, Samba, DLNA und FTP Laufen lassen.
Alles über die Befehlszeile eingerichtet.

Bei meinem ersten Versuch wars irgendeine NAS VM auch auf Proxmox mir fällt der Name nicht ein, dort hatte ich auch die oben genannten Dienste, eingerichtet, da war es einfacher das meiste ging ohne Befehlszeile über die Weboberfläche. Mir fällt gerade ein das ding hieß Open-Media-Vault.

Ich weiss also worauf ich mich da einstellen kann.
Beides hat etwas Zeit in Anspruch genommen,
aber es war es Wert.
Krik schrieb:
Und ich kann dir sagen, dass ich bei jedem Update 2x überlege, ob ich das machen will. Ich habe große Angst, dass es mir irgendwas zerschießt und ich wieder ein paar Stunden investieren muss. Ich will mittlerweile einfach nur, dass es funktioniert.
Ja da hast du wohl Recht, deshalb hab ich bei Linux systemen updates nur durchgeführt wenn ich sowieso Stunden lang am Laptop oder am PC saß was öfters vorkommt.
Krik schrieb:
Der N305 stammt von der Alder-Lake-Architektur ab. Die unterstützt pro Memory Channel bis zu 64 GB RAM. Das hat man beim N305 und N100 nicht begrenzt. Die offizielle Unterstützung sind zwar "nur" 32 GB bzw. 16 GB, aber würde es 64-GB-Riegel geben, würden die auch laufen. Bei Reddit gibt es Leute, die ihren N100 mit 48-GB-Riegeln betreiben.

Brauchst du so viel RAM? Ja, VMs benötigen schon was, aber wirst du sicher so viele betreiben?
Ich hatte mehrere Linux VMs mit 2 GB je Stück in Betrieb. Das war kein Thema, bis mir der ganze Trubel zu viel wurde und ich alle Container und VMs eingestampft habe. Jetzt läuft das meiste nativ und ich habe nur noch, glaub, 3 Docker-Container am Laufen. Das benötigt zusammen mit dem System weniger als 3 GB RAM.
Ehrlich gesagt weiß ich nicht ob ich soviel RAM brauche aber haben ist besser als brauchen !
Erstmal ist ja nur das geplant:
Proxmox VE = 2Gb
Open-Media-Vault oder alternative = 2-4Gb
Jellyfin-Server = 4-8Gb

Also 32Gb wolllte ich egal was komme einbauen, der kostet 89€ glaube ich für 20€ mehr kriege ich schon 48Gb deswegen die Überlegung. Auch wenn ich nur die Hälfte also irgendwann mal 24Gb brauche ist es mir das einfach wert noch genügend Reserven zu haben.

Sehe ja bei Home Assistant wie schnell der Verbrauch steigt.
Als ich Damit angefangen hab, hatte ich ein Raspberry Pi 3b mit 1Gb RAM, da liefen einige addons drauf.
Danach hab ich auf dem mini PC mit proxmox HA eingerichtet und erstmal 2Gb zugeteilt, reichte erst mal, jetzt hab ich noch mal von 4 auf 8 erhöht, bzw das läuft ja jetzt wieder auf nem Raspberry Pi 5 8Gb. Ich glaube zwischen durch verbraucht der jetzt 6Gb.
In Zukunft werde ich mir noch einen Raspberry Pi für ein anderes Projekt kaufen, ich werde dann das 16Gb Modell nehmen, für das Projekt brauch ich aber keine 16 den Tausch ich dann einfach mit dem von Home Assistent und nehm die 8er Version für das projekt(8Gb sollten eigentlich reichen aber ich hab so viel noch vor mit HA da will ich einfach auf der sicheren Seite sein.)

Krik schrieb:

Die VMs und Container müssen unbedingt mitgesichert werden. Wenn man die bei einem Plattencrash verliert, heult man.
Das ist mir schon klar.
Wenn ich den Master-NAS jetzt so konfiguriere wie ich oben überlegt habe wird das wie folgt aussehen:
1-2x NVMe SSD 1TB(bei 2 im RAID1) für :
  • Proxmox VE
  • VMs
  • Container
2x 3,5" HDDs mit je 8/12/16/24TB in RAID1

Alle Container & VMs werden so konfiguriert das denen befohlen werden kann von Home Assistant das sie ein Backup auf die HDDs machen. Was auch regelmäßig gemacht wird.

Krik schrieb:
Zu viel RAM. Wahrscheinlich kommst du hier mit 1-2 GB (inkl. System) aus.
Betriebssystemempfehlung wäre bei mir Debian oder DietPi. Irgendein Minimal-Linux tut es auch.
Ja das dass zufiel RAM ist ist mir klar, es gibt keine DDR5 SODIMM Riegel mit weniger als 8Gb zumindest nicht bei Geizhals.

Ja dann aber eher ubuntu-server denke ich.
Krik schrieb:
Wenn du den inkl. nötiger Erweiterung günstiger als ein N100-System bekommst, kannst du das so machen.
Dürfte aber schwierig werden.
Ne sieht schlecht aus, hab schon geguckt.
 
bigbud schrieb:
Ich meine von Proxmox-Nodes gelesen zuhaben, muss ich dafür dann nicht wieder ports öffnen ?
Die kommunizieren über das Intranet. Offene Ports sind da egal.

bigbud schrieb:
aber damit will ich eigentlich sagen, das Home Assistant hier der Master im Netzwerk werden soll
Das ist schlecht. Damit hast du einen single point of failure ohne Mehrwert. Sollte aus irgendeinem Grund das HA mal seinen Dienst verweigern, stehst du mit runtergelassener Hose da. Und das wird passieren. Du wärst nicht der Erste, der plötzlich in einer kalten Wohnung steht.

bigbud schrieb:
Macht für 2 Instanzen 30W unter Volllast !
bigbud schrieb:
...sind wir bei 35-40W.
Ist doch nix. Im 24/7-Betrieb kosten 30 Watt im Jahr ~87 € und 40 Watt ~116 € (33 Cent/kWh). Und Volllast hast du sowieso nie. Die meiste Zeit popelt das NAS in der Nase und wenn es länger nichts zu tun hat, dann werden (bzw. sollten) sogar die Festplatten abgeschaltet. Der Verbrauch sinkt dann auf deutlich unter 5 Watt egal ob Raspi oder Intel.

bigbud schrieb:
Weshalb wenn ich so überlege vllt wirklich eine zweite NVMe SSD und diese beide dann in einem RAID1 verbund,für das Betriebssystem + container + vm.
das würde die Ladezeiten doch noch mehr verkürzen oder sehe ich das falsch ?
Das siehst du falsch. Zu viele Platten im RAID verlängern die Dateizugriffszeit. Ich weiß nicht, was du dir vorstellst, aber Programmstarts werden üblicherweise durch die Geschwindigkeit der CPU und nicht des Speichermediums begrenzt.

bigbud schrieb:
Ehrlich gesagt weiß ich nicht ob ich soviel RAM brauche aber haben ist besser als brauchen !
Das treibt aber deinen Stromverbrauch auch in die Höhe. Zwar nicht viel, aber etwas mehr ist da schon drin.

bigbud schrieb:
Proxmox VE = 2Gb
Open-Media-Vault oder alternative = 2-4Gb
Jellyfin-Server = 4-8Gb
Proxmox inkl. System geht so in etwa in Ordnung. OMV muss du sehen, was er braucht. Ich denke 2 GB reichen da aber auch locker aus. Jellyfin kommt mit deutlich weniger aus. Lässt du beide als LXC laufen, brauchen sie jeweils vielleicht ein paar hundert MB. Auf meinem NAS nimmt sich Jellyfin 460 MB im Idle und 500 MB unter "Last" (4k-Video).

Jellyfin sollte nicht in einer VM laufen. Du müsstest die Grafikkarte an sie durchreichen und das erfordert schon etwas Aufwand. Dazu kommt der I/O-Overhead. In einem Container geht das alles deutlich besser.

bigbud schrieb:
Sehe ja bei Home Assistant wie schnell der Verbrauch steigt.
Ein Grund mehr HA auf dem NAS laufen zu lassen. Das hat einfach mehr Ressourcen als ein Raspi je zur Verfügung stellen könnte.

Preislich liegt ein N100-Board und ein Raspi 5 mit 16 GB RAM ziemlich nahe beieinander. Ich würde da eher zum N100-Board greifen. Für zirka einen 10er mehr ist das ein Nobrainer.

bigbud schrieb:
Alle Container & VMs werden so konfiguriert das denen befohlen werden kann von Home Assistant das sie ein Backup auf die HDDs machen.
Sorry, aber das ist Quatsch. Wie oben geschrieben, schaffst du dir damit nur einen single point of failure ohne Mehrwert. Proxmox kann selber regelmäßig Backups anlegen. Es gibt auch noch einen Proxmox Backupserver, wenn man noch mehr von deren Ökosystem verwenden will.

bigbud schrieb:
Ne sieht schlecht aus, hab schon geguckt.
Du schreibst, dass dir 20 € mehr für ein RAM-Upgrade (32 GB -> 48 GB) egal sind, aber hier schaust du wieder auf jeden Euro?

Um nochmal auf Home Assistant zurückzukommen. Mir ist klar, dass du deine ganze Wohnung smart steuern willst. Es gibt aber Grenzen, hinter denen das einfach keinen Sinn ergibt und eher schädlich ist. Du willst dich komplett einem einzigen System ausliefern, hast aber keine Sicherung, die im Falle eines Falles einspringt. Sorry, dass ich das so sagen muss, aber das ist einfach dumm. Ein smartes Hausnetz ist eines, wo jedes beteiligte Gerät möglichst selbstständig agiert. Wenn da mal irgendwo eine Störung auftritt, dann reißt es nicht den Rest mit sich.

Genauso verhält sich das auch hier. Ein Backupjob zum Beispiel gehört nicht in HA abgebildet. Das ergibt hier gar kein Sinn. Proxmox weiß, wann es läuft, da kann es auch selbstständig ein Backup machen. Ein NAS weiß, wann es läuft und kann dann das Backup-NAS fernstarten. Das Backup-NAS führt dann selbstständig das Backup durch. Wenn es fertig ist, weiß es das und kann dann alleine runterfahren. Das Haupt-NAS sieht das und kann dann selber (bei Bedarf) runterfahren. Da muss HA überhaupt nichts beisteuern, das läuft selbstständig.

Fällt dir HA aus, fällt bei dir alles aus. Um so wichtiger ist es, hier ein Fail-Over zu haben. Proxmox bietet sich an, da es LXCs und VMs selbstständig bei Ausfällen im (Proxmox-)Netz starten kann. Alternativ kopiert man die LXCs oder VMs auch einfach auf das Backup-NAS und startet sie dort bei Bedarf per Hand.


Das Meiste deines Textes habe ich nicht gelesen. Da war keine Struktur, es gab ellenlange Schachtelsätze und teils wurde ohne Punkt und Komma geschrieben. Sorry, aber das tu ich mir nicht an.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Roesi
Zurück
Oben