Stromsparender Heimserver für die Virtualisierung von allem Möglichen.

cursedgrave

Cadet 2nd Year
Registriert
Juni 2019
Beiträge
24
Möchtest du den PC für Bild-/Musik-/Videobearbeitung oder CAD nutzen? Als Hobby oder bist du Profi? Welche Software wirst du nutzen?
Keine Bildschirme, daher auch keine Bild- Musik oder Videbearbeitung. Es ist auch kein Transcoding oder die CAD-Nutzung geplant. Für die Virtualisierung schwanke ich zwischen der kostenlosen Edition des vSphere oder Proxmox VE, auf denen ich dann Mail-, Web- und Datei-Server betreiben will. Ich möchte auch ein virtualisiertes Nas betreiben, über einen GBit muss die Übertragungsgeschwindigkeit nicht hinaus gehen. Das möchte ich entweder mit Seafile, Nextcloud/OwnCloud oder FreeNas machen. Diesbezüglich bin ich aber für Vorschläge offen.

Hast du besondere Anforderungen oder Wünsche (Overclocking, ein besonders leiser PC, RGB-Beleuchtung, …)?
Sollte dringend stromsparend sein, leise wäre auch schön.

Wieviele und welche Monitore möchtest du nutzen? Anzahl, Modell, Auflösung, Bildwiederholfrequenz (Hertz)? Wird FreeSync (AMD) oder G-Sync (Nvidia) unterstützt? (Bitte mit Link zum Hersteller oder Preisvergleich!)
Keine, da ich nur über die Weboberfläche des Hypervisors auf die VMs zugreife. Die VMs werden im Normalfall eine Auflösung von 800x600 nicht überschreibten, da ich eigentlich alles über die Kommandozeile oder zumindest remote machen will.

Hast du noch einen alten PC, dessen Komponenten teilweise weitergenutzt werden könnten? (Bitte mit Links zu den Spezifikationen beim Hersteller oder Preisvergleich!)
- Ich besitze eine portable Western Digital-HDD mit der Größe von einem Terrabyte. Diese habe ich bis jetzt auf meinem RPI als Seafile-Root verwendet. Die will ich eigentlich, zumindest als USB-Festplatte, nicht für den Server verwenden. Ich erwähne sie nur, falls es vom Budget her knapp wird.

Wie viel Geld bist du bereit auszugeben?
Das ist schwierig zu sagen. Unter 300 Euro werden wir natürlich nicht wegkommen. Wahrscheinlich auch nicht unter 500-600€. Der Preis sollte allerdings so niedrig wie möglich sein, ohne dass die Qualität massiv leidet.

Wann möchtest du den PC kaufen? Möglichst sofort oder kannst du noch ein paar Wochen/Monate warten?
So bald wie möglich möchte ich zumindest eine Art Plan haben, der Kauf kann auch später erfolgen.

Möchtest du den PC selbst zusammenbauen oder zusammenbauen lassen (vom Shop oder von freiwilligen Helfern)?
Ich möchte ihn gerne selbst zusammenbauen.

Grob im Blick habe ich bereits Intel's NUCs, bin mir da aber bzgl. des Speichers unsicher.

Ich hoffe, dass das überhaupt für solch ein, zugegebenermaßen relativ kleines, Budget möglich ist. Ich würde mich über Kritik am Plan, vor allem aber über Hardwarevorschläge freuen.

Regards
 
erstmal hängt das ja "eigentlich nur" von der gewünschten / benötigten Performance ab...
ich habe mit "einfacher Consumer Hardware" und ESXi / vSphere eher schlechte Erfahrungen gemacht. Wenn die HW auf der Kompatibilitätsliste steht, dann ist das natürlich eine perfekte Lösung, tut sie das aber nicht, dann ist das "mehr Spielkram" als wenn man gleich "richtigen Spielkram" nimmt (wie z.B. VirtualBox) ;)
daher bin ich in solchen Fällen inzwischen mehr bei den Containern als "echten" VMs gelandet. In einem solchen Fall reicht dann auch einfachere Hardware. Hier laufen diverse Dienste (wie Nextcloud, FHEM, HA-Bridge, Guacamole usw. usf.) auf einem ganz kleinen Celeron NUC (Baytrail / J irgendwas) und das reicht mMn für die "1Gbit Klasse" völlig aus.

ach ja: der NUC hat z.B. sogar schon Probleme mit "Server OS" wie Ubuntu LTS. Das legt die Kiste im Idle irgendwann schlafen und kann sie nicht mehr aufwecken. Und genau solche Probleme in dieser Art gibt es "eine Klasse höher" eben auch mit ESXi. Das lief hier z.B. bis ich den Rechner einmal in den Sleep gebracht habe, anschließend ging dann kein WoL mehr, einmal Power komplett wg und es geht wieder, genau EIN mal...
 
  • Gefällt mir
Reaktionen: cursedgrave
Ich verstehe, also setze ich Vmware auf der Prioritätsliste ein wenig nach unten, genau so wie den NUC. Also bleibt mir Proxmox, mit einem selbstzusammengebauten Server. Container sind eine gute Idee, darüber habe ich auch schon nachgedacht. Mit einer Weboberfläche scheint das ja auch, zumindest sobald man die Templates hat, ganz bequem zu gehen. Und in Container muss ich mich ja sowieso noch reinlesen, das könnte für mich irgendwann wichtig werden. Habe ich das richtig verstanden?

Welchen Containerservice nutzt du denn, Docker? Und auf welchem System, Ubuntu scheint ja nicht so gut zu funktionieren. Debian?

Der NUC ist für mich aufgrund der begrenzten Sata-Ports sowieso erstmal weiter unten auf der Liste, ich denke um ein richtiges Motherboard komme ich drumrum, das ganze soll ja zumindest ein wenig zukunftssicher sein, soll ja nicht direkt auseinnanderfallen, sollte ich mein Netzwerk upgraden.

Vielen Dank für deine Antwort und die Empfehlungen!
 
Ein Nuc muss keine schlechte Wahl sein und du solltest von einzelnen Meldungen nicht solche pauschalen Rückschlüsse ziehen!
@Mickey Mouse hat das Problem, dass er ein System mit Intel Bay Trail CPU hat. Das ist eine Plattform mit bekanntem besch***en Bug bei den C-States. Hatte auch einen Mini PC mit einer CPU aus der Reihe und aus eben diesem Grund nicht mehr.

Kostenloser vSphere hat einen Nachteil: Mangelnde Storage API und damit müsstest du Backups aus den VMs heraus durch führen und kannst dies nicht über vSphere lösen.
cursedgrave schrieb:
Ich möchte auch ein virtualisiertes Nas betreiben, über einen GBit muss die Übertragungsgeschwindigkeit nicht hinaus gehen. Das möchte ich entweder mit Seafile, Nextcloud/OwnCloud oder FreeNas machen.
Möchtest du vielleicht noch irgendwelchen grob-irgendwas-mit-Dateien-Produkte zusammen werfen? Aus deinem Satz kann ich dir vor allem einen Rat geben: FreeNAS ist alles aber auf keinen Fall die Lösung für dich. Verwirf den Gedanken, pack ihn in eine kleine Kiste, vergrabe diese und vergiss anschließend wo du gebuddelt hast.

Zur Einordnung für dich: Ich betreibe einen vServer mit 2 Kernen und 6 GB Ram und der Storage ist ein Raid 10 aus (Server-)HDDs wo noch VMs anderer Kunden liegen.
Auf diesem Server laufen:
  • Ein Mailserver bestehend aus 10 Containern oder so
  • Nextcloud bestehend aus 3 Containern
  • VPN Server, 1 Container
  • 1-2 weitere kleinere relativ statische Webdienste aus je einzelnen Containern
  • Ein Reverse Proxy der sich um Zertifikate kümmert und WAF spielt, gesamt 3 Container

"Genutzt" wird der Server bzw. die Dienste darauf konstant von 2-3 Leuten.
loadavg der letzten 15 Minuten: 0.30 at 2 Cores (0.15 per Core) und 2,4 GB Ram belegt

Wenn du also etwas Ressourcen sparen willst: Proxmox + LXCs oder direkt ein Linux + Docker dann musst nicht unnötige Betriebssysteme virtualisieren.

Ansonsten musst du definieren was du alles betreiben willst und was noch dazu kommt. Aus dem Bauch heraus würde ich sagen das jede Einsteiger CPU (ryzen 200ge oder intel g4500 oder moderner) reichen sollte, dazu 8 GB Ram und ne SSD. Hinzu kommen HDDs so viele du eben brauchst und willst.

Aber mal Hand aufs Herz: Das bisschen Email, 2-3 Webseiten und Nextcloud/Seafile/etc kannst auch auf jedem besseren NAS von der Stange betreiben zu einem vergleichbaren Anschaffungspreis aber geringerem Stromverbrauch...

Offenbar willst du das Dingen ja bei dir zuhause hin stellen, richtig? Mailserver an privatem Anschluss ist aufwendig. Außerdem: Was machst du wenn bald die Schule/Arbeit wieder los geht und/oder sich dein Basteltrieb gelegt hat? Wer kümmert sich dann um Updates? Oder fährst es dann herunter und die Kiste soll Staub ansetzen?
 
  • Gefällt mir
Reaktionen: Mickey Mouse und Sykehouse
genau, man muss ja erstmal die Ziele/Anforderungen festlegen.
wenn man viele Platten einsetzen möchte, dann ist ein NUC natürlich nicht die geeignete Wahl. Nimmt man eine 4TB USB Platte und eine weitere 8 oder 10TB für Backups (am besten noch vom System getrennt), dann reicht das aber für die meisten Dinge mehr als aus (außer man sammelt "professionell" geklaute Filme ;) ).

wenn man die Scheuklappen absetzt, dann kommt man sogar mit einem RaspberryPi extrem weit. Ich habe auch beruflich mit dem Kram zu tun und kenne natürlich auch Anforderungen, bei denen ECC, redundante Netzteile (einige an "Festnetz" an unterschiedlichen Phasen andere an USV), Fernwartung per BMC/IPMI/iLO/usw. über eigenes VLAN, redundante Netzwerk Interfaces, HW RAID Controller mit Akku gepuffertem Cache usw. usf. absolute Pflicht sind.
da kann man mal gucken, welche Dinge davon man vielleicht zumindest im Ansatz auch für den privaten Server übernimmt, aber das stimmt man eben mit seinen eigenen Anforderungen ab.
bei mir läuft halt 24/7 der NUC als "Ersatz" für den RasPi. Ich habe auch noch mehrere andere Server, u.a. auch einen mit ILO Karte "zum Spielen", der läuft aber nicht immer.
es kommt also auch darauf an, was tatsächlich 24/7 da sein muss und was "nur manchmal".

einen der größten Vorteile von VMs und Containern sehe ich gerade darin, dass man die "mal eben" umziehen lassen kann. Im privaten Umfeld muss das ja nichtmal ohne Unterbrechungen sein. Beim letzten Test (den ich persönlich mal "überwacht" habe) in der Firma, hat eine VM bei so einem Umzug von einem Host auf den anderen weniger als 10 (ich meine es waren 5) Pings verloren ;)

Man muss sich also heute kein System aufbauen, das auch noch in 10 Jahren state of the art ist. Man kann auch jetzt erstmal "klein anfangen" (natürlich nicht ganz auf Kante, sondern mit dem im Blick, was man jetzt schon weiß was umgesetzt werden soll, auch wenn es erst "morgen" ist) und in 3 Jahren überdenkt man nochmal
 
Vielen Dank für eure aufschlussreichen Antworten.

snaxilian schrieb:
Möchtest du vielleicht noch irgendwelchen grob-irgendwas-mit-Dateien-Produkte zusammen werfen?
Diesen Satz habe ich nicht verstanden. Ich möchte präferiert einen Seafile starten, um auf ihm all meine Dateien abzulegen und diese von allen Rechnern aus synchonisieren zu können.

snaxilian schrieb:
FreeNAS ist alles aber auf keinen Fall die Lösung für dich. Verwirf den Gedanken, pack ihn in eine kleine Kiste, vergrabe diese und vergiss anschließend wo du gebuddelt hast.
Oh, okay. Ich habe auch keine Ahnung von FreeNas, habe mir nur gedacht es mal aufzuzählen, in meinem Hirn (falls ich denn eins habe) war FreeNas einfach nur nen Samba-Bereitstellungs-Tool als OS.

snaxilian schrieb:
Ansonsten musst du definieren was du alles betreiben willst und was noch dazu kommt. Aus dem Bauch heraus würde ich sagen das jede Einsteiger CPU (ryzen 200ge oder intel g4500 oder moderner) reichen sollte, dazu 8 GB Ram und ne SSD. Hinzu kommen HDDs so viele du eben brauchst und willst.
Das einzigste Problem, das ich an den beiden Einsteiger-CPUs sehe ist, dass sie beide nur 2 Kerne haben. Containern wird das zwar nichts ausmachen, aber sollte ich doch VMs verwenden wollen würde das ncht so gut funktionieren.

snaxilian schrieb:
Aber mal Hand aufs Herz: Das bisschen Email, 2-3 Webseiten und Nextcloud/Seafile/etc kannst auch auf jedem besseren NAS von der Stange betreiben zu einem vergleichbaren Anschaffungspreis aber geringerem Stromverbrauch...
Das stimmt, war auch ursprünglich der Plan. Aber ich will mir das Zeugs ja selbst aufbauen, damit ich da nen bisschen Know-How bekommen kann und am Ende auch weiß, warum was genau nicht funktioniert.

snaxilian schrieb:
Offenbar willst du das Dingen ja bei dir zuhause hin stellen, richtig? Mailserver an privatem Anschluss ist aufwendig. Außerdem: Was machst du wenn bald die Schule/Arbeit wieder los geht und/oder sich dein Basteltrieb gelegt hat? Wer kümmert sich dann um Updates? Oder fährst es dann herunter und die Kiste soll Staub ansetzen?
Ja, der soll bei mir zu Hause stehen, hinter einer Fritz!Box ohne konfigurierten Port Forwards. Mein Server soll dann eine SSH-Port-Forward auf einen öffentlich gehosteten vServer machen (die Formulierung ist falsch, oder?), damit meine Daten bei mir bleiben. Außerdem ist meine Internetleitung mäßig, was aber bei den E-Mail-Anhängen von unter 25mb keinen juckt, andererseits bei den Nas-Sachen sehr wohl, die sollen sowieso im lokalen Netzwerk bleiben. Eventuell kann ich ja noch was ausmachen, dass der Server in einem Rechenzentrum steht, ich habe gehört ein Freund eines Freundes hat da nen Bereich gemietet.

Mickey Mouse schrieb:
wenn man die Scheuklappen absetzt, dann kommt man sogar mit einem RaspberryPi extrem weit.
"wenn man die Scheuklappen absetzt, dann kommt man sogar mit einem RaspberryPi extrem weit."
Einen RasPI mit Seafile lasse ich bereits laufen, der Server wäre quasi ein "Upgrade".

Mickey Mouse schrieb:
einen der größten Vorteile von VMs und Containern sehe ich gerade darin, dass man die "mal eben" umziehen lassen kann. Im privaten Umfeld muss das ja nichtmal ohne Unterbrechungen sein. Beim letzten Test (den ich persönlich mal "überwacht" habe) in der Firma, hat eine VM bei so einem Umzug von einem Host auf den anderen weniger als 10 (ich meine es waren 5) Pings verloren
+ man kann Snapshots machen, einmal vor und einmal nach der Zerstörung :D

Mickey Mouse schrieb:
Man muss sich also heute kein System aufbauen, das auch noch in 10 Jahren state of the art ist. Man kann auch jetzt erstmal "klein anfangen" (natürlich nicht ganz auf Kante, sondern mit dem im Blick, was man jetzt schon weiß was umgesetzt werden soll, auch wenn es erst "morgen" ist) und in 3 Jahren überdenkt man nochmal
Sehe ich genau so, was aber bedeutet ich sollte schon ein wenig Geld in das Mainboard investieren.

Mein Fazit mit Einschlussnahme eurer Antworten:
  • VMs sind Zeit- und Ressourcenverschwendung, ich sollte es lieber über Container machen (Docker oder LXC).
  • Mailserver an privatem Anschluss ist aufwendig, lieber auf einem vServer bei einem Anbieter machen? Wäre von meinem Plan her natürlich möglich. Auch, wenn meine Mails dann auf dem vServer liegen, aber solange ich da regelmäßig aufräume sollte ich da vielleicht auch nicht zu paranoid sein.
  • Der Nuc wäre eine Lösung, sollte ich nicht viele Festplatten benötigen.
  • Am besten ein gutes Mainboard und dann mittel bis schlechte Komponenten einbauen um das Budget klein zu halten, aber später noch upgraden zu können.

Dann würde ich mich jetzt mal umgucken und eine Liste mit Komponenten zusammenstellen. Gibt es einen für mich signifikanten Unterschied zwischen Server- und Consumermainboards? Und lohnt es sich für mich, ECC-Ram zu benutzen?
 
Zuletzt bearbeitet:
Ich kann dir nur sagen das ich jetzt schon über ein Jahr einen NUC laufen habe mit Proxmox drauf. Steckt ne 1TB SSD drinn und ne 2TB HDD für Backups. Extern nochmal ne 2TB HDD für ja "externe" Backups".
Alle meine Dienste laufen in einzelnen LXC's.
Ich würde mal sagen solange dort nichts laufen soll was die CPU tagelang zu 100% auslastet fährt man mit einem NUC ganz gut.
Mir war eben auch wichtig, klein und sparsam.

Ich nutze einen NUC7i5BNH mit 32GB Ram. 64GB sind ja mittlerweile auch möglich wo es jetzt die 32GB Riegel gibt.
 
Loomes schrieb:
Ich kann dir nur sagen das ich jetzt schon über ein Jahr einen NUC laufen habe mit Proxmox drauf. Steckt ne 1TB SSD drinn und ne 2TB HDD für Backups. Extern nochmal ne 2TB HDD für ja "externe" Backups".
Alle meine Dienste laufen in einzelnen LXC's.
Ich würde mal sagen solange dort nichts laufen soll was die CPU tagelang zu 100% auslastet fährt man mit einem NUC ganz gut.
Mir war eben auch wichtig, klein und sparsam.

Ich nutze einen NUC7i5BNH mit 32GB Ram. 64GB sind ja mittlerweile auch möglich wo es jetzt die 32GB Riegel gibt.

Danke für die Info. Ich denke tatsächlich darüber nach, mir auch einen NUC zu holen. Der sollte aber mindestens 4 Kerne haben, sollte ich doch virtualisieren wollen. Und ist es nicht so, dass man jedem Container ne Anzahl an Kernen fest zuweist, zumindest in Proxmox? Und, nebenbei, bist du dir sicher, dass dein NUC 64 GB Ram nimmt? Er hat zwar zwei DIMMs, laut Hersteller unterstützt die CPU aber nicht mehr als die 32GB.

Link: https://ark.intel.com/content/www/de/de/ark/products/95067/intel-nuc-kit-nuc7i5bnh.html

Klein und sparsam wäre zumindest auch mein Favorit, ich denke dass ich mir zwar nen anderes Modell raussuche, ich denke aber mal über einen NUC nach. Ein RAID für Datensicherheit wäre mir halt wichtig.
 
wie gesagt, erstmal sollte man sich über die Anforderungen (halbwegs) im klaren sein.
ganz ehrlich? ich verstehe den "RAM Wahnsinn" nicht so wirklich. Ok, ich habe meinen kleinen NUC inzwischen auch auf 8GB aufgerüstet (der "große" i5 läuft mit 16GB und die i7 "Server" mit 16 oder 32GB) aber eigentlich nur weil es den gerade günstig gab, Nextcloud, NAS, FHEM und ein paar andere Dinge laufen auch mit 4GB völlig problemlos.

genauso würde ich auch VMware nicht pauschal als Recourcenverschwendung ansehen, s.o. es kommt auf die Anforderungen an...

RAID liefert keine wirkliche Datensicherheit sondern nur etwas höhere Verfügbarkeit. In der heutigen Zeit würde ich bei einem 24/7 System auf SSD und vernünftige Backup Strategie setzen, da hast du mMn deutlich mehr von als von einem RAID. Die meisten HDD Ausfälle ließen sich vermeiden bzw. vorzeitig erkennen, wenn man sich das SMART Monitoring genauer ansehen würde und die entsprechenden Mails nicht in /dev/null landen würden, die Logs sieht sich ja eh niemand an.
Aber auch hier gilt: es kommt darauf an.
 
  • Gefällt mir
Reaktionen: snaxilian
cursedgrave schrieb:
jedem Container ne Anzahl an Kernen fest zuweist, zumindest in Proxmox?
Nein und das ist bei keinem mir bekannten Hypervisor so. Ja, du legst fest wie viele Ressourcen ein Container, egal ob LXC oder Docker, oder eine VM "sieht" und nutzen darf aber das ist am Ende nur relevant für den Hypervisor bei der Vergabe der Ressourcen bei Anforderung. Hast du eine CPU mit 2C4T kannst du problemlos mehrere VMs/LXCs/Container mit je 1-4 vCPUs betreiben. Die CPU wäre dann zwar mehrfach belegt aber keine virtualisierten Systeme/Programme brauchen ja nicht 100% der Zeit je 100% der CPU sondern werden sich einen Großteil der Zeit langweilen. Lediglich RAM sollte man nicht "überbuchen" aber ich stimme da @Mickey Mouse zu: Manche bzw. fast alle Leute in Foren, die das nicht hauptberuflich machen, neigen massivst zur Verschwendung und Fehleinschätzung wie viel CPU und RAM man wirklich benötigt, siehe meine beispielhafte Aufzählung oben. Für deine bisher genannten Anforderungen sollten locker 4 GB RAM reichen, nimm halt 8 wenn du dich damit besser fühlst.
cursedgrave schrieb:
war FreeNas einfach nur nen Samba-Bereitstellungs-Tool als OS
FreeNAS kann auch Daten per SMB bereit stellen, ja aber eben noch viel mehr. Es ist ein gutes System, dass vieles vereint aber für einen Großteil der Interessenten nicht die richtige Lösung da es nicht nur Vor- sondern auch Nachteile hat die viele gerne übersehen/ausblenden/ignorieren bis sie einen der Nachteile zu spüren kriegen und dann ist das mimimi groß.
cursedgrave schrieb:
Ein RAID für Datensicherheit
Nimm diese Aussage und begrabe sie bitte neben dem Gedanken an FreeNAS. Ein Raid hat je nach Konfiguration nur zwei Aufgaben: Datenverfügbarkeit erhöhen und/oder Performance erhöhen.
Erster Punkt ist nur relevant wenn das System 24x7 laufen MUSS und schützt auch nur vor Ausfall der HDD, nicht vor den unzähligen andere Faktoren (Stromausfall, Mainboard defekt, Controller/HBA defekt, Virus/Trojaner/Malware, Admin der nicht aufpasste, Switch an dem das System hängt defekt, usw. usf.). Vor all diesen Dingen schützen dich andere Arten der Hochverfügbarkeit und noch wichtiger: Ein Backup!
Zweiter Punkt sollte mit einer SSD im privaten Umfeld erledigt sein.
 
Zu RAID:
https://www.thomas-krenn.com/de/wiki/RAID#RAID_1 schrieb:
RAID 1

  • Performance: beim Schreiben ist die Performance nahezu jene einer einzelnen Festplatte, beim Lesen von größeren Datenmengen besteht die Möglichkeit von beiden Laufwerken parallel zu lesen und somit die Lese-Performance zu steigern.
  • Ausfallsicherheit: alle Daten sind vollständig gespiegelt, der Ausfall einer Festplatte führt zu keinem Datenverlust.
Seid ihr euch sicher? Ich habe das Wiki bis jetzt für sehr gut gehalten, und die Info ist da schon 'ne ganze Weile ohne Korrektur drinne...

Mickey Mouse schrieb:
wie gesagt, erstmal sollte man sich über die Anforderungen (halbwegs) im klaren sein.
ganz ehrlich? ich verstehe den "RAM Wahnsinn" nicht so wirklich. Ok, ich habe meinen kleinen NUC inzwischen auch auf 8GB aufgerüstet (der "große" i5 läuft mit 16GB und die i7 "Server" mit 16 oder 32GB) aber eigentlich nur weil es den gerade günstig gab, Nextcloud, NAS, FHEM und ein paar andere Dinge laufen auch mit 4GB völlig problemlos.
Bei dem Ram-Wahnsinn muss ich euch recht geben. Aber 4GB sind dann doch ein wenig niedrig angesetzt. Und bei den Anforderungen bin ich mir noch nicht ganz, aber schon ziemlich sicher: NAS, evtl. Mail-Server, ab und zu mal nen kleineres anderes Programm ausführen. Bei dem NUC bin ich mir immer noch nicht so sicher, ich denke dass eine USB-Verbindung nicht grade so toll ist, ich weiß nicht warum...

snaxilian schrieb:
Nein und das ist bei keinem mir bekannten Hypervisor so. Ja, du legst fest wie viele Ressourcen ein Container, egal ob LXC oder Docker, oder eine VM "sieht" und nutzen darf aber das ist am Ende nur relevant für den Hypervisor bei der Vergabe der Ressourcen bei Anforderung. Hast du eine CPU mit 2C4T kannst du problemlos mehrere VMs/LXCs/Container mit je 1-4 vCPUs betreiben. Die CPU wäre dann zwar mehrfach belegt aber keine virtualisierten Systeme/Programme brauchen ja nicht 100% der Zeit je 100% der CPU sondern werden sich einen Großteil der Zeit langweilen. Lediglich RAM sollte man nicht "überbuchen" aber ich stimme da @Mickey Mouse zu: Manche bzw. fast alle Leute in Foren, die das nicht hauptberuflich machen, neigen massivst zur Verschwendung und Fehleinschätzung wie viel CPU und RAM man wirklich benötigt, siehe meine beispielhafte Aufzählung oben. Für deine bisher genannten Anforderungen sollten locker 4 GB RAM reichen, nimm halt 8 wenn du dich damit besser fühlst.
Verstehe, also würde auch ne CPU mit 2 Cores für 8 Container ausreichen.

Angenommen, ich will mir den Server selbst zusammenbauen, was für nen Mainboard könnt ihr mir denn empfehlen? Es sollte schon einige SATA-Ports haben, eine SSD fürs System, und dann, wenn das Krenn-Wiki nicht falsch liegt auch noch zwei HDDs um die Daten zu horten. Intel / AMD ist erstmal egal, das mache ich von den Preisen abhängig.
 
Mit der CPU stimme ich hier zu. Was den RAM angeht...... Verschwendung hin oder her, gerade bei Virtualisierung willst du nicht das dir der Ram ausgeht und die Dinger alle anfangen müssen zu swapen.
Und zu empfehlen 4GB würden reichen empfinde ich als äusserst unsinnig, sorry. Steck 16GB rein für den Anfang und alles ist gut. Findest du später gefallen an der ganzen Sache und hast immer mehr Container am laufen wirste irgendwann mehr Ram brauchen und kaufst eben mehr.

Und was die 64GB im Nuc angeht, ja das wurde schon von einigen Leuten getestet. Bis runter zu ich glaube den Nuc6 läuft das wunderbar. Es steht halt überall max 32GB weil es einfach keine Module >16GB gab als die Dinger auf den Markt kamen.
 
es hat niemand "empfohlen 4GB würden reichen" (was auch immer so eine Wortkonstruktion genau bedeuten soll...).
es war nur die Aussage: man kommt mit 4GB viel weiter als die meisten Leute glauben
natürlich würde ich heute keinen "Server" mehr mit 4GB aufbauen, aber eine Plattform auszuschließen nur weil da bei 32GB Schluss ist? Das ist aus meiner Sicht bald noch blödsinniger als mit 4GB anzufangen ;)
 
  • Gefällt mir
Reaktionen: snaxilian
cursedgrave schrieb:
würde auch ne CPU mit 2 Cores für 8 Container ausreichen
Siehe Post #4 aber auf die Gefahr hin mich zu wiederholen: Es kommt drauf an WAS in den Containern läuft. Starte ich da 8x nen Tomcat mit einer aufgeblähten Java Anwendung wo der Dev faul oder ahnungslos ist und Garbage collection nicht oder falsch verwendet dann reichen da keine zwei Kerne. Startet man 8x nginx mit größtenteils statischem Inhalt wird sich die CPU weiterhin langweilen.
Du willst einen Server betreiben also musst du wissen und abschätzen können was du für konkrete Anwendungen dort betreiben willst und was diese Anwendungen dann an Ressourcen benötigen.

Ich bleibe bei meiner Meinung: Aus deinen Anforderungen geht nichts hervor, dass Selbstbau rechtfertigt bzw. notwendig macht. Hol dir ein NAS ab Mittelklasse aufwärts und lies vorher etwas zu den ausgesuchten Modellen. Die meisten davon können $Mailserver bereit stellen sowie weitere Anwendungen wie Nextcloud etc oder bieten die Nutzung von Docker direkt an.
Wenn es dir nur darum geht mal etwas auszuprobieren dann ist Kauf auch Geldverschwendung da es dann in ein paar Wochen nur Staub ansetzt oder Strom frisst. In dem Fall würde ich eher auf die je ein Jahr lang kostenlosen Angebote von AWS oder GCP (Google) oder Azure verweisen. Systeme hochfahren bei Nutzung, testen, lernen, ausprobieren und danach wieder weg schmeißen.

Wenn du längerfristig ein "Homelab" zum lernen willst: Schaff dir trotzdem ein NAS an für Datenablage und was du sonst noch so dauerhaft betreiben willst und für Testzwecke: Installiere die HyperV Rolle unter Windows oder nutze Virtualbox auf deinem PC. Man kann auch Proxmox oder andere Lösungen problemlos in einer VM laufen lassen wenn es darum geht etwas auszuprobieren.
 
Zurück
Oben