Von Windows Server auf Linux, so machbar? | LUKS | Remote | Cloud | VPN | ...

BartS

Commodore
Registriert
Apr. 2008
Beiträge
4.955
Hallo zusammen,

kurz vorab, dieser Start-Post wurde komplett überarbeitet da ich die bisherigen
Hilfen nicht ganz verstanden habe und zu viele zusammenhänge mit Windows
gesucht habe.


Ich bin ein Linux-Anfänger und habe letztlich keine Ahnung von der ganzen Materie.
Daher bitte ich um Nachsicht wenn ich auf der Leitung stehe und euch nicht verstehe.
Danke.

Ich habe hier eine Grafik erstellt, welche mein Vorhaben für den Umbau
meines Homeservers aufzeigt. Darunter ist eine Beschreibung.

Server_NEU.jpg
[zum Vergrößern anklicken]

Der Server soll auf jeden Fall mit Linux laufen, dabei scheint es aber verschiedene
Vorlieben zu geben. Mir ist es dabei am wichtigsten das der Server nach dem
Einrichten stabil läuft und keine durchgehenden Wartungen benötigt.

Die Datenträger sind wie folgt geplant
  • SSD_1 - OS* | Proxmox, UbuntuServer, ...
  • SSD_2 - Container** & VM** für Programme | Plex, Nextcloud, Downloader | LUKS!
  • HDDs - Daten | LUKS!
Folgender Ablauf beim Start, Neustart oder Stromausfall des Servers ist geplant
(dass das nur selten gemacht werden muss ist klar, muss aber leider ab und an sein)
  1. Server fährt mit Linux auf der SSD_1 hoch, startet automatisch (ohne Login)
  2. Remote-Desktop*** startet, um über diesen auf den Server zuzugreifen
  3. Linux soll den Desktop sperren, damit keine mehr einen Zugriff hat
  4. SSD_2 und HDDs werden durch Passworteingabe via Remote per Hand entsperrt
Fußnoten
* welches OS ist hier zu empfehlen? (Proxmox, UbuntuServer, ...)
** welche Container und VM sind hier zu empfehlen?
*** welcher Remote-Desktop ist zu empfehlen? (Proxmox, ...)


Nachdem der Server nun läuft, und auf diesen via Remote zugegriffen werden kann,
sollen folgende Anwendungen in einem Container / einer VM gestartet werden.

Downloader
Der "Downloader", werden z.B. per Browser-Plugin Dateien hinzugefügt,
welche dieser herunterlädt. Diese Dateien müssen dann entsprechend von Hand
auf die Datenträger verteilt werden.
> Das ist doch via Remote-Verbindung oder WebUI machbar?

Nextcloud & Plex
Die Dateien/Streams der Nextcloud/Plex sollen via Smartphone, Notebook und PC
verfügbar sein. Dafür benötigt Nextcloud/Plex einen Zugriff auf das Internet,
am besten per VPN.
> VPN bevor es ins Internet geht, setzt man da was auf dem Server auf,
oder benötigt man da einen extra VPN-Anbieter?


Meine Fragen zu meinen Vorhaben sind nun folgende
  1. Datenträger | Aufgrund der benötigten Remote-Verbindung steht
    für mich fest das es wie im "Ablauf" angegeben aufgebaut sein muss.
    Sprich SSD_1 bleibt unverschlüsselt um das OS automatisch zu starten.
    SSD_2 und die HDDs werden nach der erfolgreichen Remote-Verbindung
    von Hand entsperrt.
    > Das müsste doch so passen (für den Anfang, als Anfänger)?
  2. Ablauf | Der Ablauf, soll so aussehen sollte was schief laufen und der
    Server müsste Neugestartet werden. Updates werden dann Live
    aufgespielt und erfordern keinen Neustart, soweit bin ich mitgekommen.
    > Ist der Ablauf so in Ordnung (für den Anfang, als Anfänger)?
  3. VPN | Bisher habe ich immer VPN-Anbieter benutzt (PureVPN, ...).
    Sofern ich das aber richtig verstanden habe kann man den VPN über
    den Server aufsetzen...
    > Wie mache ich das am besten?
  4. SSH | Ist ja dafür da um die Internet-Verbindung abzusichern.
    > Wie richte ich das am besten ein?
    > Braucht das nur der Server, alle Container/ VM oder auch der Client-PC?
_________________________

Ich bedanke mich hiermit erstmal bei @Bagbag, @Iapetos & @Elcrian
die sich bisher mit meiner Unwissenheit herumgeschlagen haben.

Ab Post #23 geht es dann mit dem "neuen" Eingangspost weiter.
 
Zuletzt bearbeitet:
BartS schrieb:
Auf einem Linux Server? Lass das sein und lerne gleich mit einem Terminal umzugehen.

Containerisierung ist wohl Geschmackssache, aber ich nutze das wann immer möglich. Einfach nur ein docker run -v data:/data nextcloud für ein laufendes Nextcloud hat schon was.
Performanter sind container nicht, die haben praktisch die selbe Performance. Sicherer sind sie dagegen.

BartS schrieb:
Welche Einstellungen müssen bei Linux vorgenommen werden, damit das System optimal geschützt ist?
Das ist weniger Linux und mehr Anwendung. In nextcloud sicherer Passwörter nutzen, einen reverse proxy mit TLS davor schalten (schau dir mal caddy Server an)...

Ansonsten am besten SSH-Keys (und password auth deaktivieren) nutzen und natürlich eine Firewall einrichten.

Wieso verschlüsselst du Ubuntu nicht gleich mit?


BartS schrieb:
Bevor ich auf ein komplett neues System umsteige, mache ich einen Zwischenschritt und möchte gerne von Windows Server auf Ubuntu 18.04.1 LTS umsteigen.
In wie fern ein Zwischenschritt? Ist das nicht ein komplett neues System.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Old Knitterhemd
Bagbag schrieb:
Lass das sein und lerne gleich mit einem Terminal umzugehen.
Ich hatte beides auf der VirtualBox installiert und fand Ubuntu halt "schöner"
was die Bedienung angeht. Zudem dachte ich Ubuntu-Server ist wäre nur sinnvoll
sofern man mit VMs arbeitet, oder wie soll man das sonst effektiv bedienen?

Bagbag schrieb:
Containerisierung ist wohl Geschmackssache, aber ich nutze das wann immer möglich. Einfach nur ein docker run -v data:/data nextcloud für ein laufendes Nextcloud hat schon was.
Performanter sind container nicht, die haben praktisch die selbe Performance. Sicherer sind sie dagegen.
Okay, muss ich dann mal ausprobieren.

Bagbag schrieb:
In nextcloud sicherer Passwörter nutzen, einen reverse proxy mit TLS davor schalten (schau dir mal caddy Server an)...

Ansonsten am besten SSH-Keys (und password auth deaktivieren) nutzen und natürlich eine Firewall einrichten.
Sicheres Passwort ist klar, "reverse Proxy" & "TLS" muss ich mir mal anschauen.

Bagbag schrieb:
Wieso verschlüsselst du Ubuntu nicht gleich mit?
Da kommt das Problem des Remote-Desktop mit sich. Wenn der Server dann
z.B. ausfällt oder ähnliches und Neustarten muss, dann habe ich das Problem
mit der Passworteingabe, das geht ja per Remote nicht. Oder sehe ich das Falsch?

Bagbag schrieb:
In wie fern ein Zwischenschritt? Ist das nicht ein komplett neues System.
Das war auf meinen letzten Beitrag bezogen.
Ich würde gerne meine Hardware austauschen, was bei mir als neues System zählt.
 
BartS schrieb:
Da kommt das Problem des Remote-Desktop mit sich. Wenn der Server dann
z.B. ausfällt oder ähnliches und Neustarten muss, dann habe ich das Problem
mit der Passworteingabe, das geht ja per Remote nicht. Oder sehe ich das Falsch?
Das funktioniert prinzipiell mit einer Anpassung des initramfs. Ist natürlich wieder etwas komplizierter. Alternativ kannst du auch den LUKS-Header auf einen USB-Stick ablegen. Damit würden die Datenträger nach einem Neustart entschlüsselt, wenn der USB-Stick eingesteckt ist.
 
@Iapetos das mit 'initramfs' muss ich mal genauer anschauen und per
VirtualBox probieren. Das mit dem USB-Stick halte ich aber nicht gerade
sinnvoll, da kann man doch gleich das Passwort weglassen, oder nicht?
 
BartS schrieb:
Ich hatte beides auf der VirtualBox installiert und fand Ubuntu halt "schöner"
was die Bedienung angeht. Zudem dachte ich Ubuntu-Server ist wäre nur sinnvoll
sofern man mit VMs arbeitet, oder wie soll man das sonst effektiv bedienen?
Beides? Ubuntu Server ist dann sinnvoll, wenn es kein Enduser gerät ist, auf dem gesurft, gemailt oder gespielt wird. Halt wie der Name schon sagt, wenn es ein Server ist, der Dienste bereitstellt.

BartS schrieb:
Sicheres Passwort ist klar, "reverse Proxy" & "TLS" muss ich mir mal anschauen.
TLS = HTTPS. Das ganze per Reverse-Proxy, damit man die Zertifikate und die Terminierung an zentraler Stelle hat und das nicht für jeden Dienst einzeln verwalten muss. Mit Caddy ist das super easy.

BartS schrieb:
Da kommt das Problem des Remote-Desktop mit sich. Wenn der Server dann
z.B. ausfällt oder ähnliches und Neustarten muss, dann habe ich das Problem
mit der Passworteingabe, das geht ja per Remote nicht. Oder sehe ich das Falsch?

Aufgrund
BartS schrieb:
Zudem dachte ich Ubuntu-Server ist wäre nur sinnvoll
sofern man mit VMs arbeitet, oder wie soll man das sonst effektiv bedienen?
schätze ich, dass du Ubuntu direkt auf dem Host installieren willst? Hier empfehle ich dir das in ner VM zu machen, bspw mit Proxmox als Hypervisor. So hast du eine sehr einfache Möglichkeit Backups und Snapshots (sinnvoll für Experimente) anzulegen, kannst, wenn du mal andere sachen testen willst, neue VMs erstellen und mehrere Dienste schöner voneinander Trennen (bspw auch mit LXC-Containern) und in diesem konkreten Fall die Passwort Eingabe ganz einfach über die Display-Ausgabe der VM durchführen.

BartS schrieb:
Das mit dem USB-Stick halte ich aber nicht gerade
sinnvoll, da kann man doch gleich das Passwort weglassen, oder nicht?
Der soll ja dann auch nur drinstecken, während du den Server neustartest. Danach kommt er wieder raus.
Und theopraktisch könnte man auch direkt vor dem Neustart den Key bspw. auf der boot Partition ablegen, der dann beim booten zum entschlüsseln genutz wird, und diesen nach dem Neustart (am besten automatisiert) wieder löschen. So kannst du ihn auch aus der Ferne neustarten.

BartS schrieb:
Das war auf meinen letzten Beitrag bezogen.
Ich würde gerne meine Hardware austauschen, was bei mir als neues System zählt.
Ah, den hatte ich nicht gesehen.
 
Zuletzt bearbeitet:
Bagbag schrieb:
Jaein, ich hatte zwei verschiedene Boxen erstellt und jeweils Ubuntu & Ubuntu Server installiert.

Bagbag schrieb:
Ubuntu Server ist dann sinnvoll, wenn es kein Enduser gerät ist, auf dem gesurft, gemailt oder gespielt wird.
Das ist mir schon klar, selbst wenn man solche Programme braucht,
geht das ja über eine VM mit entsprechendem OS und GUI.

Mir ging es hier um die Bedienung, da ich z.B. "Plex" aufgrund von
Hardwarebeschleunigung durch eine Nvidia Quadro GPU auf direkt
auf der Systemplatte laufen lassen muss und eine VM/Docker nicht
machbar ist (zumindest nicht ohne Linux-Fachwissen).

Bagbag schrieb:
TLS = HTTPS. Das ganze per Reverse-Proxy [...]. Mit Caddy ist das super easy.
Dann schau ich mir Caddy mal an, danke.

Bagbag schrieb:
schätze ich, dass du Ubuntu direkt auf dem Host installieren willst?
Ubuntu wird auf dem Server bei mir zuhause auf die "120GB_SSD" installiert.
Die Programme und VM für sollen dann auf der "500GB_SSD" laufen.
Das Problem was ich dahingehen habe, habe ich weiter oben beschrieben.

Bagbag schrieb:
Der soll ja dann auch nur drinstecken, während du den Server neustartest. Danach kommt er wieder raus.
Das Problem ist aber das ich nicht bei jedem Neustart zuhause sein kann,
wodurch der USB-Stick wieder seinen nutzen verliert. Generell kann man
sagen das Server ausschließlich via Remote-Desktop bedient werden soll
(abgesehen vom Aufsetzen, Wartungen und Upgrades).

Bagbag schrieb:
Und theopraktisch könnte man auch direkt vor dem Neustart den Key bspw. auf der boot Partition ablegen, der dann beim booten zum entschlüsseln genutz wird, und diesen nach dem Neustart (am besten automatisiert) wieder löschen.
Hört sich ganz gut an. Müsste man halt vor jedem Neustart beachten (aus der Ferne).

Wenn ich es einfach so handhaben würde wie zu Beginn geschrieben,
sprich das die OS-SSD "120GB_SSD" unverschlüsselt bleibt und nur
die Programm- und VM-SSD "500GB_SSD" verschlüsselt ist, gibt es dann
irgendwelche Probleme/ Schwierigkeiten/etc.?

Den einzigen Fall den ich mir dabei vorstellen könnte wäre ein Einbruch mit
Diebstahl, wo der Einbrecher dann auf die OS-SSD zugreifen kann, aber auf
alle anderen Daten, welche verschlüsselt sind könnte er ja nichts anstellen
(Strom weg -> Daten verschlüsselt).
 
BartS schrieb:
Mir ging es hier um die Bedienung, da ich z.B. "Plex" aufgrund von
Hardwarebeschleunigung durch eine Nvidia Quadro GPU auf direkt
auf der Systemplatte laufen lassen muss und eine VM/Docker nicht
machbar ist (zumindest nicht ohne Linux-Fachwissen).
docker run --device=/dev/dri:/dev/dri - so einfach lässt sich Hardware in einen Container durchreichen. Ansonsten gäbe es da noch offiziell von Nvidia eine Doku: https://devblogs.nvidia.com/nvidia-docker-gpu-server-application-deployment-made-easy/.
In wie weit man die aufwendigere Variante von Nvidia (im Vergleich zur --device option) braucht kann ich mangels Erfahrung mit diesem konkreten Fall nicht sagen, aber auf Reddit findet man welche, denen für Plex mit Nvidia --device ausreicht.

Passthrough mit Proxmox (KVM) ist zwar etwas mehr aufwand, aber auch nicht weiter schwer: https://pve.proxmox.com/wiki/Pci_passthrough.

BartS schrieb:
Das Problem ist aber das ich nicht bei jedem Neustart zuhause sein kann
Vermutlich denkst du da noch zu viel an Windoof. Unter Linux ist es mittlerweile möglich das gesamte System (inklusive Kernel) ohne Neustart aktuell zu halten. Dienste kann man einfach neustarten, geladene Kernel Module kann man einfach updaten, dann entladen und neu laden und der Kernel unterstützt Live-Patching (ich selbst nutze das (noch) nicht, kann dir daher nicht sagen in wie vielen Fällen das klappt). Und selbst wenn du Live-Patching nicht nutzt, so häufig gibt es dann auch keine Kernel Updates, dass du die nicht auf die Zeiten planen kannst, in denen du zuhause bist.

Herausfinden welche Dienste ein neustart brauchen kannst du bspw. mit needrestart - das meckert dann automatisch direkt nach einem update und startet dir sogar alles (oder das ausgewählte) automatisch neu, wenn du das willst.

BartS schrieb:
Müsste man halt vor jedem Neustart beachten (aus der Ferne)
Du könntest den reboot Befehl einfach überschreiben und dich vor dem Neustart fragen lassen, ob du die Datei anlegen lassen willst.
Die einzigen Szenarien die mir grad spontan einfallen, bei denen das versagen würde, sind Kernel-Panics und Stromausfall. Aber auch dafür gäbe es ja Lösungen, die man kombinieren könnte - siehe oben der Kommentar von @Iapetos

BartS schrieb:
Wenn ich es einfach so handhaben würde wie zu Beginn geschrieben,
sprich das die OS-SSD "120GB_SSD" unverschlüsselt bleibt und nur
die Programm- und VM-SSD "500GB_SSD" verschlüsselt ist, gibt es dann
irgendwelche Probleme/ Schwierigkeiten/etc.?
Betriebstechnische? Nein.
Sicherheitstechnische? Ja.
In der realen Welt relevante Sicherheitstechnische? Eher nicht - vorausgesetzt du speicherst alle Sicherheitsrelevanten Konfigurationen mit Passwörtern etc. (die meist unter /etc sind) auf einer der verschlüsselten Partitionen.
 
Bagbag schrieb:
docker run --device=/dev/dri:/dev/dri - so einfach lässt sich Hardware in einen Container durchreichen. Ansonsten gäbe es da noch offiziell von Nvidia eine Doku: https://devblogs.nvidia.com/nvidia-docker-gpu-server-application-deployment-made-easy/.
In wie weit man die aufwendigere Variante von Nvidia (im Vergleich zur --device option) braucht kann ich mangels Erfahrung mit diesem konkreten Fall nicht sagen, aber auf Reddit findet man welche, denen für Plex mit Nvidia --device ausreicht.

Passthrough mit Proxmox (KVM) ist zwar etwas mehr aufwand, aber auch nicht weiter schwer: https://pve.proxmox.com/wiki/Pci_passthrough.
Wunder mich gerade irgendwie dass das so einfach gehen soll,
so habe ich extra im Plex-Forum nachgefragt und von einem Mitarbeiter
von Plex sagen lassen dass das nicht möglich sei ohne extra Anpassungen
für jedes System, allgemein könne man da gar nichts machen.

Mal schauen, vielleicht kann ich das irgendwie über die VirtualBox
hinbekommen. Wenn es klappt geht natürlich alles in den Container,
bzw. eine VM.

Bagbag schrieb:
Vermutlich denkst du da noch zu viel an Windoof.
Natürlich denke ich da eher an Windows*, so habe ich mit Linux
ja noch nicht viel am Hut gehabt :). Das mit den "Live-Updates" habe
ich auch schon gelesen. Würde ja das Hauptproblem wieder beseitigen.

*aktuelles Beispiel: Dienste funktionieren auf dem Windows Server ohne Probleme,
das System an sich ist aber so langsam und instabil das ich mich gerade nicht traue
einen Neustart zu machen, auch wenn der bitter nötig wäre, alles aufgrund der
kompletten Verschlüsselung aller Datenträger.


Bagbag schrieb:
Du könntest den reboot Befehl einfach überschreiben und dich vor dem Neustart fragen lassen, ob du die Datei anlegen lassen willst.
Die einzigen Szenarien die mir grad spontan einfallen, bei denen das versagen würde, sind Kernel-Panics und Stromausfall. Aber auch dafür gäbe es ja Lösungen, die man kombinieren könnte - siehe oben der Kommentar von @Iapetos
Hmm.. ja, müsste ich mir nochmal genauer anschauen, das von @Iapetos
hatte ich gestern kurz probiert habe dann wieder sein lassen :/.

Bagbag schrieb:
Betriebstechnische? Nein.
Sicherheitstechnische? Ja.
In der realen Welt relevante Sicherheitstechnische? Eher nicht - vorausgesetzt du speicherst alle Sicherheitsrelevanten Konfigurationen mit Passwörtern etc.
Dann muss ich mir überlegen wie ich das ganze aufziehe.
Sollte ich es vorab in de VirtualBox hinbekommen werde ich das auf
dem Server auch übernehmen, wenn nicht werde ich es wohl erstmal
mit meinem Weg probieren und zudem alle relevanten Sachen aus
dem "/etc" Bereich mit Sichern.

Danke euch mal bisher, top Service :daumen:
 
Zuletzt bearbeitet: (HDD fragen)
Mir ist gerade noch was bzgl. der Daten-HDDs eingefallen.

> Wie schaut es eigentlich mit der Formatierung aus, aktuell sind alle per NTFS formatiert, welche Formatierung ist den für Linux zu empfehlen (Dateien zt. >20GB)?

> Sollte NTFS okay sein, habe ich irgendwelche Nachteile/ Einschränkungen wenn ich die HDDs aus dem Windows Server wieder ohne Formatierung hernehme (abgesehen von der Verschlüsselung)?

> Wenn ich weiterhin auf Veracrypt setzen sollte (also auch unter Linux), könnte ich dann einfach wieder diese HDDs hernehmen ohne diese zu formatieren. Sprich, werden diese erkannt/ angenommen (sofern NTFS passt)?

Danke :)
 
Unter Linux ist das meist genutzte Dateisystem ext4. Auch viel genutzt wird XFS und je nach Einsatzzweck ZFS. Btrfs gibt es auch, aber wie da der aktuelle Stand bezüglich Robustheit ist weiß ich nicht.

Linux kann zwar an sich auch NTFS, aber einerseits kann NTFS einige essentielle Features nicht (z.B. Berechtigungen) und andererseits ist der Support aus Treiber und Tool Sicht weit schlechter. Wenn das Dateisystem bspw. durch ein Stromausfall kaputt geht, hast du es mit NTFS schwerer als mit ext4. Ext4 wird automatisch beim booten repariert (sofern möglich), bei NTFS musst du erst mal schauen warum dein System die Partition nicht mehr mounted und dann manuell reparieren.

VeraCrypt ist auch unter Linux kein Problem, aber für Partitionen, die unter keinem anderen OS eingebunden werden müssen, nimmt man in der Regel LUKS.
 
@Bagbag
Hatte zwar was von ext4 und XFS gelesen, wusste aber nicht welches nun "besser" ist.

Das mit Veracrypt war eher die Frage in Verbindung mit NTFS.
Hatte irgendwie gehofft mir diese Zeit einsparen zu können.

Naja, dann mache ich es halt gleich richtig ;).

vielen Dank für die Antwort :)
 
ext4.
NTFS geht via FUSE. https://wiki.archlinux.org/index.php/NTFS-3G
Ist kein Kernel-Modul by default, deine Fähigkeit das System zu nutzen hängt daher von einem externen, proprietären Modul ab.

Veraycrypt geht auch unter Linux. Ich hab ein paar alte Archive die ich unter... Vista? XP? erstellt habe und die laufen sowohl unter Arch als auch MacOS. Warum du nicht LUKS verwenden wolltest erschliesst sich mir jedoch nicht.

Live Kernel Updates gehen seit Kernel 4.0 und haben mir bisher nie Probleme bereitet.

Zum Thema "Remote Desktop" wurde ja bereits einiges gesagt, aber du kannst - wenn umbedingt nötig - einfach selber einen X11 aufsetzen und dann via ssh -x einen Passthrough nutzen. Ist in seltenen Fällen mal nützlich, allerdings selten für einen kompletten Desktop.

Bzgl. Remote-Access und Sicherheit, Wireguard (https://wiki.archlinux.org/index.php/WireGuard), Key-Auth, iptables, Router-Firewall für Port 22 und was immer Wireguard braucht.
 
@Elcrian
dann wird es wohl ext4 werden. Hab auch schon was zu ZFS und XFS gelesen,
soll aber eher speziell sein und für bestimmte Distributionen zugeschnitten.

Das mit Veracrypt war eher auf das NTFS bezogen, da ich aktuell Veracrypt nutze.
Für Linux wird es dann höchstwahrscheinlich LUKS werden, da ich ja sowieso alles
neu machen muss.

Live Updates werden eingeschalten.

Remote Desktop wird vermutlich AnyDesk bleiben, da ich damit sehr gut zurech
komme und dahingehen nicht viel ändern würde.

Wireguard für VPN muss ich mir anschauen, danke.
Das Problem dürfte aber der VPN-Anbieter sein, da dieser öfter mal ausfällt.
Muss da erstmal ein Lösung zu finden. Bisher wird das per Hand gelöst,
sprich Programm öffnen, VPN anschalten, Remote Desktop öffnen und verbinden,
Remote Desktop wieder schließen, VPN ausschalten.
 
BartS schrieb:
Remote Desktop wird vermutlich AnyDesk bleiben, da ich damit sehr gut zurech
komme und dahingehen nicht viel ändern würde.
:confused_alt:

Tu dir ein Gefallen und lass das sein. Am Ende wirst du sowieso das meiste über die Konsole machen müssen. Und da ist eine einfache SSH-Session wesentlich schneller, sicherer und angenehmer als ein Terminal über einen Remote Desktop.

Was magst du denn über den Desktop machen?
 
Bagbag schrieb:
:confused_alt: [...]
Was magst du denn über den Desktop machen?
Ich hätte halt über AnyDesk auf den Server/ die verschieden VM/Container
zugegriffen um damit die Daten für Plex, Nextcloud etc. zu verwalten.

Oder verstehe ich da was falsch bei der Bedienung :(
(Mach es halt aktuell so auf Windows und dachte das geht dann mit Ubuntu ähnlich).
 
Was genau willst du da wie verwalten?

VMs/Container verwaltet man im Idealfall bspw. über Proxmox (Webinterface + Terminal) und Docker Container über Portainer (Webinterface) oder das Terminal.

Auf die Bildschirmausgabe der VMs greift man bspw. über SPICE oder noVNC zu (beides direkt über Proxmox aufrufbar), aber das braucht man da auch nur zur Installation. Danach direkt auf die VMs über SSH, außer bei Windoof natürlich.

Ja, du verstehst da etwas falsch: Linux ist nicht Windoof. Keine einzige Server-Distribution hat von Haus aus ein Desktop installiert - nicht ohne Grund.

Dateien verwaltest du über das Terminal: mkdir mv cp rm.
 
Bagbag schrieb:
Was genau willst du da wie verwalten?
Wenn ich mir Musik kaufe, lade ich diese direkt über den Server runter.
Diese muss dann in das passende Archiv verschoben werden.
Aktuell handhabe ich das über den Virtual Desktop.

Bagbag schrieb:
Ja, du verstehst da etwas falsch: Linux ist nicht Windoof. Keine einzige Server-Distribution hat von Haus aus ein Desktop installiert - nicht ohne Grund.
Das ist mir schon klar, so wie Ubuntu mit dem GUI aufgebaut ist dachte
ich mir das man das ähnlich handhaben kann.

Ich muss schauen wie ich das in der kurzen Zeit wo ich habe hin bekomme.
Kann Ubunut-Server samt Container/ VM erst vor Ort testen da das mit der
VirtualBox nicht funktionieren mag (vielleicht liegst es auch an mir).
 
BartS schrieb:
Wenn ich mir Musik kaufe, lade ich diese direkt über den Server runter.
Diese muss dann in das passende Archiv verschoben werden.
Bash:
cd /path/to/archive
wget "https://domain.tld/song.mp3?auth_code=abcdefg12345"


BartS schrieb:
Das ist mir schon klar, so wie Ubuntu mit dem GUI aufgebaut ist dachte
ich mir das man das ähnlich handhaben kann.
Kannst du, aber außer Angst vor Änderung und Lernen gibt es kaum ein Grund dazu.

BartS schrieb:
Kann Ubunut-Server samt Container/ VM erst vor Ort testen da das mit der
VirtualBox nicht funktionieren mag (vielleicht liegst es auch an mir).
Wo hakt es denn?
 
Bagbag schrieb:
Das in der VirtualBox keine VMs gehen, sofern ich das im Netz richtig gelesen habe.
Und auf meinen Server habe ich erst in ~2.Wochen wieder direkten Zugriff :P.
 
Zurück
Oben