News Canonical: Ubuntu 16.04 LTS Xenial Xerus Beta mit Kernel 4.4

Schade, dass Ubuntu immer mehr eigene Wege geht statt Debian aber mit aktuelleren Paketen zu bleiben.

Ansehen werde ich es mir schon aber es wird wohl kaum auf Dauer genutzt werden...
 
-Ps-Y-cO- schrieb:
Was macht ihr denn wenn LTS support ausgelaufen ist?
System neu installieren auf ein neues Ubuntu mit neuen Support?
RR stell ich mir halt bequem vor... Einmal einrichten und 30 Jahre ruhe haben quasi


Also beim ersten Mini-Ubuntu-Kurztesten im letzten Jahr hab ich gerade einmal 20 Min. gebraucht, dann war Ubuntu installiert, daher wäre mir das völlig schnurz. Einmal alle 7-10 Mon. mach ich mein Win eh komplett neu (bzw. altes Backup drauf -> ist quasi wie komplett neu installiert - nur noch die letzten Updates drauf und aus die maus)


Photon schrieb:
@Goatman: Wenn du genug RAM hast (8GB oder mehr) dürfte die VM-Variante eigentlich klappen, sonst Dualboot. Am besten einfach mal testen und schauen, ob die Leistung der VM passt.

Hab 8 GB (siehe Signatur, da steht mein kompl. System) :) Dank Dir schonmal für den Tip... :) mal schauen, vielleicht erstmal mitner VM probieren. Wäre die erste Frage schonmal geklärt ...
 
Goatman schrieb:
Also beim ersten Mini-Ubuntu-Kurztesten im letzten Jahr hab ich gerade einmal 20 Min. gebraucht, dann war Ubuntu installiert, daher wäre mir das völlig schnurz. Einmal alle 7-10 Mon. mach ich mein Win eh komplett neu (bzw. altes Backup drauf -> ist quasi wie komplett neu installiert - nur noch die letzten Updates drauf und aus die maus)

Zum kurz Antesten ist es natürlich egal, ob RR oder nicht, aber wenn man ein System produktiv nutzt, dann sammeln sich da installierte Pakete, System- und Benutzereinstellungen sowie Benutzerdaten an, um die man sich bei einer Neuinstallation kümmern müsste. Eine externe /home-Partition macht das zwar einfacher, aber zum Beispiel die installierten Pakete müsste man sich wieder zusammensuchen. Da finde ich RR-Distro schon sehr angenehm, die man beliebig lang ohne Neuinstallation nutzen kann.
 
Photon schrieb:
Zum kurz Antesten ist es natürlich egal, ob RR oder nicht, aber wenn man ein System produktiv nutzt, dann sammeln sich da installierte Pakete, System- und Benutzereinstellungen sowie Benutzerdaten an, um die man sich bei einer Neuinstallation kümmern müsste. Eine externe /home-Partition macht das zwar einfacher, aber zum Beispiel die installierten Pakete müsste man sich wieder zusammensuchen. Da finde ich RR-Distro schon sehr angenehm, die man beliebig lang ohne Neuinstallation nutzen kann.

+1
This!
Das ist ebenso meine Meinung
Deswegen ja meine frage :)
 
Photon schrieb:
Zum kurz Antesten ist es natürlich egal, ob RR oder nicht, aber wenn man ein System produktiv nutzt, dann sammeln sich da installierte Pakete, System- und Benutzereinstellungen sowie Benutzerdaten an, um die man sich bei einer Neuinstallation kümmern müsste. Eine externe /home-Partition macht das zwar einfacher, aber zum Beispiel die installierten Pakete müsste man sich wieder zusammensuchen. Da finde ich RR-Distro schon sehr angenehm, die man beliebig lang ohne Neuinstallation nutzen kann.

ehmm.. sorry, aber was meinst Du genau mit RR ? :) mir sind leider solche Abk. nicht so geläufig ;)

Unter Win hab ich immer die wichtigsten Setups separat gespeichert, dann muss ich mir die nicht neu zusammensuchen, oder speichere mir die Download-Links, bei CB hier findet man unter Downloads eh alles total easy, was man so braucht.

Kann man sowas nicht unter Linux auch machen ? Es müsste doch einfache (primitive) Methoden geben, wie man sich da spez. Backups anlegen kann, wie z.B. erstellte Profile, Einstellungen, separate Speicherung von Paketen (man braucht ja bei Linux glaub ich keine Setup-Dateien) etc.

Was beinhaltet genau eine /home-Partition und was würde das einem bringen, die extern zu machen? :)


-Ps-Y-cO- schrieb:
+1
This!
Das ist ebenso meine Meinung
Deswegen ja meine frage :)

hmm.... :)
 
Goatman schrieb:
ehmm.. sorry, aber was meinst Du genau mit RR ? :) mir sind leider solche Abk. nicht so geläufig ;)

Sorry, RR sollte Rolling Release heißen, also eine Distribution, die ohne große Systemupdates auskommt sondern einfach laufend die Pakete aktualisiert.

Goatman schrieb:
Kann man sowas nicht unter Linux auch machen ? Es müsste doch einfache (primitive) Methoden geben, wie man sich da spez. Backups anlegen kann, wie z.B. erstellte Profile, Einstellungen, separate Speicherung von Paketen (man braucht ja bei Linux glaub ich keine Setup-Dateien) etc.

Was beinhaltet genau eine /home-Partition und was würde das einem bringen, die extern zu machen? :)

Bei Linux geht das eigentlich noch einfacher, da kann man sich die Liste der installierten Pakete ausgeben lassen, sie speichern und die Pakete dann im neuen System mit einem Befehl installieren. In /home liegen alle Benutzereinstellungen und -daten (zum Beispiel die Konfiguration des Desktops, des Panels oder Docks, die Einstellungen aller Programme usw. sowie die Ordner "Dokumente", "Bilder", "Musik" usw.), wenn man diesen Ordner auf eine externe Partition auslagert, dann kann man diese Partition beim Neuinstallieren ins frische System einbinden und hat alle seine Daten und Einstellungen direkt wieder.
 
Goatman schrieb:
Da ich noch auf Win angewiesen bin (ein paar div. "kleine" Programme und welche für die Bildbearbeitung, aber kein CAD) wollte ich fragen, was nun besser ist...? Sollte ich ein Dualboot anvisieren, wo ich zwischen den Systemen hin- und herwechseln kann, oder wäre ein virtuelles Laufwerk besser, in dem ich dann Win7 starten kann?
Mit einer virtuellen Maschine machst du nichts falsch, wenn die Programme nicht grafikintensiv sind. Das ist deutlich einfacher als ein Dualboot.

Goatman schrieb:
Da ich nur eine kleine SSD habe (128 GB) und Win allein schon 50 GB verschlingt, wäre der Einbau einer zweiten 500 GB HDD intern vielleicht besser, man könnte ja vielleicht auf die SSD Ubuntu inst. und die HDD in 2 Partitionen unterteilen, auf der zweiten dann Daten und auf die erste Win7. Die SSD bleibt komplett Ubuntu vorbehalten.
Wenn du die HDD schon zur Verfügung hast, kann ich dir folgende Aufteilung empfehlen:

  • SSD
    • /
    • /boot
  • HDD
    • /home
    • swap
Damit schlägst du zwei Fliegen mit einer Klappe - du bootest von der schnellen SSD und legst alle systemrelevanten Daten dort ab, deine persönlichen, nicht geschwindigkeitskritischen Daten bleiben auf der HDD, diese kannst du zudem separat verschlüsseln.

Goatman schrieb:
Und wie wäre die CPU-Auslastung, würde eine VM zu viel Rechnerleistung verschlingen? Oder ist das eher unproblematisch?
Die virtuelle Maschine bekommt genau die Anzahl an Kernen, die du ihr zuteilst.

Goatman schrieb:
Meine zweite Frage ist, ist es sinnvoll die zweite Partition auf der HDD zu verschlüsseln mit Truecrypt, o.ä. oder ist das nicht wirklich notwendig? Unter Win würd ich wohl nie eine 2. Platte einbauen, die ständig in Betrieb ist, wo ich dann private Daten drauf speichere. Wenn 2. Platte dann nur extern, aber nicht intern im permanentem Betrieb.

Wie ist das bei Linux ?
Sinnigerweise verschlüsselst du bereits bei der Installation des Betriebssystems die ganze Festplatte mittels dmcrypt. Beim Hochfahren wirst du nach dem Kennwort gefragt, damit wird die komplette verschlüsselte Partition geöffnet.
 
Jeder soll mit seiner (Frei)Zeit machen was er will aber ein für wen ist denn Rolling Release?

Als Programmierer habe ich gerne ein Release nach dem anderen rausgehauen weil ich einerseits keine Lust hatte, selbst Tests zu fahren und es leid war mühsam gesendete Paches einzupflegen weil sie für eine ältere Version war.

Bei Rolling Releases hätte man beide Nachteile vereint:
Die Programme sind weniger getestet und verwertbare Feedbacks kommen auch nicht weil die wenigsten Nutzer wenn ein Programm als Paket angeboten wird kaum die Mühe machen wird auch die Sourcen samt Dev-Kit zu installieren, um bei der Fehlersuche zu helfen.

Bei mir beschränkte sich die Interesse immer nur auf wenige Pakete. Die habe ich als Source.tar.gz heruntergeladen und selbst kompiliert. Bei Trivialitäten habe ich die Bugs selbst gefixt und eine kurze Mail samt Patch an den Autor geschickt die bei der nächsten Version zu sehen waren oder durch eine viel bessere Lösung ersetzt wurden, bei größeren konnte ich in den Sourcen wühlen und versuchen zu helfen sie zu lokalisieren.

Die Faulheit merke ich selber bei KDE. Da sind so viele eigentlich sehr kleine Mini-Bugs von denen viele wahrscheinlich in paar Minuten gefixt wären. Hätte ich sie selbst kompiliert, hätte ich zumindest einige davon gefixt so wie ich es zu Anfangszeiten bei Gnome gemacht habe als man sie noch selbst kompilieren musste.

Auch sind mir bekannte Bugs lieber als ein Bugfix plus einige neue unbekannte Bugs.

Erfrischend fand ich die Handhabung bei VMware Workstation.
Ein Bug wurde gemeldet, es gab eine kurze Rückmeldung, dass dieser Bug im Source gefixt wurde aber es sich nicht lohnen würde deswegen eine neue Version zu verteilen. Wegen Sicherheitsfixes wurde doch ein Updateverteilung fällig aber man hat diesen einen Bugfix nicht mit eingebaut. Lieber ein bekannter Bug als womöglich unerwartete Seiteneffekte.
 
Photon schrieb:
Sorry, RR sollte Rolling Release heißen, also eine

[ ... ]

Iapetos schrieb:
Mit einer virtuellen Maschine machst du nichts falsch...


[ ... ]

supi... vielen lieben Dank für Eure sehr ausführlichen Kommentare... :) das hat mir wirklich geholfen...
a020.gif




@ Photon
Kaum zu glauben, wie einfach das backupen dann von der Hand gehen wird... :D

@ Iapetos
jupp, die HDD ist zwar etwas älter, aber ich hab sie eingetauscht gegen eine 1 TB HDD zu Datensicherung, demnächst hol ich mir eine weitere 1 TB als Zweitsicherung, da die 500er wie gesagt etwas älter aber noch völlig ok ist, kann, bzw. könnte ich sie dafür verwenden... werde sie dann so einsetzen, wie Dus beschrieben hast... :)


Wattwanderer schrieb:
Jeder soll mit seiner (Frei)Zeit machen was er will aber ein für wen ist denn Rolling Release?

[ ... ]

Bei Rolling Releases hätte man beide Nachteile vereint:
Die Programme sind weniger getestet und verwertbare Feedbacks kommen auch nicht weil die wenigsten Nutzer wenn ein Programm als Paket angeboten wird kaum die Mühe machen wird auch die Sourcen samt Dev-Kit zu installieren, um bei der Fehlersuche zu helfen.

[ ... ]

ehmm... gute Frage zum RR... ich werd aber ja dann später die fertige Version inst. die RR oder andere betas brauch ich ja nun wirklich nicht benutzen :D (Das ist ja eher was für die, die testen und mitentwickeln, bzw. mitwirken wollen... ;)

Wattwanderer schrieb:
Bei mir beschränkte sich die Interesse immer nur auf wenige Pakete.

[ ... ]

wird bei mir ähnlich sein... was mir wichtig sein wird:

- höhere Sicherheit als bei Win (frommer Wunschtraum [?] :D )
- Verschlüsselung von Festplatten (scheint ja bei Linux Standard zu sein)
- einfache Backupmöglichkeit von Paketen (Software) und Benutzereinstellungen
- voll unterstützte Treiber für meine gesamte Hardware, auch für meinen Drucker/Scanner
- Desktopeinstellungen (z.B. das Aussehen der Oberflächen, usw., usw.)
- Weiterbenutzung älterer Win-Progs mit einer VM, o.ä.
- einfaches wieder neu aufspielen ohne viel Theater

Das ich im Umgang die Arbeit an der Konsole langsam Schritt für Schritt unter Linux lernen muss, ist wohl kaum von der Hand zu weisen, nur muss/sollte es in einem Tempo gehen, mit dem ich zurecht kommen kann, alles andere ist nicht sinnvoll... dann wird das schon :)

Und soviele verschiedene Programme nutzt man ja im Alltag auch nun wieder nicht, Standardzeug wie Musik hören/DVD, Youtube gucken, Grafikbearbeitung, Office (Word, Excel, PowerPoint), surfen, Datensicherungen, ein bisserl HTML/CSS/PHP mitnem Editor, etc. :D :D
 
Zuletzt bearbeitet:
Goatman schrieb:
- einfache Backupmöglichkeit von Paketen (Software) und Benutzereinstellungen
Pakete zu sichern ist unnötig, die befinden sich Repository der Distribution. Alle benutzerspezifischen Einstellungen werden in deinem Home-Verzeichnis abgelegt, das heißt, dass du das sehr einfach durch Duplikation auf einen anderen Datenträger sichern kannst. Bei einer Neuinstallation der Distribution lässt du das Home-Verzeichnis unangetastet, so dass jede benutzerspezifische Einstellung erhalten bleibt.

Goatman schrieb:
- voll unterstützte Treiber für meine gesamte Hardware, auch für meinen Drucker/Scanner
Das hängt ganz von deiner Hardware ab - für die meisten Geräte gibt es aber integrierte (HP) oder nachinstallierbare (die meisten anderen Hersteller) Treiber.

Goatman schrieb:
- Desktopeinstellungen (z.B. das Aussehen der Oberflächen, usw., usw.)
Ein große Stärke der unixoiden Betriebssysteme.

Goatman schrieb:
- Weiterbenutzung älterer Win-Progs mit einer VM, o.ä.
Die meisten Windows-Programme laufen problemlos mit Wine, komplexe Software (MS Office) oder obskur programmierte können aber Probleme machen. Für die ist dann die VM besser.
 
Während ich /home unproblematisch finde liegt die Herausforderung in /etc und /var.

Da empfinde ich die Möglichkeit die laufende Version in eine neue zu überführen ohne zu große Probleme zu bereiten als ein großes Plus.
 
Goatman schrieb:
Da ich nur eine kleine SSD habe (128 GB) und Win allein schon 50 GB verschlingt, ....

2)
Meine zweite Frage ist, ist es sinnvoll die zweite Partition auf der HDD zu verschlüsseln mit Truecrypt, o.ä. oder ist das nicht wirklich notwendig?


zu1.
würde die 128GB gegen eine 256GB - SSD ersetzen ( 256GB = 60 euro Produkt ) und die Alte verschnalzen.
SSD in 2 Partitionen auf-teilen und primär Windows installieren und auf der zweiten Partition ein Linux(dual-boot)

zu2.
ob es Sinn macht, private Daten verschlüsseln...? muss Jeder selber entscheiden!
Auf der 500er HDD(ntsf-formatiert) die Daten jeweils für windows + linux verwenden + auslagern;
evtl. 200 GB per TrueCrypt reservieren?


evtl. ein usb-3.0-Hub nehmen(doppel-HDD) und Daten + Backup dort extern auslagern, wenn man nicht notorisch einen Zugriff auf
die 500GB Datenplatte benötigt?

Ein gutes externes Hub lässt die Platten auch in den standby-Modus
Ergänzung ()

Iapetos schrieb:
Mit einer virtuellen Maschine machst du nichts falsch, wenn die Programme nicht grafikintensiv sind. Das ist deutlich einfacher als ein Dualboot.

Unter Linux würde ich immer ein dualboot oder gar getrennte HDD/SSDs nehmen, da meiner Meinung nach die
virtuelle Maschine unter Linux grauenhaft funktioniert -
Wer parallels unter osx kennt, nutzt keine virtualBox/oracle freiweillig per linux. Für mich eine schlampige Emulation auch wenn es
später mit usb-Peripherie weiter geht. ( habe gerade so einen Fall, welche usb-Relaiskarte via win-Emulator(client) unter
ubuntu-mate(host) einfach bockt. - Unter osx+parallels dagegen keinerlei Probleme. Für den professionellen Bereich darf die
Emulation auch was kosten, sonst wäre es egal.

habe für meinen Rechner einen Wechselrahmen und 2 x SSDs mit jeweils win + linux. Vorteil: Bockt linux, kann man im office-Bereich
unter win weiter arbeiten. Mit dem dual-boot, wenn mal vermurkst, ..hat man nur Ärger. Da brüht man sich einen Espresso auf,
während dem Plattenwechsel und kann nach paar Sekunden weiter arbeiten.
Zudem hat man für die win-SSD zwei mal saubere clone-SSD im Schrank, incl. Treiber, Programme. Einfach einschieben und weiter
arbeiten.
 
:freak::heul: Hab da ne Frage ist für den 21.April für alle Ubuntu Version der Start? Blicke da jetzt nicht durch? Nutze Xubuntu <<< das mit der Maus.
 
Guten Morgen,

Ubuntu 16.04 LTS <<< Sollte Heute kommen :)
Wie das denn 14.x LTS soll ja noch bis 2019 gehen der "Support" dachte der Endet jetzt mit Ubuntu 16.04 LTS ?
 
Zurück
Oben