Bericht Keine Angst vor Linux: Ein Überblick zum Einstieg in die Windows-Alternative

andy_m4 schrieb:
Wir hatten ja hier im Thread schon das Thema, das Open-Source ein Mitmach-Projekt ist. Und daher stört mich vor allem dieses "ihr müsstet mal". (...)
Ja. Ich kann nur mutmaßen und glaube manchen ist einfach nicht klar, dass hinter erstaunlich viel Software Einzelne oder höchstens (sehr kleine) lose verbundene Teams mit endlichen Ressourcen und Möglichkeiten stehen.

andy_m4 schrieb:
Und trotzdem hat sich im Bereich "Zugänglichkeit für Windows-Umsteiger" sehr viel getan in letzter Zeit.
Definitiv. Viele Open Source Entwickler:innen sind sehr engagiert und haben einen unglaublich hohen Output.

andy_m4 schrieb:
Aber das umgekehrte Argument, das "alle" Dokumentationen doof sind weil sie viel zu Konsolenlastig sind ist halt auch schwierig.
Ja, ich tanz einen Drahtseilakt mit solchen Aussagen, klar. Lies es eher als (meine) Beobachtung des Ist-Zustandes. Eine konkrete Verbesserung schätze ich als schwierig ein. Auch weil, wie du richtig feststellst, das ganze ein freiwilliges Ding ist. Menschen Dinge zu diktieren liegt mir nicht so.

andy_m4 schrieb:
Aber nochmal: Das ist bei Kochrezepten ja auch nicht anders. (…)
Ich verstehe worauf du hinaus willst und widerspreche diesmal nicht. 😎
 
  • Gefällt mir
Reaktionen: andy_m4
Kuristina schrieb:
ich wüßte jetzt nicht, wie ich das unabsichtlich herbeiführen sollte.
Bei Ubuntu und Derivaten kann das schnell passieren (wenn man VMs auf diese Art nutzt), da dort gerne die Geräte "gewürfelt" werden: Ich hatte LinuxMint, aber ich konnte das auch mit Ubuntu, Zorin und Elementary reproduzieren: Auf PCs mit AMD- und mit nVidia-Chipsatz. - Aber mit keiner anderen Distribution, nicht mal mit LMDE: Das liegt also ausschließlich an Ubuntu.

Beispiel:

Ich habe eine int. SSD (sda). Schließe ich eine ext. SSD (USB) an, bekommt die sdb.

Wenn ich dann reboote, und obwohl wieder von der int. SSD, hat trotzdem die ext. plötzlich sda und die interne sdb (aber nicht immer: manchmal bleibt es auch bei der "richtigen" Reihenfolge).

Im "Eifer des Gefechts" war mir aber nicht mehr bewusst, dass ich inzwischen rebootet hatte und als ich nochmal die ext. SSD in der VM booten wollte, habe ich wieder sdb genommen.

Da ich sehr viel mit VMs arbeite, nutze ich natürlich Skripte. In diesem Fall: "vm b"

Außerdem war das mit der VM ja nur ein Beispiel dafür, wie "wackelig" btrfs trotzdem dieser ach so tollen Checksummen immer noch ist. Es gibt viele Arten, wie man ein Dateisystem schreddern kann.

z. B. hatte ich wegen des Diskjockey-Ubuntus auch schon mal mit dd das falsche Laufwerk gelöscht (das übliche "bs=4M count=1"), da ich einfach die selbe Befehlszeile aus dem Verlauf wieder ausgeführt habe: An den zwischenzeitlichen Reboot (war schon ca. 1h her) hatte ich nicht mehr gedacht, da ich mit dem beschäftigt war, was ich testen wollte.

Kuristina schrieb:
Für mich funktioniert es wunderbar und selbst wenn was ist, hab ich ja mein Backup. Bisher läuft mit btrfs alles prima.
Dass es noch nicht passiert ist, bedeutet nicht, dass es nie passieren wird:

Statistisch gesehen steigt mit jedem Tag an dem nichts passiert, die Wahrscheinlichkeit dass etwas passiert: Da es passieren kann, wird es irgendwann passieren. - frag Murphy ;)

Und dann spiele ich lieber die paar GiB der Systempartition zurück, als über ein halbes TiB meiner Homepartition.

Natürlich sollst du es jetzt nicht ändern, da du dann ja auch alles erst wieder drauf kopieren musst.
 
  • Gefällt mir
Reaktionen: Kuristina
Caramon2 schrieb:
da ich einfach die selbe Befehlszeile aus dem Verlauf wieder ausgeführt habe

Da ist doch das Problem der Nutzer. Disruptive Befehle führt man Gewissenhaft aus.

Caramon2 schrieb:
Es gibt viele Arten, wie man ein Dateisystem schreddern kann

Wenn du mit VM's und Skripten rumhantierst, sollte eine Eintragung in die fstab eigentlich kein Hindernis sein.
 
SE. schrieb:
Ja. Ich kann nur mutmaßen und glaube manchen ist einfach nicht klar, dass hinter erstaunlich viel Software Einzelne oder höchstens (sehr kleine) lose verbundene Teams mit endlichen Ressourcen und Möglichkeiten stehen.
Ja. Der steckt ganz sicher ein falsches Bild hinter. Umso wichtiger ist das dann halt auch mal zu benennen.

Caramon2 schrieb:
Dazu braucht man es nur versehentlich sich selbst in einer VM booten lassen.
Wobei das so oder so nie gut ist. Völlig nebensächlich, ob das ein Dateisystem jetzt besser oder schlechter verkraftet.
 
  • Gefällt mir
Reaktionen: sedot
@Caramon2
Ich versteh dich. So eine Verwechslung ist natürlich tragisch. Ist mir bisher aber bei meinem Arch System noch nicht untergekommen, dass die Laufwerke anders verteilt wurden. Egal was ich da vor dem Booten eingestöpselt hab. Und in meinem Fall wird meine nvme0n1 auch immer nvme0n1 bleiben. 🙂 (M.2)

Für Backups nehme ich auch SSDs, also da ist das zurückspielen auch nicht so wirklich ein Problem für mich. Geht fix. Aber ich kann verstehen, dass man da vorsichtig wird, wenn einem mal sowas passiert ist. Nutzerfehler hin oder her, man will das nicht nochmal erleben.
 
Caramon2 schrieb:
Wenn ich dann reboote, und obwohl wieder von der int. SSD, hat trotzdem die ext. plötzlich sda und die interne sdb
Um das zu umgehen, kann man Block-IDs einsetzen. Dann ist man nicht darauf angewiesen, das die Gerätebezeichnungen stimmen. Und wenn die einem zu unhandlich sind, dann ggf. auch Labels.

Und dann natürlich der Standard-Tipp: Möglichst nicht als root arbeiten :-)
Wenn man das muss, weil man z.B. irgendwie mit VMs was macht und man dafür auf Blockdevices zugreifen können muss, dann lieber gezielt für das Blockdevice Rechte vergeben und damit arbeiten. Dann kann man sich nicht ausversehen durch nen unbedachten Befehl (was immer mal passieren kann; niemand ist davor gefeit) irgendwelche System-Partitionen zu shreddern.
 
andy_m4 schrieb:
Wir hatten ja hier im Thread schon das Thema, das Open-Source ein Mitmach-Projekt ist. Und daher stört mich vor allem dieses "ihr müsstet mal". (...)
Da möchte ich widersprechen, Linux und so ziemlich alle OpenSource Projekte die ich kenne verkaufen sich nicht als "Mitmach-Projekte", sondern als "Wer will und kann - der ist herzlich eingeladen". Dazu ist die Einstiegshürde in ein größeres Projekt ja schon relativ hoch. Außerdem, wenn ich anfange an Software mitzubauen die ich nutze und fehlerhaft ist, dann mache ich 24/7 ja gar nichts anderes mehr.
Die meisten Menschen sind nunmal Nutzer von Software und nicht Mitenwickler und denen dann zu kommen mit "Ist OpenSource, also korrigier den Fehler doch einfach selber" find ich immer ein bisschen an der Sache vorbei.
 
BeBur schrieb:
Da möchte ich widersprechen
Das weiß ich zu schätzen.

BeBur schrieb:
und so ziemlich alle OpenSource Projekte die ich kenne verkaufen sich nicht als "Mitmach-Projekte", sondern als "Wer will und kann - der ist herzlich eingeladen".
Ja. Da stellt sich jetzt keiner hin in dem Sinne: "Du darfst es nur nutzen wenn Du auch mitmachst." oder wie auch immer. Und so war das auch gar nicht gemeint. Natürlich sind Open-Source-Projekte in erster Linie ein Angebot a-la "Hier. Wenn Du willst, kannst Du es nutzen".
Und Open-Source-Entwickler freuen sich darüber wenn Leute ihre Software nutzen, selbst wenn sie nichts dazu beitragen. Weil es auch eine Anerkennung. "Der finde offenbar meine Software cool, sonst würde er sie ja nicht benutzen".

Dennoch spielt dieser Geben-Nehmen-Aspekt eine wichtige Rolle. Leute machen Open-Source, weil sie selber von Open-Source profitiert haben. Und die sehen auch gern, wenn jemand etwas dazu beiträgt (Contributions). Das heißt jetzt nicht, das jeder beitragen muss, aber es gehört halt mit zur Kultur dazu.

Jetzt kommen wir noch mal zurück zu dem "ihr müsstet mal...". Wenns bestimmte Dinge nicht gibt, dann ist das in der Regel nicht aus Schikane so, sondern weil sich dafür keiner gefunden hat. Und die Entwickler selbst, kümmern sich natürlich vordringlich um die Dinge, die ihnen wichtig sind. Die haben i.d.R. keine Langeweile und sind nur zu faul bestimmte Dinge umzusetzen. Ist auch nicht so, das die Neuerungen gegenüber nicht aufgeschlossen sind oder so.

Dieses "ihr müsstet mal" ignoriert das alles.

BeBur schrieb:
Die meisten Menschen sind nunmal Nutzer von Software und nicht Mitenwickler und denen dann zu kommen mit "Ist OpenSource, also korrigier den Fehler doch einfach selber" find ich immer ein bisschen an der Sache vorbei.
Naja. Es gibt ja schon ein paar mehr Möglichkeiten außer dem programmieren. Ich hatte bin erst kürzlich über einen Fehler in einer Doku gestolpert. Also kurz hingeschrieben, soundso. Für solche Dinge muss man weder ein Programmier-Genie sein noch ein Informatik-Diplom erworben haben.
Man kann sich auch mit anderen zusammentun und was organisieren.
Oder, wenn ne Hardware nicht läuft, mal den Hersteller anschreiben so von wegen Linux-Treiber. Klar kann man dann nicht erwarten, das es dann sofort einen gibt. Aber wenn viele solcher Anfragen rein kommen signalisiert das dem Hersteller, da vielleicht doch mal aktiver zu werden.
Oder, wenn man jetzt ne Idee für eine Verbesserung hat, kann man auch mal die entsprechenden Leute anschreiben und sagen "Ich hab da ne Idee für das und das. Und soundso könnte ich mir das vorstellen. Was haltet ihr davon?"

Aber irgendwie was zu fordern und dann das auch irgendwie hier im Forum zu äußern ... was soll das bringen? Erwarten die irgendwie, das die Entwickler Foren durchforsten, um irgendwelche, meist auch nur sehr grob formulierten Wünsche, heraus zu picken und umzusetzen?

Der Vorwurf ist ja auch selten: "Ich hab mich mit meinen Wünschen an die Entwickler gewandt und die haben mich abblitzen lassen", sondern liest sich ja eher wie "Linux müsste dasundas machen und solange das nicht da ist, ist Linux doof".

BeBur schrieb:
Außerdem, wenn ich anfange an Software mitzubauen die ich nutze und fehlerhaft ist, dann mache ich 24/7 ja gar nichts anderes mehr.
Ja. Das macht natürlich kein Sinn. Aber man könnte sich z.B. Sachen herauspicken, die einem wichtig sind und wo man dann vielleicht sogar ein Stück Know-How mit einbringen kann. Das könne ja auch Kleinigkeiten sein, wie das Doku-Beispiel was ich gebracht hab.
Nur wenn keiner was macht, dann passiert halt auch nix.

Ist so wie in einer Gemeinschaftsküche. Wenn keiner was macht, sieht die halt aus wie Sau. Und das heißt auch nicht, das man sich da ein Bein ausreißen muss. Aber wenn jeder mal so ein bisschen drauf achtet, dann sieht das im Endergebnis halt auch deutlich besser aus.
Und wenn man das partout nicht will, dann ist man im Restaurant vielleicht besser aufgehoben.

Ich möchte explizit nicht, das da irgendwie ne Wertung reininterpretiert wird. Ich sag nur wie es ist. Und ich denk mal, man tut sich dann wesentlich leichter wenn man versteht, warum die Dinge so sind wie sie sind, als wenn man da irgendwie mit falschen Erwartungen heran geht und sich am Ende dann nur ärgert und denkt, die anderen wollen einen nicht, fühlen sich elitär oder was auch immer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BeBur, Lotsenbruder, Elderian und eine weitere Person
Auch schon das Melden von Bugs ist ja schon eine Beteiligung an einem Projekt. Bei github, gitlab und Ähnlichem ist ja ab Werk ein Issue-Tracker integriert, wo man Bugs und Vorschläge posten kann und ansonsten schreibt man dem Entwickler halt eine Mail.
 
  • Gefällt mir
Reaktionen: sedot
jonderson schrieb:
Zum Updaten des BIOS braucht man da leider mittlerweile nen Windows
Hab mittlerweile das HP Elite x360 830 G9 erhalten. Das UEFI kann man direkt per USB oder per WLAN flashen, ohne in Windows booten zu müssen.

Habe mal Fedora 38 angeschmissen und es scheint soweit alles zu funktionieren: WiFi, Bluetooth, Lautsprecher, Touchpad, Kamera, Bildschirmhelligkeit, Stand-By, Stift einschließlich Makros. Die Tastatur wird beim Umklappen auch ordnungsgemäß deaktiviert. Das Einzige, was mir bisher aufgefallen ist, wäre, dass sich das Onscreen-Keyboard beim Anklicken von Textfeldern auch im Laptopmodus öffnet und dann schon mal die Eingabe spinnt. Keine Ahnung, ob das an meiner GNOME-Installation oder der Firmware liegt. Ansonsten macht das HP unter Linux aber einen wirklich sehr guten Eindruck. 🙂

Edit: Unter KDE funktioniert das Onscreen-Keyboard reibungslos. Muss wohl an GNOME liegen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aklaa, douggy und Kuristina
Ich habe nach den vieln komentaren hier doch noch einen anlauf mit Desktop Linux mit PopOS gestartet bis auf einige "problemchen" mit multimonitor und Installationen mit Lutris ist es tatsächlich mittlerweile relativ schmerzfrei. Leider musste das Terminal immer noch ein zwei mal herhalten.
 
Zuletzt bearbeitet:
Vorab, um zu vermeiden dass der falsche Eindruck entsteht:

Ich will nicht versuchen dich zu überreden, odee so, sondern da das hier öffentlich ist, ist alles was ich hier schreibe (und bisher geschrieben habe) auch an die Allgemeinheit gerichtet: Z. B. wenn sich jemand ein neues System einrichten, oder eine neues Hauptlaufwerk kaufen will. - Ich möchte einfach meine Erfahrungen posten, um anderen bei der Entscheidung zu helfen, wie sie es einrichten sollen.

Andere haben andere Erfahrungen, andere Ansprüche, nutzen ihren PC anders und haben auch andere Prioritäten: Wer was wie nutzen will, kann jeder selbst entscheiden. - Das ist ja nichts lebensgefährliches wie: Ich brauche mich nicht anschnallen. Mir ist noch nie was passiert. (hätte ich so gedacht, hätte ich am 22.05.04, 17:02 Uhr diese Existenzebene verlassen: Nach 17 Jahren "nie was passiert"…)

Die Features von btrfs, wie Snapshots und Subvolumes, usw. hören sich wirklich toll an und auch ich wollte die unbedingt nutzen, nur die ganzen Bug-Meldungen haben mich lange davon abgehalten, btrfs mal ausprobieren.

Als es dann auch noch zstd unterstützte und ich schon länger nicht gravierend negatives gehört hatte, wurde es zu verlockend und ich habe meine Systempartition umformatiert. *)

Zuerst war ich davon begeistert, welche Möglichkeiten mir Subvols boten, aber dann kam schnell die Ernüchterung:

Wenn ich die Partition wie gewohnt per rsync sichere, werden (wie gewünscht) die Subvols, wie Mountpunkte anderer Partitionen (rsync-Option "-x"), nicht mitgesichert: Endlich konnte ich das Laufwerk als ganzes nutzen und musste nicht mehr abwägen wie viel ich jeder Partition gebe - und vielleicht zu knapp kalkulieren.

Aber wenn ich die Sicherung wiederherstelle, waren aus den Subvols plötzlich zu normalen Verzeichnissen geworden: Nach jeder Wiederherstellung (ich "bastle" viel) hätte ich jedes einzelne erst wieder von Hand als Subvol einrichten müssen. - Ich konnte weder bei rsync eine Option finden, um Subvols als solche zu sichern und wiederherzustellen, noch ein gleichartige Tools, dass es konnte.

Damit waren Subvols für mich gestorben. - Über die ganzen anderen Nachteile, alles auf einer Partition zu haben, hatte ich mir da noch keine Gedanken gemacht.

Von Snapshots habe ich dagegen noch nie was gehalten: Man "sichert" nicht mal auf dem selben Laufwerk, geschweige denn der selben Partition!

Dass der MichlFranken dass immer wieder als großen Vorteil darstellt (gerade bei einem so "wackeligen" FS wie btrfs), empfinde ich als verantwortungslos, da er die Gefahr, dass wenn die Partition beschädigt wird, auch alle "Sicherungen" weg sind, nicht mal erwähnt. (von einem Laufwerksausfall ganz zu schweigen)

Wie schnell werden dann keine "richtigen" Backups gemacht: "Es kann ja nichts passieren, das System sichert sich ja automatisch." - Genau wie "Mir kann nichts passieren: Ich habe einen Virenkiller." vermittelt das falsche (nicht gerechtfertigte) Sicherheit und verleitet Otto*in Normalo (an den/die/das sich MF-Videos primär richten) zu Unvorsichtigkeiten.

*) Übrigens ein weiterer Vorteil einer eigenen Homepartition: Die Systempartition ist schnell im RAM gesichert, umformatiert und zurückgespielt. Dann noch grub neu installieren und fertig. - Alles auf eine Partition zu knallen, finde ich sowas von falsch: Wie kann man sich freiwillig nur dermaßen einschranken?

Kuristina schrieb:
Ich versteh dich. So eine Verwechslung ist natürlich tragisch. Ist mir bisher aber bei meinem Arch System noch nicht untergekommen, dass die Laufwerke anders verteilt wurden.
Wie gesagt: Das passiert ausschließlich unter Ubuntu, einschließlich aller getesteten Derivate. Bei jeder anderen Distribution, die ich mir angesehen habe, ließ sich das nicht mal mutwillig provozieren.

Und tragisch war es auch nicht, da ich ja nur ein paar GiB wiederherstellen musste. ;)

Übrigens auch nach den "dd"-Unfall: Da ich per Terminal partitioniere und mir die Befehlszeilen sichere, brauchte ich sie nur nochmal ausführen und alles außer dem Inhalt der ersten Partition war wieder da: Deshalb war das früher die Swap, da die nur neu formatiert werden musste: Die Befehlszeile hatte ich inkl. UUID natürlich auch gesichert.

Dann gerade noch Grub installieren (auch die Befehlszeile ist natürlich mit gesichert) und fertig. - Wie gut, dass es das Terminal gibt. ;)

Das gibt mir die Sicherheit, beliebig zu experimentieren, ohne jeden Schritt erst doppelt und dreifach kontrollieren zu müssen: Geht was schief, ist es schnell wiederhergestellt. - Das ist angenehm. :)

Da ich viel experimentiere, finde ich auch schnell Fehler und Probleme, auf die andere vielleicht erst stoßen, wenn sie es (wie üblich) am wenigsten gebrauchen können.

Kuristina schrieb:
Für Backups nehme ich auch SSDs, also da ist das zurückspielen auch nicht so wirklich ein Problem für mich. Geht fix. Aber ich kann verstehen, dass man da vorsichtig wird, wenn einem mal sowas passiert ist. Nutzerfehler hin oder her, man will das nicht nochmal erleben.
Als Quick&Dirty-Backup sichere ich die Systemapartition mehrstufig (gleiches wird per Hardlinks übernommen) auf der mittlerweile vorhandenen zweiten int. SSD, so dass ich zu jedem dort gesicherten Stand zurückkehren kann: Dauert normalerweise nur 15-20 Sek., aber selbst wenn ich die Systempartition neu formatieren musste, ist alles in ca. 50 Sek. kopiert: Trotz billiger Intenso "High" SATA-SSDs. (ich habe für die 960 GB noch 52€ bezahlt)

Das System auf der ext. SSD (s. Link zur Partitionierung oben) ist sozusagen auch gleich ein komplettes Backup, aber meine "richtigen" Sicherungen sind auf HDs, da SSDs für Langzeitarchivierung ungeeignet sind: Mit jeder Generation (TLC, QLC, …) werden die inkontinenter.

Hochleistungs-SSDs sollen schon nach einem Monat ohne Strom anfangen die Daten zu verlieren. - Consumer-SSDs sind natürlich nicht so anfällig, aber konkrete Fristen habe ich dazu noch nicht gesehen.

Ach ja:

Beim wiederherstellen großer Datenmengen verursacht das natürlich auch entsprechende Schreiblast, die ich den SSDs gerne erspare, außerdem geht das über den SLC-Cache hinaus und wird entsprechend langsam.

Am extremsten war das bei der 480 GB Patriot Burst eines Bekannten: Die hatte nur ca. 2 GiB SLC-Cache und ließ sich anschließend nur noch mit 33 MiB/s beschreiben! Obwohl die Daten nur von einer Samsung F3 kamen (max. 100 MiB/s), war die SSD der limitierende Faktor: Es mussten ca. 250 GiB drauf…

Als die nach nicht mal 3 Mon. schon anfing Probleme zu machen (Trim dauerte plötzlich fast 1 Min. und blockiere das ganze System, so dass er jeden Tag dachte, der PC wäre abgestürzt (fstrim-Timer war auf täglich gesetzt), ging die zurück und ich habe ihm stattdessen eine 480 GB BX500 empfohlen (war damals noch eine v1): Ca. 27 GB SLC-Cache und anschließend noch 70 MiB/s, so dass diesmal die Sicherungsplatte das Nadelöhr war.

P. S.: Solche Beiträge speichere ich als Lesezeichen, da man ja immer mal wieder darauf verweisen kann.
 
  • Gefällt mir
Reaktionen: Kuristina
Caramon2 schrieb:
Hochleistungs-SSDs sollen schon nach einem Monat ohne Strom anfangen die Daten zu verlieren. - Consumer-SSDs sind natürlich nicht so anfällig, aber konkrete Fristen habe ich dazu noch nicht gesehen.
Das ist mir bewusst und da achte ich auch drauf. Derzeit findet eh jeden Tag ein Backup statt, da ich gerade auch viel bastel. Aber danke für den Hinweis. 🙂
 
Hallo,
wollte mal in die Runde fragen: benutzt jemand Regata OS Linux für Games? ist das gut auf AMD Plattform?
 
Wenn du neu bei Linux bist, tu dir selbst ein Gefallen und nehme für die ersten Schritte eine Ubuntu LTS Distribution. (Wenn die GPU kleiner RX 7k ist)

Dann dieses Skript wo z.B. Firefox Snap gegen normalen Firefox ausgetauscht wird und das aktuelle Mesa von Valve, welche quasi die Grafiktreiber für AMD unter Linux sind installiert wird:
https://github.com/Ubuntu-Installation/Installations-Script
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aklaa
Entscheidend für den Hardware-Support ist der Kernel und nicht die Distribution. Deshalb müsstest du schauen, welche Kernelversion bei Regata genutzt wird, und dann schauen, ob deine Hardware supported wird. Grundsätzlich sind AMD-Systeme gut unterstützt, aber neuere Hardware benötigt auch entsprechend einen aktuellen Kernel.
Davon ab hab ich von Regata noch nie was gehört, aber ich sehe keinen Grund, warum man damit nicht zocken können sollte. Auch hier gilt ein halbwegs aktueller Softwarestack (Proton, Wine, Mesa und Konsorten) als vorteilhaft.
 
  • Gefällt mir
Reaktionen: jonderson und aklaa
Caramon2 schrieb:
Von Snapshots habe ich dagegen noch nie was gehalten: Man "sichert" nicht mal auf dem selben Laufwerk, geschweige denn der selben Partition!
Der Sinn von Snapshots liegt nicht darin, auf dem Laufwerk was zu sichern im Sinne von Backups. Der Sinn liegt darin, einen Zustand quasi einzufrieren.
Warum ist das praktisch? Naja. Man kann fröhlich drauf rumschreiben und weiß, wenn was schiefgehen sollte kann man jederzeit ein Schritt zurück (sowas in der Art kennt man ja auch von vielen VM-Lösungen). Das ist zum Beispiel ganz spannend bei Upgrades, wo dann ein unkomplizertes und schnelles Rollback möglich ist. Oder für temporäre Verzeichnisse. Zum Beispiel das Browser-Profil was man eingerichtet hat und wo man nach Beendigung des Browsers halt den vorherigen Zustand wieder herstellen will, damit man sicher ist das alles wieder so ist wie vorher.
Man kann sich auch Templates einrichten und davon Klone machen.

Oder, um mal wieder zum Thema Backup zurück zu kommen: Bei Backup hat man ja häufig das Problem, das idealerweise alle Programme geschlossen sind, damit auch alle Dateien einen garantiert sauberen Stand haben. Dann macht man ein Snapshot und von dem Snapshot macht man dann das eigentliche Backup. In der Zeit kann man fröhlich wieder alle Programme starten und weiter arbeiten und es spielt keine Rolle, wie lange das Backup braucht, weils ja halt den Snapshot als Grundlage nimmt.
Man kann auch Snapshots als Solche sichern und hat infogedessen gleich automatisch ein versioniertes Backup.

Die Anwendungsmöglichkeiten sind also vielfältig.
Und sicher. Das könnte man auch häufig damit erreichen, in dem man einfach kopiert. Aber Snapshots gehen halt schnell. Die sind innerhalb von Sekundenbruchteilen erstellt. Und sie brauchen keinen zusätzlichen Platz da quasi nur diffs zwischen den Snapshot gespeichert werden.

Ich lasse mich hier explizit nicht zu btrfs aus. Ich beschrieb nur die interessanten Punkte für Snapshots (die es ja nicht nur bei btrfs gibt). Also nicht, das jetzt wieder das Argument kommt "nützt mir alles nix wenn das Filesystem wacklig ist". :-)

Caramon2 schrieb:
Alles auf eine Partition zu knallen, finde ich sowas von falsch: Wie kann man sich freiwillig nur dermaßen einschranken?
Naja. Ich empfinde Partitionen eher als einschränkend. Weil man muss sich vorher entscheiden, wie groß die sind. Und vertut man sich dabei oder künftige Anforderungen ändern sich, dann hängt man darauf fest.
Ja klar. Man kann auch Dateisysteme teilweise "re-sizen" und so Partionsgrößen auch nachträglich ändern, aber wirklich schön ist das nicht.
Schlussendlich kann man beides verargumentieren. Von daher finde ich es vermessen, wenn man sagt: Ich mach das soundso und wer es anders macht, der ist quasi doof

Caramon2 schrieb:
Da ich viel experimentiere,
Gerade wenn man viel experimentiert, lohnt sich eigentlich sich da über Rechtevergabe nachzudenken, statt alles als root zu machen.

Caramon2 schrieb:
Beim wiederherstellen großer Datenmengen verursacht das natürlich auch entsprechende Schreiblast, die ich den SSDs gerne erspare
Ein gangbarer Weg zum verringern der Schreiblast beim Restore, wären die verschmähten Snapshots. :-)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kuristina und agon
andy_m4 schrieb:
Der Vorwurf ist ja auch selten: "Ich hab mich mit meinen Wünschen an die Entwickler gewandt und die haben mich abblitzen lassen", sondern liest sich ja eher "Linux müsste dasundas machen und solange das nicht da ist, ist Linux doof".
Ich will erstmal sagen, ich denke wir sind uns weitesgehend einig, ich habe in deinem Beitrag jedenfalls vieles gefunden, dem ich zustimme. Allerdings sind vermutlich 99% aller Nutzer von OpenSource reine Konsumenten und tragen zu keinem OpenSource Projekt irgendwas bei. Und das finde ich völlig in Ordnung und das sollte auch völlig in Ordnung sein, denn das ist auch das, was kommuniziert wird und auch formal in den Lizenzen festgehalten ist.

Ich will nur noch ein Augenmerk auf einen bestimmten Aspekt werfen, weil mir das auch jenseits einer Diskussion über OpenSource oft auffällt. Da schreibt jemand "für mich kommt Linux nicht in Frage, weil der Support von Gerät X mir zu schlecht ist" und dann wird geantwortet: "Ja, aber dafür kann Linux nichts, das liegt daran, dass der Hersteller Y macht". Das scheint mir sehr ähnlich zu der Situation zu sein, dass OpenSource Software X das Feature Y nicht hat, weil das halt bisher niemand eingebaut hat.
Und da finde ich immer, diese Antworten gehen an der Sache vorbei, wenn die Skalierung von Schriftarten nicht richtig funktioniert, wenn ein Bildschirm nur mit maximal 30hz läuft, wenn mein Drucker nicht funktioniert, dann ist mir im Prinzip egal, woran das liegt und die Gründe ändern dann völlig zurecht auch nichts an der Einschätzung darüber, wie zuverlässig Linux funktioniert.
 
BeBur schrieb:
wenn die Skalierung von Schriftarten nicht richtig funktioniert, wenn ein Bildschirm nur mit maximal 30hz läuft, wenn mein Drucker nicht funktioniert
Aber das sind doch keine pauschalen Fakten. Mein Bildschirm läuft mit 144hz und mein Drucker druckt. 🙂
Für mich läuft Linux absolut zuverlässig.
 
  • Gefällt mir
Reaktionen: aklaa
Zurück
Oben