Bericht Keine Angst vor Linux: Ein Überblick zum Einstieg in die Windows-Alternative

Kuristina schrieb:
Die Leute tun sich schwer, ein neues Bedienkonzept anzunehmen. Das war sicher auch den Gnome Entwicklern klar.
Ich denke nicht, dass der Fokus war, das Bedienkonzept anpassen zu können. Die weitgehenden Möglichkeiten hat man aber in der Tat selbst genutzt. Vielleicht war es für RHEL von vorneherein eingeplant. Würde mich aber wundern, wenn ich andere Entscheidungen der Gnome-Macher Revue passieren lasse.
 
Caramon2 schrieb:
Natürlich ist das bequem, aber so viel mehr Aufwand ist das mit rsync auch nicht, dafür funktioniert das mit jedem Dateisystem, ist viel flexibler und man auch dann noch darauf zurückgreifen, wenn die Linux-Partition beschädigt wurde, oder man sie aus anderen Gründen neu formatiert.
Naja, rsync muss ich erst konfigurieren, snapper ist schon fertig und funktionsfähig. Insofern, ja, aus meiner Sicht ist der Aufwand höher. Nachdem ich mir die (bei Wikipedia verlinkten) GUIs für rsync angeschaut habe erscheint es mir nicht so einfach, als dass ich mich damit im Moment auseinandersetzen will.
Caramon2 schrieb:
Auch andere Sachen sind mir wichtig und wären unwiederbringlich weg.
Natürlich muss mein Umgang mit Daten nicht für dich passen, ich wollte eher meine momentane Sichtweise umschreiben. Es steht dir völlig frei mehr Aufwand zu treiben für Dinge die dir wichtig sind. Ich wollte nicht den Eindruck vermitteln dein Verhalten bewerten zu wollen, nur falls da was falsch ankam.
Caramon2 schrieb:
Mich nervt einfach, dass viele von "Linux" sprechen, obwohl es meistens nur Ubuntu betrifft.
Ist eben einfacher als Distribution und verwendete Software im Detail aufzuzählen. 😉
Caramon2 schrieb:
(…)MichlFranken-Video (…) Vanilla-Gnome (…)
Das ist kein Vanilla Gnome (44.x) im gezeigten Ausschnitt. Ein dauerhaft sichtbares Dock unten hatte auch 43 nicht.
 
Caramon2 schrieb:
Vorletztes Jahr bekam ich sogar mal eine Mail, dass jemand in seinem Bekanntenkreis allen mitgeteilt hat, dass Linux 2025 eingestellt wird!

Vermutlich bezog sich das auf Ubuntu 20.04 LTS.
Der war gut!:D
Fast so gut wie der von Ralph Schmitz' Mutter, die ihrem Sohnemann kleinlaut eingestehen mußte:
"Ich habe das Internet gelöscht!"
 
  • Gefällt mir
Reaktionen: Hyourinmaru
Kaito Kariheddo schrieb:
Office Suiten wäre angebracht
Office ist eh overrated. Bei der Textverarbeitung verhaspeln sich "alle", weil logische Struktur und Aussehen durcheinander gewürfelt werden (noch immer sieht man Dinge wie das Überschriften "fett" geschrieben werden, statt Formatvorlagen zu benutzen oder das mit Tabs und Leerzeichen herumformatiert wird).
Tabellenkalkulation ist nützlich, wird aber mit GNUmeric und Co ganz gut abgedeckt.
Und Power-Point ... naja. Wenn ich sehe, das irgendwie wer was mit Power-Point macht ist das schon ein sicherer Indikator dafür, das der Vortrag schlecht wird. :-)

Disclaimer: Vorsicht. Posting kann Spuren von Polemik enthalten ;-)
 
  • Gefällt mir
Reaktionen: frabron und sedot
Kaito Kariheddo schrieb:
Ich denke ein eigener Artikel über (freie/alternative) Office Suiten wäre angebracht :)
Dann würde ich in einem solchen Artikel gerne auch etwas über die Kompatibilität zu Microsofts Open XML-Formate, sprich DOCX, XLSX und PPTX, in den alternativen Suiten lesen. Mir geht es da vorrangig um so Dinge wie Formatierung, Formate, Absätze, Vorlagen, Bedingte Formatierung und dergleichen. Also so Sachen, an denen man die Kompatibilität tatsächlich sehen bzw. nicht sehen kann.
 
7vor10 schrieb:
Ganz im Ernst: man sollte lieber gar nicht erst versuchen, ein OS oder Programm auf theoretische Grenzsituationen hin zu prüfen. Man sollte sich mit den Fehlern begnügen, die man unfreiwilligermaßen im alltäglichen Gebrauch zu Tage fördert.
Wenn ich mich mit etwas neuem beschäftige, teste ich es gründlich:

1. Wie soll man die Grenzen ausloten, wenn man sie nicht überschreitet?

2. Wenn ich die Probleme und Schwächen kenne, kann ich sie vermeiden, oder weiß wie ich es wieder hinbekomme.

Stell dir vor, du brauchst deinen PC dringend, aber plötzlich passiert irgendwas, was dich unvorbereitet trifft: Du stehst auf dem Schlauch und musst erst suchen, wie (oder ob überhaupt) man es hinbekommt. - Für mich wäre es dagegen vielleicht nur eine kleine Fingerübung, da ich mich im Vorfeld damit beschäftigt habe: Falls es mir überhaupt passiert und es nicht zu den Sachen gehört, wo ich weiß wie man sie vermeidet.

Besser vorbeugen, als auf die Schuhe kotzen. ;)

7vor10 schrieb:
Spätestens nach dem zweiten Snapshot ist die Partition schon wieder voll, obwohl nur das System als solches inkludiert ist. Und obwohl unveränderte Objekte ja nur als Hardlinks einbezogen werden. Bei den ständigen System-Updates ändert sich aber anscheinend mehr als man denkt.
Das kann man mit "sudo du -sBM" ermitteln.

Ich sichere meine Systempartition (quasi als Snapshot-Ersatz) bei jeder relevanten Änderung auf die 2. int. SSD, was ich als "Quick & Dirty Backup" bezeichne (hatte ich hier schon ein paar Mal erwähnt).

Momentan sind dort 6 Sicherungsstufen. Hier die Belegung+Komprimierung (inkl. der Sicherungsskripte):
Code:
# du -sBM S{6..1}
8436M   S6
69M   S5
1M   S4
1447M   S3
1278M   S2
106M   S1

# compsize S{6..1}
Processed 1281098 files, 167532 regular extents (772665 refs), 640122 inline.
Type Perc Disk Usage Uncompressed Referenced 
TOTAL 57% 6.4G 11G 50G      
none 100% 3.6G 3.6G 13G      
zstd 37% 2.8G 7.6G 36G      

# cat AktualisierungB.sh
#!/bin/bash
espeak-ng -vde "Bitte Passwort." &
sync;sudo echo
time sudo rsync -vaxH --del --exclude '.cache/*' --exclude '/home/*' --exclude '/tmp/*' --exclude '/var/tmp/*' --exclude '/var/log/*' --exclude '*.log' --exclude '*.old' --exclude '*_old' / S1/
sudo touch S1
sync;sudo fstrim -v .
espeak-ng -vde "Datensicherung abgeschlossen." & read -p [Enter]

# cat SicherungB.sh
#!/bin/bash
zs=9 # Zahl der Sicherungsstufen
espeak-ng -vde "Bitte Passwort." &
mv S$zs S-bak 2>/dev/null
for ((z=$zs;z>=1;z--));do mv S$z S$((z+1)) 2>/dev/null;done
if [ ! -d S-bak ];then mkdir S1;else mv S-bak S1;fi
sync;sudo echo
time sudo rsync -vaxH --del --link-dest=../S2/ --link-dest=../S3/ --exclude '.cache/*' --exclude '/home/*' --exclude '/tmp/*' --exclude '/var/tmp/*' --exclude '/var/log/*' --exclude '*.log' --exclude '*.old' --exclude '*_old' / S1/
sudo touch S1
sync;sudo fstrim -v .
espeak-ng -vde "Datensicherung abgeschlossen." & read -p [Enter]
So sieht das im Dateimanager aus:

QnD-Backup.png

7vor10 schrieb:
Auf so eine eher theoretische Grenzanforderung war es aber nicht vorbereitet. Statt sozusagen einfach nur '1-0=1' zu rechnen, hat es versucht, irgendeinen vorherigen Zustand auf Teufel komm raus zu generieren. Und das ist ihm in gewisser Weise sogar gelungen. Denn ein zerschossenes Windows entspricht funktional in etwa einem noch gar nicht installierten Windows. ;)
Wie gesagt: Das war der erste Test der ersten Version davon und kann auch nur ein dummer Zufall sein.

Mich hat das dazu gebracht es zu hinterfragen und ich bin schnell zu den Schluss gekommen, das ich es besser nicht nutzen werde (und es auch nie wieder getestet habe), weil nicht ersichtlich ist, was genau es macht.

andy_m4 schrieb:
"Deine Leute" vielleicht. Aber dann sag es auch so. Und versuch nicht, daraus etwas Allgemeingültiges zu machen.
Ich meine, ich hätte das mit "vielleicht" eingeschränkt: Zumindest war es nicht als absolute Aussage gemeint, sondern als Hinweis, dass es schnell dazu kommen kann: Aus Unkenntnis, Bequemlichkeit, oder was auch immer.

andy_m4 schrieb:
Normalerweise ist das bei der Art von Dateisystemen so, das wenn Du stumpf ne File-basierte Sicherung hast Du natürlich erst wieder die alte Subvol-Struktur herstellen musst, bevor Du da zurück sichern kannst. Exakt das selbe Problem hast Du aber auch, wenn Du Deine Datei auf verschiedene Partitionen verteilt hast. Da musst Du auch die Partitionen anlegen, bevor Du die Ordner/Dateien zurück kopierst, sonst sind die Partitionen natürlich nicht da.
Die Partitionierung ist ja schnell erstellt, da ich das (wie geschrieben) im Terminal mache und mir die nötigen Befehlszeilen aufbewahre.

Aber das ist ja sowieso nur die Ausnahme.

Üblicherweise muss man ja nur neu formatieren (wie gesagt, habe ich auch die Befehle inkl. der passenden UUIDs aufbewahrt), wenn man sich das Dateisystem zerschossen hat (genau darum geht es ja: weil die Snapshots dabei mit zerschossen wurden) und braucht nur eine richtige Sicherung per rsync wiederherstellen: Das funktioniert mit allen Dateisystemen und dieses @-Zeugs würde das nur verkomplizieren, weshalb die zu den Sachen gehören, die ich vermeide: s. o.

Und nochmal: Alles was ich zu btrfs & Co. behaupte, basiert auf meinen eigenen, reproduzierbaren Erfahrungen bei der tatsächlichen Anwendung: Das sind keine theoretischen Überlegungen.

Wer sagt "ich habe damit keine Probleme", hat nicht gründlich genug getestet, oder sie vielleicht noch nicht bemerkt, da sich ja gezeigt hat, dass man sich auf btrfs-check nicht verlassen kann, da es (wie geschrieben) noch nicht mal einen bereits aufgetrenen Fehler findet, wenn man es die beschädigte Dstei direkt prüfen lässt.

Kuristina schrieb:
Ich nutze auch Snapshots (btrfs), allerdings nur direkt vor einem Update. Sonst nicht.
Wie ich mein QnD-Backup (s. o.):

Wobei ich die aktuelle Sicherungsstufe vor dem System-Update aktualisiere und nach dem Update + erfolgreichen Reboot (wenn es auch keine anderen Auffälligkeiten gibt) erstelle ich gleich eine neue Sicherungsstufe, um auch den aktuellen Stand gesichert zu haben.

Wenn sich dann weiterhin nichts ergibt, erstelle ich auch neue Sicherungsstufen auf einer oder mehreren ext. Sicherungsplatten (je nachdem wie gravierend die Updates waren), die dann auch die Homepartition beinhaltet.

Donnerkind schrieb:
Mein NAS enthält meine Medienbibliothek. Aufgrund der Größe habe ich kein Backup davon, sondern ich verlasse mich auf das RAID, dass mir durch Hardwareausfall kein Datenverlust entsteht.
Wenn das komplette NAS durch Überspannung gegrillt wird, ist trotzdem alles weg.

Eine kostenlose Lösung wäre, das NAS leicht zugänglich zu halten und komplett abziehen, wenn du das Haus verlässt. - Und natürlich auch wenn du @Home bist und ein Gewitter aufzieht.

Btw:

Dort sehr ich im Zweifelsfall nach (Plz/Gebiet ggfs. anpassen):

http://www.unwetterzentrale.de/uwz/getwarning_de.php?plz=32052&uwz=UWZ-DE&lang=de

https://www.wettergefahren.de/DWD/wetter/radar/Webradar_Nordwest.jpg

Donnerkind schrieb:
Eines Tages habe ich versehentlich das falsche Verzeichnis gelöscht - 270 GB Videos waren weg! Ich bekam Schweißnacken und habe mich sofort belesen, ob man da was machen kann. Bei ext4 gibt es ja schließlich auch ein undelete. Wie sich herausstellte, kann man auf die letzten x Transaktionsstände von ZFS zugreifen und sie mounten. Das habe ich getan (was jeweils einen vollen Scrub von 10,5 Stunden enthielt).
Aua! - Aber besser, als wären sie weg gewesen.

Donnerkind schrieb:
Kurz danach habe ich mir automatische Snapshot-Erstellung eingerichtet: stündlich, täglich, wöchentlich, monatlich gestaffelt. Eigentlich Overkill, denn ich schreibe nur extrem wenig drauf rum. Aber es kostet nix bis auf den Plattenplatz, wenn man wirklich mal Daten löscht und die dann noch bis zu einem halben Jahr in alten Snapshots liegen bleiben).
An die Möglichkeit Snapshots als Undelete zu nutzen, hatte ich noch nicht gedacht. Das macht natürlich Sinn, wenn der zusätzlichen belegte Platz nicht stört.

Dafür nutze ich die Kopie des Produktivsystems auf der ext. SSD, die ich entsprechend oft aktualisiere: Die steht direkt neben dem PC in Höhe des Front-USB und ist schnell abgeschlossen.

Ich habe übrigens alles in min. dreifacher Ausfertigung: Original + min. zwei (max. fünf - davon eine bei meiner Mutter) Sicherungen.
Ergänzung ()

SE. schrieb:
Naja, rsync muss ich erst konfigurieren, snapper ist schon fertig und funktionsfähig. Insofern, ja, aus meiner Sicht ist der Aufwand höher. Nachdem ich mir die (bei Wikipedia verlinkten) GUIs für rsync angeschaut habe erscheint es mir nicht so einfach, als dass ich mich damit im Moment auseinandersetzen will.
Bzgl. dem rsync-GUI gilt das gleiche, was ich hier im Thread zum FSArchiver-GUI geschrieben habe: Macht es komplizierter und verhindert, dass man die eigentliche Funktionsweise begreift.

Ich nutze das mit "sudo rsync -vaxH --del (Quelle) (Ziel)“:
  • verbose
  • archive (Berechtigungen usw. bleiben erhalten)
  • nur das aktuelle Dateisystem (keine gemounteten Partitionen)
  • Hardlinks
  • nicht mehr vorhandene Dateien werden gelöscht
s. "man rsync"

Sollen unveränderte Dateien aus der vorherigen Sicherungsstufe per Hardlinks übernommen werden, muss man per "--link-dest" darauf verweisen, wobei die Pfadangabe relativ sein muss. - s. oben das Skript

SE. schrieb:
Das ist kein Vanilla Gnome (44.x) im gezeigten Ausschnitt. Ein dauerhaft sichtbares Dock unten hatte auch 43 nicht.
Er zeigt dort, wie er Gnome für sich praktikabel einrichtet.

andy_m4 schrieb:
Tabellenkalkulation ist nützlich, wird aber mit GNUmeric und Co ganz gut abgedeckt.
Da mir LO für meinen Bedarf zu groß ist (und oft häufiger aktualisiert wird, als ich es überhaupt nutze) habe ich mich letztens nach (gravierend kleineren) stand alone Alternativen umgesehen und bin auf Abiword (Abi hat nichts mit Abitur zu tun, sondern soll in irgendeiner Sprache "frei" heißen) und Gnumeric gestoßen:

Gnumeric kann LO direkt ersetzen und hat auch keine Probleme meine LO-Tabellen zu öffnen.

Abiword hat mit LO-Dokumenten leider kleinere Probleme und erstellt zwar kompatiblere ePub (als LO), macht bei Formatierung aber Probleme: Im ePub fehlen plötzlich Leerstellen, irgendwo im Text ist was plötzlich fett geschrieben, usw. - Das muss ich mir erst noch genauer ansehen.

Da das auch so bleibt, wenn ich das ePub mit Sigil öffne, liegt es nicht am Dokumentenbetrachter (xreader).
 
Zuletzt bearbeitet:
Caramon2 schrieb:
Die Partitionierung ist ja schnell erstellt, da ich das (wie geschrieben) im Terminal mache und mir die nötigen Befehlszeilen aufbewahre.
Ändert nichts daran, das es nicht als Argumentation gegen Subvols taugt.
Im Gegenteil.
Da schreibst Du es Dir auf. Bei Subvols aber nicht und das muss dann als Argument gegen Subvols herhalten.
Passt einfach nicht.

Caramon2 schrieb:
Alles was ich zu btrfs & Co. behaupte, basiert auf meinen eigenen, reproduzierbaren Erfahrungen bei der tatsächlichen Anwendung: Das sind keine theoretischen Überlegungen.
Das wäre aber immer noch nur ein Argument gegen btrfs.
Nicht gegen Snapshots. Nicht gegen Subvols.
 
andy_m4 schrieb:
Das klingt ein bisschen sinnlos. Der Cache ist eh unterteilt in in-Memory und on-disk. Und wenn ich will, das der mehr im RAM cached als auf Disk, dann würde ich "maxdisk" runterregeln und "maxram" hoch.
Dazu fällt mir gerade ein: Der RAM-Cache des Browsers wird afaik gelöscht, wenn man den Browser schließt. Der ins RAM umgesymlinkte :) Diskcache bleibt dagegen erhalten, solange man nicht rebootet.
 
Ich weiß garnicht warum
Caramon2 schrieb:
Wer sagt "ich habe damit keine Probleme", hat nicht gründlich genug getestet, oder sie vielleicht noch nicht bemerkt, da sich ja gezeigt hat, dass man sich auf btrfs-check nicht verlassen kann, da es (wie geschrieben) noch nicht mal einen bereits aufgetrenen Fehler findet, wenn man es die beschädigte Dstei direkt prüfen lässt.

Es drängt sich manchmal schon der Gedanke auf du trollst... :D

Ich habe damit keine Probleme :D
 
@Caramon2 meldest du denn auch die ganzen Auffälligkeiten, die dir beim Testen auffallen, an die Entwickler? Wäre schön damit diese gefixt werden können 😉

ich selbst nutze seit letztem Jahr BTRFS auf meinem Live System. Bin super zufrieden mit den Möglichkeiten, die es bietet. Gerade in Verbindung mit Arch Linux finde ich die Snapshots klasse. Ich hatte zum Beispiel vor ein paar Wochen das Problem, das ein Gtk4 Update Fehlerhaft war.
Ext4 habe ich nur auf meiner Spiele SSD aufgrund von case-folding. Aber sehe das jetzt nicht als Nachteil. Ich bin eher froh das es mehrere Möglichkeiten unter Linux gibt.

Wichtige Dateien habe ich keine auf dem PC. Liegt alles auf NAS + Backup NAS + Eigene Cloud. Somit sind die Daten für mich überall erreichbar, was mir wichtig ist.
 
andy_m4 schrieb:
Ändert nichts daran, das es nicht als Argumentation gegen Subvols taugt.
Wie kann man das nicht verstehen?

Eigene Partitionen kann man beliebig sichern, formatieren und wiederherstellen, auch von einem beliebigen Live-System aus, unabhängig von den anderen Partitionen.

Z. B. habe ich hier die Systempartition ins RAM gesichert:
  • Win+Shift+E ist bei mir “pkexec thunar" und ein damit geöffnetes Terminal hat gleich Rootrechte
  • "rsnv" ist ein Skrips, dass "rsync -axH --del $@" (no v) mit time ausführt)
  • ich experimeniere momentan damit, inaktive Fenster etwas durchscheinend zu lassen, damit ich die besser erkenne
Artix-rsync-Backup.mkv

Und nach Neuformatierung (ich wollte was ausprobieren) wieder zurück:

Artix-rsync-Restore.mkv

Außerdem brauchst man sich doch nur die fstab abzusehen, um zu sehen dass Subvols und Snspshots komplizierter sind.

Eine "normale" Installation ist wesentlich intuitiver zu handhaben und es ist egal welches Dateisystem dort eingesetzt wird.

andy_m4 schrieb:
Da schreibst Du es Dir auf. Bei Subvols aber nicht und das muss dann als Argument gegen Subvols herhalten.
Wozu auch?

Die haben nur Nachteile (was ist mit ineinander verschachtelten Subvol und/oder Snapshots: damit soll es doch irgendwelche Probleme geben, habe ich mal gelesen), bzgl. Swapfiles und/oder vHDs muss man irgendwas beachten, sonst könnte es zu Datenverlusten führen, auch bzgl. Sparse liest wann Warnungen, usw.

Nutzt man Dateisysteme ohne solchen "Firelefanz", braucht man sowas nicht beachten, sondern es funktioniert einfach und lässt sich problemlos sichern und voll funktionsfähig wiederherstellen/kopieren/clonen.

Wenn z. B. irgendjemand mit so einer Installation Probleme hat, würde ich mich dort schnell hineinfinden können um zu helfen. Ist es dagegen mit LVM oder diesem @-Zeugs installiert worden, müsste ich passen, da es mir zu unübersichtlich ist und ich nicht weiß, was für Stolpersteine dadurch vielleicht entstanden sind.

Wenn man eine möglichst einfache, übersichtliche, pflegeleichte (auch für Außenstehe, die ggfs. helfen möchten) Linux-Installation habe will, installiert man es am besten im BIOS-Modus auf MPT, mit separater System- und Home-Partition und nutzt kein btrfs, weil GUI-Installer dann (üblicherweise ungefragt) dieses @-Zeugs einrichten.

Das ist meine ausdrückliche Empfehlung für Einsteiger: Macht es euch nicht unnötig kompliziert und anderen nicht unnötig schwierig euch bei Bedarf zu helfen.
Ergänzung ()

ufopizza schrieb:
@Caramon2 meldest du denn auch die ganzen Auffälligkeiten, die dir beim Testen auffallen, an die Entwickler? Wäre schön damit diese gefixt werden können 😉
Ich wüsste nicht, war ich da melden sollte: Subvols/Snapshots sind ja keine Bugs, sondern ich halte prinzipiell nichts davon und dafür, dass Snapshots oft als Backup-Ersatz dargestellt bzw. verstanden wird, können die nichts.

Höchstens dass der Fehler in der beschädigten Datei reproduzierbar nicht gefunden wurde (auch nicht nach reboot, auch nicht von mehreren Live-Systemen aus), war ein Bug, aber was hätte das gebracht, das zu melden? - Das hätte die ja nicht reproduzieren können, dazu hätten sie die Platte gebraucht.

Die hatte ich aber gleich vollständig mit Nullen überschieben, da ich auf einen Hardwareschaden prüfen wollte: Davor und danach hatte ich SMART kontrolliert und da ohne Auffälligkeiten, habe ich sie mit xfs formatiert, die Sicherungen wieder drauf kopiert und anschließend nochmal SMART kontrolliert: Weiterhin nichts auffälliges.

Btw:

Kennt jemand eine Möglichkeit, den kompletten Inhalt eines Laufwerks dateiweise nach /dev/null zu kopieren? - Um zu prüfen ob alle Dateien vollständig lesbar sind.

Also z. B. (wenn man im Hauptverzeichnis des Laufwerks ist) "cp -av * /dev/null" - Das funktioniert leider nicht und auch per rsync habe ich keine Möglichkeit gefunden.

Im Internet bin ich nur auf Threads gestoßen, wo das gleiche gefragt wurde, aber auf keine Lösung.
 
Zuletzt bearbeitet:
Caramon2 schrieb:
(…)Macht es komplizierter (…)
Ich zitiere bewusst nur selektiv, das was du vorschlägst und ggf. selbst nutzt ist mir zu kompliziert.

Falls der Datenträger nicht mehr funktioniert sind mir die dort gespeicherten Daten egal. Im Falle, dass das OS Fehler nach einem Upgrade produziert reicht (mir) die schon vorhandene Snapshot-Funktion.
Da keine meiner (persönlichen) Daten Teil der Snapshots sind muss ich mich auch nicht weiter mit den @ subvolumes auseinandersetzen, meine Daten sind auf dem größten, mehr muss ich nicht wissen falls ich von extern darauf zugreifen wollen würde. Mysteriösen Datenschwund hatte ich bisher keinen.
 
  • Gefällt mir
Reaktionen: ufopizza
Caramon2 schrieb:
Ich bin ja generell kein Fan von klassischen Textverarbeitungsprogrammen.
Ich finds besser, wenn man so im Latex-Style mit expliziten logischen Markup arbeitet. Wo dann Inhalt und Aussehen auch strikt voneinander getrennt ist. Unter der Haube arbeitet ja Open-Document letztlich genauso.

Caramon2 schrieb:
Dazu fällt mir gerade ein: Der RAM-Cache des Browsers wird afaik gelöscht, wenn man den Browser schließt. Der ins RAM umgesymlinkte :) Diskcache bleibt dagegen erhalten, solange man nicht rebootet.
Dafür ist aber auch die ganze Zeit der RAM blockiert selbst wenn der Browser gar nicht offen ist.
Und ob das Hit-Miss-Verhältnis das rechtfertigt, das ist dann die Frage.
Und wenn mir wichtig ist Cache zu erhalten (weil es sich in meinem Szenario positiv bemerkbar macht), dann tue ich das auf nen persistenten Speicher wo es dann sogar ein Reboot überlebt.

Caramon2 schrieb:
Eigene Partitionen kann man beliebig sichern, formatieren und wiederherstellen, auch von einem beliebigen Live-System aus, unabhängig von den anderen Partitionen.
Ja. Das hab ich wohl verstanden.
Und ja, da hast Du recht.

Mein Problem ist Folgendes: Das Du versuchst gegen Snapshots und Subvols zu argumentieren, aber das dann Dir immer alles so zurecht legst, das es für Snaps/Subvols blöd aussieht und für Dich gut.
Letztens halt noch, das Snapshots kein Ersatz sind für Backups (was nie jemand ernsthaft behauptet hat; aber Du brauchtest ja irgendwas, damit Du gegen Snapshots wettern kannst, als wird erst mal so getan als ob das empfohlen wird), weil bei Dir schlägt häufig der Blitz ein und dann sind die Festplatten im Eimer.
Plötzlich gilt das nicht mehr (wo Du für Partitionen argumentieren willst) und dann wird gesagt: Bei Partitionen kann ich einzelne Partitionen wieder herstellen.

Mein Standpunkt ist da ziemlich eindeutig: Alles hat so seine spezifischen Vor- und Nachteile und je nach Anwendungsfall passt das eine besser und mal das Andere.

Und da nützt das wenig, wenn Du immer wieder ankommst mit: "Ja aber wenn ABC dann ist EFG blöd und nur XYZ das einzig Wahre."
(ist jetzt ein bisschen überspitzt formuliert aber so kommt es hier an)

Und sorry, aber der Diskussion bin ich ein wenig überdrüssig.

Caramon2 schrieb:
Außerdem brauchst man sich doch nur die fstab abzusehen, um zu sehen dass Subvols und Snspshots komplizierter sind.
Ach ja ?
Auf dem Rechner an dem ich hier sitze, da sind fast 40 "Subvols".
Meine /etc/fstab hat 6 Einträge, wovon 4 Netzlaufwerke sind.

Caramon2 schrieb:
Die haben nur Nachteile
Jaja. Nur Nachteile. Jeder der sowas einsetzt ist ein Trottel.

Caramon2 schrieb:
damit soll es doch irgendwelche Probleme geben, habe ich mal gelesen
Irgendwo gelesen ist so ne ähnliche Kategorie wie "Der Cousin eines Vetter meines Schwagers hat erzählt...."

Wie gesagt. Zu btrfs kann ich wenig beitragen. Hab selbst keine Erfahrung wie wackelig das ist oder nicht. Daher mache ich keine Aussage dazu.
Ich beziehe mich generell auf Snapshots und Subvols und nicht auf irgendeine konkrete Implementierung.
Das wäre echt schön, wenn Du da auch mal differenzieren würdest.

Caramon2 schrieb:
installiert man es am besten im BIOS-Modus auf MPT, mit separater System- und Home-Partition
Kann man so machen. Das das in jeder Situation "am besten" ist, das wage ich jetzt zu bezweifeln (ich selbst hab z.B. auch keine getrennte Home-Partition).
Aber irgendwie hast Du ja offensichtlich den Hang dazu Deine Vorgehensweise als die alleinig beste darzustellen und alles andere ist nutzloser Schrott.
 
  • Gefällt mir
Reaktionen: rarp und ufopizza
Caramon2 schrieb:
Kennt jemand eine Möglichkeit, den kompletten Inhalt eines Laufwerks dateiweise nach /dev/null zu kopieren? - Um zu prüfen ob alle Dateien vollständig lesbar sind.
find /path/to/mountpoint/ -type f -exec cp {} /dev/null \;

Kuristina schrieb:
Da muss man aber schon arg wenig RAM haben, dass dadurch was anderes blockiert ist.
Von "was anderes blockiert" steht da ja auch gar nichts.
 
Dann weiß ich nicht was du meinst. Wenn ich den ganzen Tag Vivaldi laufen hab, sind da vielleicht 300-400MB belegt (von 64 GB). Da ist nichts blockiert. Es wäre sonst einfach nur ungenutzt.
 
Zurück
Oben