Bericht Keine Angst vor Linux: Ein Überblick zum Einstieg in die Windows-Alternative

nun ja,
der eine lastet seinen RAM aus, der andere benutzt reichlich Subvolumes und der dritte schwört auf MBR Boot.
Da bekommt ein fauler Mensch wie ich, der einfach die Voreinstellungen der Distribution nutzt, (bei mir Ubuntu) richtig Angst vor Linux.;)

Gruß
R.G.
 
  • Gefällt mir
Reaktionen: Caramon2
andy_m4 schrieb:
Und wenn mir wichtig ist Cache zu erhalten (weil es sich in meinem Szenario positiv bemerkbar macht),
Ohne nachvollziehbare Beispiele ist das eine haltlose Behauptung.

Fakt ist jedenfalls, wenn man eine Webseite aufruft, kann das, was im Cache landet, schon 1h später nicht mehr aktuell sein und muss neu geladen werden. Und schon am Tag ist der Großteil des Cache-Inhalts wertlos, da nicht mehr aktuell: Wieso den also trotz aller Nachteile dauerhaft speichern?

Das hat jeder verstanden, dem ich es erklärt habe (obwohl sich keiner davon mit PCs auskannte) und insbesondere die mit HDs waren richtiggehend begeistert: Nicht nur dass der Browser viel schneller startete, auch das "Internet" war schneller: Vermutlich weil nicht erst dem Cache auf der lahmen Platte durchsucht werden musste, nur um festzustellen, dass es trotzdem neu geladen werden muss, weil nicht mehr aktuell.

Bei SSDs ist das natürlich nicht so auffällig, aber dass man ihr die ganzen Schreibzugriffe erspart und sie den große, überwiegend wertlosen Cache nicht mehr speichern und gelegentlich auf andere Flashzellen umkopieren muss, ist sicherlich kein Nachteil.

andy_m4 schrieb:
dann tue ich das auf nen persistenten Speicher wo es dann sogar ein Reboot überlebt.
Zumindest ich fasse nicht mitten während des surfen plötzlich den Entschluss den PC zu rebooten, sondern mache das erst, wenn es abgeschlossen ist. Beim nächsten Mal ist es sowieso inzwischen aktualisiert worden (weshalb sollte ich sonst die Seite wieder besuchen?), so dass mit den Versionen im Cache nur unnütz Flashspeicher beschrieben wurde.

andy_m4 schrieb:
Ich bin ja generell kein Fan von klassischen Textverarbeitungsprogrammen.
Ich finds besser, wenn man so im Latex-Style mit expliziten logischen Markup arbeitet. Wo dann Inhalt und Aussehen auch strikt voneinander getrennt ist. Unter der Haube arbeitet ja Open-Document letztlich genauso.
Dazu nutze ich das zu selten. Ich müsste mich quasi jedesmal wieder neu einarbeiten.

Mir ist für ePubs schon Sigil mit Pageedit zu umständlich, weshalb ich eine benutzerfreundlichere Alternative suche, die dabei nicht solchen Mist wie LibreOffice macht und vor allem auch viel kleiner ist: LO geht ja schon etwas in Richtung GIMP.

andy_m4 schrieb:
weil bei Dir schlägt häufig der Blitz ein und dann sind die Festplatten im Eimer.
Du glaubst nicht an Gewitter, obwohl die insbesondere bei Wetterumschwüngen oft auftreten?

Aus dem Weltraum soll man sehen können, dass es immer irgendwo gewittert. - Oder glaubst du auch nicht an den Weltraum?

Es geht nicht darum, dass es passiert ist (dann wäre es ja schon zu spät), sondern dass es bei jedem aufziehenden Gewitter passieren könnte.

Dagegen sichere ich mich im vertretbarem Maß bestmöglich ab und empfehle auch das jedem anderen: Vor allem aus Eigennutz, weil mich das gejammer anwidert, man hätte alle seine Daten verloren, weil man es nicht nötig hatte, sie vernünftig zu sichern.

Bestes Beispiel: Mein Bruder. - Ich hatte ihm einen PC aus alten Teilen von mir aufgebaut, inkl. DVD-Brenner (ist schon eine Weile her): Dazu habe ich ihm ausdrücklich geraden, er solle seine wichtigen Daten auf DVD+RW sichern: Weil RWs wesentlich weniger anfällig sind, als normale Rohlinge und "+" für PC-Daten das besser Format sind.

Wann immer ich mal nachgefragt habe, hieß es "Ne, noch nicht.", bis er plötzlich rumheulte, dass alle seine Urlaubsfotos von den Reisen mir seiner Freundin (späteren Frau) weg sind: Er ist beim aufstehen mit dem Fuß so unglücklich an den laufenden PC gestoßen, dass er umkippte: Headcrash.

Und als Krönung war er dann sauer auf mich!?

Er hat mich seit dem nie wieder wegen PC-Sachen angesprochen.
 
Donnerkind schrieb:
Da das Teil sehr viel Saft zieht und ich eh nicht dauernd darauf zugreifen muss (Dinge, die ich gerade gucke, liegen auf dem PC gespiegelt), ist es die meiste Zeit über aus. Es können mehrere Monate zwischen Aus- und Wiederanschalten vergehen. In der Zeit ist es auch physisch vom Netz getrennt, damit der IPMI nicht sinnlos Strom verbrät. Problem solved. 😁
Keine Einwände. :)

Donnerkind schrieb:
Wenn es um Dateisystemrekursion geht und möglichst schnelle Operation bei vielen kleinen Dateien, nehme ich gern tar:
Code:
tar cav . > /dev/null
Hmm. Ich hatte das mit tar versucht, es war aber deutlich zu schnell fertig, hatte also nicht alles kopiert. Das muss ich nochmal testen.

andy_m4 schrieb:
Danke für die Erklärung, für mich sehe ich da aber keinen Vorteil/Anwendungszweck.

Bzgl. Aufteilung hatte ich früher die Sicherungsplatten in je drei Partitionen aufgeteilt und in jeder dann eine Komplettsicherung (Großvater - Vater - Sohn).

Sas hatte ich für den Fall gemacht, dass wenn das Dateisystem einer Partition beschädigt wird (dabei hatte ich Windows und ntfs im Hinterkopf: gebranntes Kind…), die anderen Sicherungen nicht betroffen sind.

Blöd war das nur, wenn ich größeres außer der Reihe dort speichern wollte, aber auf den einzelnen Paetitionen zu wenig frei war, ich es also auf mehrere aufteilen musste.

Da ich inzwischen wusste, dass man xfs selbst mutwillig kaum so beschädigen kann, dass alles weg ist (abgesehen von dd, blkdicard -z oder vergleichbare Holzhammer), sondern i. d. R. nur das Verzeichnis betroffen ist, in das gerade kopiert wird, wenn man das Laufwerk abzieht, Hardreset betätigt, oder den PC per schaltbarer Steckdosenleiste ausschaltet, habe ich die Sicherungsplatten als ganzes formatiert, statt der der Partitionen in Verzeichnisse gesichert: Sicherung{1..3} und konnte dann den freien Platz als ganzes nutzen.

Subvols vermisse ich dafür nicht.



Inzwischen gibt es auf jeder der Platten nur noch ein Sicherungsverzeichnis, in dem ich mehrstufig sichere und unverändertes per Hardlinks übernehme, was ensprechrnd viel Zeit und Platz spart, so das zig Sicherungsstufen möglich wären. - Aber das ist eine andere Geschichte.

andy_m4 schrieb:
Wie gesagt. Ich hab hier fast 40 Subvols. Wollte ich das alles in Partitionen organisieren, ja. Würde gehen. Würde die Sache aber verkomplizieren.
Unter Windows hättest du verloren, da es nur 26 Laufwerksbuchstaben kennt. :)

Btw: Ich muss dabei an den Amiga denken: Wenn dort die zweite Partition auf der Platte z. B. "Daten" hieß, konnte man sie mit dh1: oder mit Daten: ansprechen. Das war schon irgendwie angenehm.

Oder wenn man z. B. die Diskette "ST-03:" einlegen sollte, war es egal in welches Diskettenlauf.

Also wie /dev/disk/by-label, nur eben ohne /dev/disk/by-label, da das Label alleine gereicht hat.

Was passierte, wenn zwei Laufwerke/Partitionen das selbe Label hatten, weiß ich nicht. Aber das müsste ich auch bei /dev/disk/by-label erst ausprobieren, da ich identische Label vermeide.

andy_m4 schrieb:
Aber für Dinge wie /tmp und /var ein Subvol, damit man da Größenbeschränkungen einbauen kann, gleichzeitig aber die Option hat die Größe unkompliziert anpassen zu können.
Weshalb sollte man die größenbeschranken? Kommt es dann nicht zu Problemen, wenn sie voll sind?

andy_m4 schrieb:
Neuinstallationen kommen bei mir so gut wie gar nicht vor. Desktop-Installationen laufen bei mir i.d.R. "ewig". Dementsprechend liegt da bei mir auch kein Schwerpunkt drauf. Und wenn dann doch irgendwie mal ein System genutzt wird, dann kommt das halt in einen Container oder in eine virtuelle Maschine.
Als ich noch LinuxMint genutzt habe, habe ich auch jeden Pointrelease frisch installiert (also alle 6 Monate), da sich selbst dazwischen oft gravierendes änderte und ich eine saubere Installation haben wollte, anstatt durch normale Upgrades immer mehr Altlasten mitzuschleppen.

Da LinuxMint ab Version 19 immer inakzeptabler für mich wurde, hatte ich natürlich viele Testinstallationen, wobei mir nur klar war: Auf jeden Fall ein rolling Relesase, da ich diesen Versionswechselmist nicht mehr mitmachen wollte.

Und da musste ich mich erst Mal rein finden und vieles ausprobieren - darüber hatten wir ja schon gesprochen.

Ich "muss" eine eigene Homepartition haben, da ich die Systempartition jederzeit schnell mal formatieren und neu aufsetzen können will: Dass sichern formatieren und wieder zurückspielen eine Angelegenheit von insgesamt unter 2 Min. ist, hatte ich neulich ja mit den Bachup- und Restore-Videos gezeigt.

andy_m4 schrieb:
Ja. Aber genau das (also das der Cache die Disk benutzt) wolltest Du doch vermeiden. Dann ists aber plötzlich ok, wenns rausgeswapt wird?
Es ist ein relevanter Unterschied, ob das sofort und bis zig MiB Größe permanent aufs Laufwerk geschrieben wird (und anderen Programmen wichtigen Plattenplatz blockiert!), oder es allerhöchsten sehr selten (bei 32 und 64 GiB RAM, um die es hier geht, praktisch nie) temporär in die Swap-Partition geschrieben wird, da in diesem Szenario ja sowieso vorhanden ist, wodurch also kein weiterer Plattenplatz belegt wird.

Und auf meinem PC sowieso nicht, wie du bei meinem GParted-Shot und meiner neulich geposteten fstab sehen kannst.

Die einzige Swap, die ich nutze, habe ich per zRAM realisiert: Auch wenn ich mein Produktivsystem auf dem PC bei meiner Mutter boote (der nur 8 GiB RAM hat - mehr unterstützt das Board nicht), reicht das bei weiteren, obwohl ich dort oft mit VMs arbeite: z. B. um Livesysteme zu testen, oder eine Testinstallation (auf der selben SSD, wie das Hostsystem) zu booten, um es aktualisieren zu können, ohne dafür den PC rebooten zu müssen, usw.

Kuristina schrieb:
Sicher. Aber wie gesagt, mit nur 2 GB lagert sowieso kein Mensch den Cache ins Ram aus.
Danke für die Bestätigung: Ich wusste schon immer, dass ich nicht auf diesen Planeten gehöre! ;)

Im Ernst: Weshalb sollte man auf einem PC mit 2 GiB RAM und gleich großer Swap-Partition, der nur für gelegentliches sufen (nicht viel mehr als Google und ein paar Newsseiten) und alle paar Monate mal einen Brief schreiben genutzt wird, /tmp/ und den Browsercache nicht ins RAM legen?

Trotzdem wird die Swap meist nicht genutzt, oder höchstens ein paar hundert kiB ausgelagert.
 
  • Gefällt mir
Reaktionen: Kuristina
Caramon2 schrieb:
.. der nur für gelegentliches sufen .. und alle paar Monate mal einen Brief schreiben genutzt wird
Ich bin jetzt nicht von einem Nutzungsprofil ausgegangen, wo selbst 2 GB Ram überdimensioniert sind. 🙂
Wichtig ist ja nur, dass man selber zufrieden ist, so wie man es sich eingerichtet hat. Alles andere ist Wurst.

Eine Swap-Partition nutze ich übrigens nicht, hab ich auch gar nicht eingerichtet. Überflüssig für mich.
 
  • Gefällt mir
Reaktionen: Caramon2
Mein geliebtes Manjaro geb ich nicht mehr her !
Klar kommt es auf die Ansprüche des einzelnen an, aber Otto Normaluser benutzt kein Adobe Lightroom, Photoshop oder professionelle Bildbearbeitung. Die Allermeisten User Surfen, Mailen, schreiben Briefe und unterhalten ein Haushaltsbuch in einer Tabelle, oder zocken Spiele.
Und letzteres geht mittlerweile definitiv sehr gut und unkompliziert mit Steam oder dem Lutris und EpicGamestore.
Meine Laptop-Beleuchtungs Steuerung und sonstige Steuerknöpfe am Keyboard funktionieren weiterhin wie gehabt.
Bin nicht mehr bereit für teures Geld Betriebssystem , Officepaket und sonstige Software zu kaufen.
Und mit den genannten Linux Derivaten bekommt man genau das.
 
  • Gefällt mir
Reaktionen: Feuerbiber, Kuristina, Caramon2 und eine weitere Person
Ranayna schrieb:
Gibt es ein Programm dass den ganzen Krempel sauber ersichtlich in einer grafischen Oberflaeche anzeigt?
Mir ist gerade nichts besseres als der YaST Partitionierer eingefallen. So jedenfalls sieht der Ausschnitt zu meiner System-SSD (sdb) aus. Ich hatte die vorgesehene Einstellung während der Installation beibehalten.

IMG_1830.png
 
  • Gefällt mir
Reaktionen: Caramon2
andy_m4 schrieb:
find /path/to/mountpoint/ -type f -exec cp {} /dev/null \;
Ich hatte nicht bedacht, ob "find" die von mir massiv genutzten Hardlinks berücksichtigt, oder Dateien mit mehreren Hardlinks auch entsprechend oft an "cp" übergibt: Statt 270 GiB würden dann 1,1 TiB kopiert werden.

Die entsprechenden Einträgen der manpage verstehe ich nicht.

Donnerkind schrieb:
Code:
tar cav . > /dev/null
Das funktioniert so wirklich nicht: Es werden zwar alle Dateien aufgelistet, aber es wird nichts kopiert.

"-a" ist dabei übrigens unnötig und hat auf obiges keinen Einfluss:
-a, --auto-compress
Use archive suffix to determine the compression program.

Vorher habe ich die Belegung geprüft, um die Dauer abschätzen zu können, wodurch die komplette Verzeichnisstrucktur im Datenträger-Cache (im RAM ;) ) war:
Code:
# du -sBM *
1M    Aktualisierung.sh
118624M    Sicherung
1M    Sicherung.sh
24759M    sonstiges
132727M    Videos2

Anschließend ratterten die Dateinamen zwar durch, aber die LED der USB-HD (500 GB 2,5" Toshiba, 5400 rpm) zeigte keine Zugriffe.

Also ohne "-v":
Code:
# sync;time tar c . > /dev/null

real    0m13,631s
user    0m5,646s
sys    0m7,927s
259 GiB in 13,6 Sek. wären 19 GiB/s: Dafür müsste die Platte 1,26 Millionen rpm drehen. :)

Da ich vorher schon darüber nachgedacht hatte, das irgendwie durch "pv" zu leiten, um den Fortschritt kontrollieren zu können, habe ich das einfach mal dazwischen geklemmt und plötzlich funktioniert es:
Code:
# sync;tar c .|pv > /dev/null
 270GiB 1:00:07 [76,8MiB/s] [          <=>                                                         ]

Es werden sogar die Hardlinks berücksichtigt, sonst hätten die 1,1 TiB (Referenced) kopiert werden müssen:
Code:
# compsize .
Processed 2649412 files, 914298 regular extents (3820797 refs), 1191129 inline.
Type       Perc     Disk Usage   Uncompressed Referenced  
TOTAL       95%      259G         269G         1.1T       
none       100%      252G         252G         1.0T       
zstd        39%      6.9G          17G          71G

Obwohl ich "compress-force=zstd:2" nutze, wird fast nichts komprimiert, da das meiste auf der Homepartition, in "sonstiges" und die Videos schon komprimiert sind.

Der Inhalt der Linuxpartition lässt sich dagegen gut komprimieren (momentan sind es 11 Sicherungsstufen):
Code:
# compsize Sicherung/*/linux
Processed 2277341 files, 368374 regular extents (1378722 refs), 1154033 inline.
Type       Perc     Disk Usage   Uncompressed Referenced  
TOTAL       60%       15G          25G          88G       
none       100%      9.3G         9.3G          24G       
zstd        37%      5.9G          16G          64G

Und so macht man das mit brauchbarer ETA:
Code:
# sz=$(du -sBK);sz=${sz%K*}K;sync;tar c .|pv -s$sz > /dev/null

Btw:

Kann man das "sz=$(du -sBK);sz=${sz%K*}K" zusammenfassen? - Ich habe es per Try&Error versucht, aber nicht hinbekommen. - Mit bash kenne ich mich nur rudimentär aus.

Kuristina schrieb:
Ich bin jetzt nicht von einem Nutzungsprofil ausgegangen, wo selbst 2 GB Ram überdimensioniert sind. 🙂
Wichtig ist ja nur, dass man selber zufrieden ist, so wie man es sich eingerichtet hat. Alles andere ist Wurst.
Das ist sogar nur ein 2 GHz Athlon X2 der ersten Generation (K9): Als ich mir den damals gekauft habe, war das schon fast High-End und die 2x512 MiB RAM (wg. dual channel) schon so großzügig, dass ich (bei XP-Home) locker die Swap deaktivieren konnte: Das war eine noch größere Platzverschwendung, als ein Browser-Cache! ;)

Kuristina schrieb:
Eine Swap-Partition nutze ich übrigens nicht, hab ich auch gar nicht eingerichtet. Überflüssig für mich.
Mein Board unterstützt leider nur max. 32 GiB, so dass ich ohne zRAM-Swap nicht ohne physische Swap auskäme, wenn ich etwas entsprechend großes (min. 4 GiB) bestmöglich komprimieren möchte:
Code:
7zr a -mx -mqs -m1=lzma:d=4G …
 
TheHille schrieb:
Irgenwie habe ich in dem Thread gerade das Gefühl, die "Windows-Jünger" haben sich verabschiedet und die verbleibenden Linux-User kannibalisieren sich gerade selbst.

Dabei beweist ihr gerade durch eure Diskussion, dass Linux so unglaublich flexibel wie individuell ist, wie sein User. Es sollte dabei kein "Besser als..." geben.
Die Diskussion war ja vorbei, zumindest da wo ich teilgenommen habe. Die jetzt schon seit mehreren Seiten anhaltende Diskussion zu irgendwelchen technischen Details die damit anfing, wie man ein simples Backup bei Linux macht ist darüber hinaus ein besseres Argument als alles, was man sonst noch dazu schreiben könnte.
 
  • Gefällt mir
Reaktionen: Hyourinmaru
SE. schrieb:
Mir ist gerade nichts besseres als der YaST Partitionierer eingefallen. So jedenfalls sieht der Ausschnitt zu meiner System-SSD (sdb) aus.
Mich würde interessieren, was "lsblk -f" ausgibt.
(das Terminalfenster sollte dafür min. 120 Zeichen breit sein)

Zum Vergleich:

So sieht das bei meiner System-SSD normalerweise (ohne UEFI und GPT) aus:
Code:
NAME     FSTYPE      FSVER LABEL      UUID                                 FSAVAIL FSUSE% MOUNTPOINTS
sda                                                                                       
├─sda1   btrfs             Artix      a4566f38-daf2-4aa5-b4e5-ad251958e61e   10,8G    30% /
└─sda2   crypto_LUKS 2                5985d268-3f7b-4e22-9c11-ea150996d6ad                
  └─Home xfs               Home       5a27bb27-37cb-4102-9504-59bf412e6ed1   58,8G    59% /home
 
Caramon2 schrieb:
Hmm. Ich hatte das mit tar versucht, es war aber deutlich zu schnell fertig, hatte also nicht alles kopiert. Das muss ich nochmal testen.
Es hat wohl erkannt, dass der Output nach devnull geht und hat deshalb "abgekürzt". Darum habe ich in meinem Codeschnipsel auch umgeleitet statt direkt von tar in devnull schreiben zu lassen. Dass das doch nicht klappte, war mir nicht bewusst.

Caramon2 schrieb:
Weshalb sollte man die größenbeschranken? Kommt es dann nicht zu Problemen, wenn sie voll sind?
Früher[TM], als Platten klein waren, hatte man die Hauptverzeichnisse auf verschiedenen Partitionen, damit, falls mal /var oder /log voll läuft, nicht das System unbrauchbar wird, weil z.B. keine Tempdateien mehr angelegt werden können.
Caramon2 schrieb:
Da ich vorher schon darüber nachgedacht hatte, das irgendwie durch "pv" zu leiten, um den Fortschritt kontrollieren zu können, habe ich das einfach mal dazwischen geklemmt und plötzlich funktioniert es:
Dann hat hier die Heuristik also nicht mehr funktioniert, eine Umleitung nach devnull zu erkennen.

Caramon2 schrieb:
"-a" ist dabei übrigens unnötig und hat auf obiges keinen Einfluss:
Muskelgedächtnis.😇 Ich sage nur "tar bomb": https://xkcd.com/1168/

Caramon2 schrieb:
Ich habe es per Try&Error versucht
Die Phrase heißt "Trial and error".

Caramon2 schrieb:
Kann man das "sz=$(du -sBK);sz=${sz%K*}K" zusammenfassen?
sz="$(du -sB 1024)"
Edit: achso, du willst den Punkt dahinter weg haben? Dann gibt es mehrere Wege nach Rom:
du -sBK | cut -f 1
du -sBK | sed 's/ .*//'

Caramon2 schrieb:
Mit bash kenne ich mich nur rudimentär aus.
Mir ist bereits aufgefallen, dass deine vielen kleinen Skripte alle mit der fetten bash gestartet werden, obwohl oft das leichtere sh reichen würde. Es geht hier doch um Performance! 😁

BeBur schrieb:
Die Diskussion war ja vorbei, zumindest da wo ich teilgenommen habe. Die jetzt schon seit mehreren Seiten anhaltende Diskussion
Ist ja oft bei Linux-Artikeln so. Erst ein paar Seiten zum eigentlichen Thema und dann fangen wir Nerds an, rumzunerden.
 
  • Gefällt mir
Reaktionen: Caramon2
Ich finde eure kleinteilige Diskussion ganz interessant, ich bin auch seit ca. 10 Jahren mit Linux unterwegs.
Aber schaut euch mal den Threadtitel an, glaubt ihr ernsthaft, wie das jemanden motivieren soll, sich als Einsteiger mit Linux zu beschäftigen?
Das ist doch völlig aus dem Ruder gelaufen ...
 
  • Gefällt mir
Reaktionen: Feuerbiber, Hyourinmaru, rgbs und eine weitere Person
Caramon2 schrieb:
Sieht dann so aus;
Code:
sdb                                                                         
├─sdb1
│    vfat   FAT32       1D03-F677                             510,7M     0% /boot/efi
└─sdb2
     btrfs              c2d6758a-8c47-4aa4-8b46-9c1e1000b701  132,7G    41% /var
                                                                            /usr/local
                                                                            /root
                                                                            /srv
                                                                            /opt
                                                                            /home
                                                                            /boot/grub2/x86_64-efi
                                                                            /boot/grub2/i386-pc
                                                                            /.snapshots
                                                                            /

Mir fällt gerade ein, eine/die swap Partition hatte ich während der Installation abgewählt.
 
  • Gefällt mir
Reaktionen: Caramon2
Donnerkind schrieb:
Edit: achso, du willst den Punkt dahinter weg haben? Dann gibt es mehrere Wege nach Rom:
du -sBK | cut -f 1
du -sBK | sed 's/ .*//'
Es geht darum, nur den Wert zu bekommen (für "pv -s"), ohne irgendwas davor/dahinter.

Das mit "sed" funktioniert übrigens nicht:
Code:
$ echo ">"$(du -sBK | sed 's/ .*//')"<"
>28681552K .<

Aber "cut" ist ideal, da man damit nicht mehr auf größere Einheiten runden muss:
Code:
$ echo ">"$(du -sb | cut -f 1)"<"
>29315731889<

Damit lässt es sich zu einem einzigen Befehl zusammenfassen:
Code:
tar c .|pv -s$(du -sb|cut -f1) > /dev/null
Gefällt mir. :)

Donnerkind schrieb:
Mir ist bereits aufgefallen, dass deine vielen kleinen Skripte alle mit der fetten bash gestartet werden, obwohl oft das leichtere sh reichen würde. Es geht hier doch um Performance!
Ich mache das, weil mir unter LinuxMint aufgefallen ist, dass "echo -e" zw. bash/sh verdreht sind: Bei bash brauchte man "-e" um "\n" zu aktivieren, bei sh war das standardmäßig aktiviert und wurde mit "-e" deaktiviert, so dass es als Text statt als Zeilenschaltung ausgegeben wird: Da ich das im Terminal ausprobiere (und es das gewohnt bin), war es mir zu heikel, im Skript sh zu nutzen, da ich ja nicht weiß, wie viele andere Stolpersteine es da vielleicht noch gibt.

Bei Artix arbeitet "echo -e" offenbar aber gleich:
Code:
$ echo -e "\ngg\n"

gg

$ sh
sh-5.1$ echo -e "\ngg\n"

gg

sh-5.1$
Kann ich davon ausgehen, dass das alles betrifft und das bei LinuxMint nur der typische Ubuntu-Murks war?

Aber sollte ich dann nicht doch besser weiter pauschal bash nutzen, da meine hier veröffentlichten Skripte ja auch von Ubuntu(+Detrivat)-Nutzern genutzt werden könnten?

garfield121 schrieb:
Ich finde eure kleinteilige Diskussion ganz interessant, ich bin auch seit ca. 10 Jahren mit Linux unterwegs.
Aber schaut euch mal den Threadtitel an, glaubt ihr ernsthaft, wie das jemanden motivieren soll, sich als Einsteiger mit Linux zu beschäftigen?
Ich finde diesen Thread ziemlich produktiv und habe mehrere Beiträge als Lesezeichen gespeichert, um später bei Bedarf darauf verweisen zu können.

Wie ich schon in der Schule gerne sagte: Man muss nicht alles wissen, nur wo man es nachsehen kann. - Im Kombination mit: Man darf alles, nur nicht sich erwischen lassen. :D
 
garfield121 schrieb:
Das ist doch völlig aus dem Ruder gelaufen ...
zumal meiner Ansicht nach auch Sachen wie copy nach /dev/null sinnfrei sind.
Wenn ich meine Daten zwecks Sicherung eh kopiere, bekomme ich ja dabei dann eine Fehlermeldung, wenn es bei den Quelldateien Probleme mit dem Lesen gibt.

Gruß
R.G.
 
rgbs schrieb:
Wenn ich meine Daten zwecks Sicherung eh kopiere, bekomme ich ja dabei dann eine Fehlermeldung, wenn es bei den Quelldateien Probleme mit dem Lesen gibt.
Der Fehler war auf der Sicherungsplatte!

Der trat erst auf, als ich die Sicherung wiederherstellen wollte und ich konnte den nicht voher finden, da btrfs check bei sporadischen Prüfungen immer meldete, dass keine Fehler gefunden worden wären. Es hat den Fehler ja nicht mal gefunden, als ich es die defekte Datei direkt habe prüfen lassen.

Das war ein mehrere hundert MB großes Video. Wenn es den Fehler gefunden und repariert hätte, wäre höchsten eine kurze Bildstörung geblieben, aber so brach das kopieren nach 1/3 ab und an Rest kam ich nicht mehr heran.

Auf der anderen Sicherungsplatte, die ich auch in guten Glauben an die Stabilität durch das umfassende Checksumming mit btrfs formatieren hatte, was es zum Glück noch in Ordnung.

Deshalb habe ich jetzt nur noch je eine Platte mir btrfs formatiert, um das weiter beobachten zu können und alle anderen mit xfs, das schon oft gezeigt hat, wie überragend stabil es ist, obwohl es nicht mal für die Metadaten Checksumming nutzt.
 
  • Gefällt mir
Reaktionen: rgbs
Caramon2 schrieb:
Das mit "sed" funktioniert übrigens nicht:
Weil du kein Leerzeichen ausgibt, sondern einen Tabulator. Wenn du in dem sed-Argument das Leerzeichen vor dem .* durch \s (für „whitespace character“) ersetzt, geht es.

rgbs schrieb:
zumal meiner Ansicht nach auch Sachen wie copy nach /dev/null sinnfrei sind.
Caramon2 schrieb:
Der Fehler war auf der Sicherungsplatte!
Ich habe mir vor langer Zeit mal ein Python-Programm geschrieben, das rekursiv Checksummen erstellt und prüft. Aber nicht in eine große Checksummendatei für alles, da hätte ich auch hashdeep o.ä. nehmen können. Ich wollte eine Datei pro Verzeichnis. Vor allem bei Video- und Musikarchiven war mir das wichtig, damit ich auch mal einzelne Verzeichnisse kopieren und dann trotzdem sicher sein kann, dass die Dateien nicht kaputt sind. Diese Paranoia stammt aus einer Zeit, in der ein Bekannter und ich mangels Finanzen nicht mehr die gesündesten Speichermedien hatten.
 
  • Gefällt mir
Reaktionen: Caramon2 und rgbs
Caramon2 schrieb:
Der Fehler war auf der Sicherungsplatte!

Der trat erst auf, als ich die Sicherung wiederherstellen wollte und ich konnte den nicht voher finden,
o.k.
dann ist es nicht sinnfrei.
Ich kopiere meine Daten vom "Hauptrechner" mehr oder weniger zyklisch auf zwei andere Rechner und eine USB-Platte.
Bei den mit clonezilla erstellten Images der System - und VM Festplatte wähle ich immer Image überprüfen mit aus.

Gruß
R.G.
 
  • Gefällt mir
Reaktionen: Caramon2
Will jetzt keinen neuen Beitrag eröffnen, aber gibt es eine Möglichkeit Videoaufnahmen von vor 30 Sekunden z. B. wie unter Windows zu erstellen? Klar, man kann OBS laufen lassen, aber mit 60fps und 2k Auflösung geht der Festplattenspeicher auch immer mehr weg.
 
Donnerkind schrieb:
Weil du kein Leerzeichen ausgibt, sondern einen Tabulator. Wenn du in dem sed-Argument das Leerzeichen vor dem .* durch \s (für „whitespace character“) ersetzt, geht es.
Im ersten Moment meinte ich, mit "du" würdest du mich meinen. ;)

Etwas ähnliches gab es mal auf dem Kindergeburtstag bei Nachbarn: Die hatten zwei Töchter: Nora (6) und Mia (4) und eine evtl. Tante fragte Nora: Ich das deine Puppe? - "Nein, die gehört … meiner Schwester."

Die Mutter hat dann erklärt: Zuerst wollte sie "Mia" sagen, aber das hatte schon mal zu Verwirrung geführt, weil das wie "mir" klingt. :)

Btw:

Den "tar"-Befehl habe ich inzwischen erweitert, damit er keine eingehängten Partitionen mitkopiert:
Code:
tar c --one-file-system .|pv -s$(du -xsb|cut -f1) > /dev/null

rgbs schrieb:
dann ist es nicht sinnfrei.
Vor allem hat es ziemliches Potenzial:

Gestern habe ich es z. B. genutzt, um verschiedene Dateisystem zu benchen. Und für Sicherungen (statt /dev/null in eine Datei leiten) könnte man "tar" ja auch nutzen. ;)

Wer weiß, was sich vielleicht noch alles für Einsatzmöglichkeiten ergeben.

rgbs schrieb:
Ich kopiere meine Daten vom "Hauptrechner" mehr oder weniger zyklisch auf zwei andere Rechner und eine USB-Platte.
Ich habe mein System auf je einer int. und ext. SSD, die ich synchron halte (auf der ext. um es an beliebigen PCs booten zu können). Ich sichere es auf ext. 3x 1 TB 3,5" HDs (eine davon bei meiner Mutter) und 2x 500 GB 2,5" HDs, wovon eine den Fehler hatte: Nur im Dateisystem: Die Platte habe ich mehrmals vollständig mit "dd" überschrieben und ausgelesen, dazwischen SMART kontrolliert und zuletzt den extended SMART Selbsttest durchgeführt: Alles ohne Befund.

Je eine 1 TB und 500 GB habe ich inzwischen (vor ca. einen Monat) wieder mit btrfs formatiert, um zu sehen, ob das wieder passiert (dafür brauche ich diesen "tar"-Befehl) und um btrfs und xfs direkt miteinander vergleichen zu können.

rgbs schrieb:
Bei den mit clonezilla erstellten Images der System - und VM Festplatte wähle ich immer Image überprüfen mit aus.
Für Images habe ich früher FSArchiver genutzt, aber inzwischen sichere ich ausschließlich per rsync, also dateiweise: Anstatt immer wieder alles als Image zu sichern, brauchen nur geänderte Dateien übertragen werden (dto. beim restore) und man kann auch einfach per Dateimanager drauf zugreifen, wenn man nur etwas bestimmtes braucht.

Verify dauert mir zu lange (dafür habe ich mehrere Sicherungen) außerdem schützt es nicht vor Fehlern, die nachträglich entstehen: Vielleicht entstand der Fehler ja erst bei einem Balancing, das gelegentlich habe durchführen lassen. - Das mache ich jetzt nicht mehr. Auch auf die Defragmentierung von xfs verzichte ich jetzt, da xfs_fsr offenbar mit meiner massiven Hardlink-Nutzung nicht gut zurecht kommt: Eine Sicherung hatte zuletzt über 2 Min. gedauert, selbst wenn sich fast nichts geändert hatte: Ohne Defragmentierung nach der Neuformatierung dauert vergleichbares auch jetzt noch nur ca. 40-50 Sek.

Selbst nachdem letztes Mal ca. 1,1 GiB aktualisiert worden war, war das in 1:08 Min. gesichert: Früher hätte das schon an die 3 Min. (auf der selben Platte) gedauert.

Hunky schrieb:
Will jetzt keinen neuen Beitrag eröffnen, aber gibt es eine Möglichkeit Videoaufnahmen von vor 30 Sekunden
Was meinst du damit?

Für mich liest sich das so, als willst du nachträglich etwas aufnehmen, das 30 Sek. vorher passiert ist: Wie soll das denn funktionieren?

Windows kenne ich nur bis XP und den Moviemaker habe ich nie genutzt, falls du den meintest.
 
Darauf bin ich eben gestoßen:

Manjaro – wenn Dich Ubuntu am Arch lecken kann (kein Schreibfehler)

Das habe ich in einer eMail dazu geschrieben:

Das ist doch mal ein cooler Titel! :)

Persönlich nehme ich am liebsten Linux Mint Cinnamon, habe aber das auf Arch basierende Manjaro nie wirklich aus den Augen gelassen. Bei Ubuntu missfällt mir derzeit ehrlich gesagt dieser krude Mix aus Snaps und Nicht-Snaps .

Das kann ich gut nachvollziehen.

Im Paketmanager ist kaum zu sehen, was ist ein Snap und was nicht

Mir ist das bei Zorin erst aufgefallen, als bei der Installation von MPV ca. 90 MB statt knapp 900 KB geladen werden mussten! - Da hatte ich schon wieder die Schnauze voll.

und manche Pakete bekommst Du bei Ubuntu nur noch als Snap .

Nicht nur das: "apt" (was nichts mit Snap zu tun hat) wird dort so verbogen, dass wenn man damit z. B. Firefox installieren will, stattdessen das Snap installiert wird!

Solche Bevormundungen sind für mich ein no go!

Ein weiteres Sperenzchen ist, dass bei der Installation die Verschlüsselung (ecryptfs) des Home-Verzeichnisses nicht mehr angeboten wird.

Da gab es afair Sicherheitsbedenken.

Aber ich würde das sowieso nicht mehr nutzen, da als ich es mal eingesetzt habe (noch auf HD) und dann alle meine Daten wieder drauf hatte, dauerte es nach jedem booten zwei Minuten, bevor man das System endlich nutzen konnte, während der die Platte stärker gerattert hat, als bei einer Dafragmentierung ohne NCQ! - Vermutlich musste erst die komplette Verzeichnisstruktur eingelesen und entschlüsselt werden, da die Dateien und Verzeichnisse "von außer" (z. B. von einem Live-System aus) mit wirren Zeichenfolgen benannt waren.

Das war dann das zweite große Problem daran: Wenn das System z. B. nicht mehr booten konnte, kam man "von außen" nicht mehr an seine Daten.

Die Verschlüsselung mit LUKS hat dagegen überhaupt keinen erkennbaren Einfluss auf die Geschwindigkeit: Beim booten gibt man das Passwort ein und dann kann man es wie eine ganz normale Patition nutzen, ohne irgendwelche Einschränkungen. - Gleiches "von außen": Beim einhängen wird nach dem Passwort gefragt und dann kommt man ganz normal an seine Daten.

Manjaro bietet Dir während der Installation eine Verschlüsselung mit LUKS an, allerdings die gesamte Partition.

s. o.

Mit der Rolle Rückwärts von Unity zu GNOME hätte man fast denken können, dass Canonical wieder eine klarere Linie fahren möchte. Weit gefehlt. Es geht weiter mit Hü-Hott. Entweder ist Canonical komplett lernresistent oder ihnen sind die Desktop-Anwender ganz einfach scheißegal.

Ubuntu/Canonical stecke ich inzwischen in die selbe "Schublade" wie Windows/Microsoft.

Hier noch ein Beitrag , der gegen die Art Canonicals wettert, obwohl er das Prinzip der Snaps eigentlich gut findet – genauso wie Flatpaks oder AppImages. Auf ein paar Probleme von Snaps wird ebenfalls eingegangen.

Das scheint auch lesenswert zu sein (ich habe es nur überflogen):

-----
https://www.onli-blogging.de/1918/guid.html

Das Hauptproblem sind die Autoupdates . Snaps auf Ubuntu aktualisieren sich selbst. Sicherheitstechnisch begrüßenswert hat das einen Rattenschwanz von Problemen:

1. Snaps können ohne Vorwarnung und Lösung kaputtgehen. Wenn ein Snap-Ersteller ein fehlerhaftes Update veröffentlicht, bricht die Software bei all ihren Nutzern, ohne dass Nutzer das Update verhindern können.

2. Wie immer bei Autoupdates können sie im falschen Zeitpunkt auftauchen. Während einer wichtigen Präsentation beispielsweise soll der dafür genutzte Browser besser nicht updaten und dann einen Neustart einfordern. Mitten im Arbeitsflow gilt das gleiche für jede andere Software.

3. Nicht immer ist Traffic unbegrenzt verfügbar. Hänge ich am mobilen Internet, will ich wohl kaum, dass mein begrenztes Volumen von Snaps aufgefressen wird.
-----

Manjaro ist Rolling – rollt aber vorsichtig

Die Distribution hüpft einfach von einer Version zur nächsten. Das bezeichnet man auch als Rolling . Allerdings schieben Dir die Entwickler nicht immer ungebremst die neuesten Versionen auf den Rechner, sondern die Pakete werden zum Großteil überprüft und erst dann ausgeliefert.

Der Nachteil ist, dass Du vielleicht etwas auf die neuesten Software-Versionen warten musst. Der Vorteil ist aber, dass es weniger fehleranfällig ist. Bei Ubuntu oder Linux Mint musst Du auch oft auf neueste Software verzichten, außer Du nimmst ein PPA und das kann auch schon Mal schiefgehen (wenn auch selten).

Das Arch-Aquivalent zu PPAs ist das AUR: Man sollte unbedingt die Bewertungen und Kommentare lesen, bevor man aus dem AUR etwas installiert.

Danach hatte ich eigentlich gesucht:

Die offiziellen Manjaro -Versionen bieten als Desktop-Umgebung Xfce , KDE oder GNOME . Auf der Website ( https://manjaro.org/ ) findest Du aber auch Links zu Community-Versionen, unter anderem eine mit Cinnamon als Desktop-Umgebung.

Das ist der größte Vorteil von Manjaro:

Die versuchen über alle GUIs ein möglichst einheitliches Erscheinungsbild zu haben, so dass man die GUIs bei Manjaro besonders gut miteinander vergleichen kann.

Es gibt immer eine Version, bei der viel Software vorinstalliert ist. Weiterhin findest Du minimale Varianten. Bei diesen ist nur so gut wie das Nötigste vorinstalliert und Du kannst Dir die gewünschte Software selbst installieren.

Naja: In meinen Augen ist die "minimal"-Version immer noch ziemlich zugemüllt. Nur eben nicht ganz so schlimm wie die Hauptversion.


Ab da habe ich nur noch schnell durchgescrollt: Es erscheint gut beschrieben (zumindest umfassend bebildert) zu sein.
 
Zurück
Oben