Bericht Keine Angst vor Linux: Ein Überblick zum Einstieg in die Windows-Alternative

Zum Abschluss noch mal was Anderes.

Kritiker bemängeln ja gerne (und keineswegs immer zu Unrecht) , dass "wir" Linuxianer Probleme immer nur schön- und kleinreden oder als individuelles Pech in Sonderfällen darstellen, von denen die Anderen aufgrunddessen nicht betroffen sind. Dieser Eindruck täuscht; jeder hat(te) schon mal mit Unzulänglichkeiten zu kämpfen. Daher an dieser Stelle mal eine kleine Auswahl von Mucken und Macken unter Linux. Und zwar solche, denen auch ich persönlich schon ausgesetzt war oder bin:

  • Fenster merken sich ihre vom Benutzer gesetzte Größe nicht mehr, sondern öffnen sich immer nur im Miniformat, sodass man sie jedesmal neu verschieben, resizen und maximieren muss. Betrifft Ubuntu 23.04. Ursache ist vermutlich ein Fehler in Gnome 44, welcher bereits gefixt wird und daher in der nächsten Ubuntu-Version wieder Vergangenheit sein wird. Also potentielle Ubuntu-Neulinge: Finger weg von Zwischenversionen! Nur die Versionen nehmen, wo hinten ein LTS im Namen steht. Was nicht heißt, dass in LTS-Versionen grundsätzlich keine Fehler drin wären, denn ...
  • Snap-Updates sind bisweilen blockiert. Betrifft Ubuntu 22.x. Lösung per Befehl(e) im Terminal
  • DVD-Drive läßt sich nicht korrekt ansprechen. Betrifft Ubuntu 22.04. Ursache: Fehler im Paketmanagement
  • (zusätzlicher) Dateimanager Nemo läßt sich nicht installieren. Betrifft Ubuntu 22.04. Ursache: Fehler im Paketmanagement
  • Vorschaubilder von Bildern im Smartphone werden nicht angezeigt. Betrifft (vermutlich) mindestens alle Linuxe mit Codebasis Ubuntu 22 (also z.B. auch Mint 21)

Die vorgenannten Fehler sind allesamt vom Typ 'Regression'. Das ist besonders ärgerlich, wenn Dinge, die schon seit langem selbstverständlich sind, plötzlich nicht mehr funktionieren.

Die nachfolgenden Eigentümlichkeiten fallen dagegen mehr in die Rubrik Feature-Schwund:
  • keine Themes mit transparenten Startmenü und Taskleiste mehr. Betrifft KDE ab Version ??. Ich habe beispielsweise noch eine Rolling-Release-Distri mit KDE als VM. Wenn ich in den Snapshots rückwärts blättere, sind Startmenü und Taskleiste im unveränderten Theme plötzlich wieder transparent. Das heißt, bei einem der folgenden Updates wurde dieses Feature lahmgelegt. KDE ist allerdings bisher das einzige DE, das ich kenne, das das nicht mehr kann.
  • keine DeskCube-Animationen mehr. Betrifft KDE ab 5.23. Dieser Verzicht wird gern mit unnützer Spielerei gerechtfertigt. Ist es aber nicht. Wenn beispielsweise beim Switchen einer Arbeitsfläche optisch rein gar nichts passiert (auch kein 'Gleiten' oder ähnliches), dann findet man das schon irgendwie irritierend. Die Anpassungsfähigkeit des Desktop-Designs von KDE war ja früher mal Legende; mittlerweile ist es nur noch eine solche! Solche Sachen haben bewirkt, dass KDE von Platz 1 meiner persönlichen Beliebtheitsskala auf Platz 3 abgerutscht ist. Platz 1 hat nun Gnome inne. Ich kann es selber kaum fassen. Aber im Zusammenspiel mit den Gnome-Extensions läßt sich ein erstaunlich gutes Benutzererlebnis sowohl in Sachen Funktionalität als auch Ästhetik konfigurieren.
  • Titelleisten von Fenstern werden nicht mehr farblich hervorgehoben. Betrifft DEs mit 'Mutter' als Unterbau. Somit betroffen z.B. auch Mint 21. Abhilfe: zum Glück sehr simpel mittels einer Mini-Anpassung in einer Konfigurationsdatei. Wirkt auch in Ubuntu.
  • keine phantasievoll, witzigen Login-Screens mehr wie z.B. Blimp-City (muss man mal gesehen haben). Gehörte zu den Gimmicks von Linux Mint. Abgeschafft in Mint 19 (dort mit Patch noch reaktivierbar gewesen)
  • animierte Bildschirmschoner. Zuletzt gesehen ebenfalls in Linux Mint 18 Cinnamon. Überraschenderweise gibt es solche Screensaver aber noch unter Mint 20 mit Mate-Desktop.

Zuletzt noch der Klassiker:
  • Linuxe schreiben bei der Installation ihren UEFI-Eintrag stets nur auf die erste gefundene EFI-Partition. Das als solches ist allerdings NICHT der eigentliche Fehler. Sondern der Umstand, dass im Menü, auch andere Orte zur Auswahl angeboten und scheinbar auch angenommen werden - aber dann trotzdem ignoriert werden. Ist ungefähr so, wie wenn beim neuen Auto, da wo man die Bremse erwartet, aber das Gaspedal ist. Nicht schlimm, wenn man es erstmal weiß. Auch für das angesprochene Linux-Problem gibt es mindestens drei simple (laientaugliche) Workarounds.

Quellenangaben spare ich mir hier an dieser Stelle. Die kann ein jeder selbst bei Bedarf mit der Suchmaschine seiner Wahl sprudeln lassen.

Man sieht schon: jede Macke für sich allein genommen ist jetzt nicht gerade ein Weltuntergang. In der Summe genommen aber ist das doch mehr als nur ein 'Na ja'. Und einen Anspruch auf Vollständigkeit erhebt diese Mängelliste auch nicht.

Trotzdem ist das noch lange kein Grund für mich, Linux hinzuschmeissen. Ich bin nicht zu Linux gekommen, weil es besser als Windows funktioniert. Sondern weil es mir wesentlich mehr Freiheit bietet. Ich habe auch nicht Windows verlassen. Im Gegenteil, so paradox es klingen mag, Linux verhilft mir zu einem angenehmeren Benutzererlebnis von Windows. Denn ich verwende Windows (abgesehen vom Zeitraum für Installation und Grundkonfiguration) ausschließlich nur noch offline. Und dann läuft Windows auch weitestgehend stressfrei. (Das was ich unter Windows nutze, braucht kein Internet.) Ich kann mir das aber nur leisten, weil ich für alle Online-Aktivitäten Linux verwende.

Der Trend geht aber schon seit Jahren immer mehr in Richtung permanenten Online-Betrieb. Das heißt, die Gate-Keeper möchten, dass du deine Systeme und Programme immer nur mit zugeschaltetem Internet betreibst. Nur so können sie dich lückenlos kontrollieren und abgreifen. Der Nutzer als Nutztier sozusagen. Nicht mehr einfach nur Käufer, Kunde oder Konsument. Also wenn ich eines Tages dann das Gerät nur noch einschalten kann, wenn neben dem Stromstecker auch das Internet-Kabel eingesteckt ist, weil ich ansonsten ohne meinen Online-Account gar nicht mehr auf den Rechner zugreifen kann, dann wäre Schluss für mich. Egal ob Windows oder ein sonstiges OS.
 
  • Gefällt mir
Reaktionen: BeBur, Nowareeng und NedFlanders
lorpel schrieb:
Und der Show Stopper: mein Laptop Bildschirm läuft unter Linux nur mit voller Helligkeit.
Wenn man es halbwegs ernst meint, informiert man sich vorher welche Hardware gut unterstütz wird. Dann bleibt genau dieser Frust aus.

Der Show Stopper ist fast immer fehlerhafte Firmware/UEFI, oder simpel fehlende öffentliche Dokumentation der Funktionen seitens der Hersteller. Ersteres umschiffen die Hersteller gerne kommentarlos in ihren Treibern, welche idR nur Windows und MacOS aufs Silbertablett gelegt werden.
Im Server-Bereich sieht das anders aus, da gibts oft Treiber von den Herstellern. Da sind wir dann im Business-to-Business Bereich.


lorpel schrieb:
Fühlt sich an wie Computer Steinzeit.
Wenn in meinem Bekanntenumkreis Leute um Hilfe bitten, weil sie keine Windows10/11-Treiber finden, schlicht weil es keine gibt, oder Hardware nach Zwangs-Updates nicht mehr tut, dann denke ich an die Steinzeit.
 
7vor10 schrieb:
Dieser Eindruck täuscht; jeder hat(te) schon mal mit Unzulänglichkeiten zu kämpfen.
Jede Wahrheit braucht einen Mutigen, der sie ausspricht. :-)

Ja. Gutes Posting was auch mal so diese Seite anhand von konkreten Beispielen beleuchtet. Ich will dem auch gar nicht widersprechen oder so, sondern nur ein paar Anmerkungen machen, die so ergänzenden Charakter haben sollen.

7vor10 schrieb:
Das mit den Zwischenversionen da ist schon was dran. Das sind ja wirklich so eher Beta-Versionen die unters gemeine Volk gestreut werden, damit man da die Fehler raus kriegt.
Ich konnte ja mit ubuntu nie besonders viel anfangen bzw. wusste nicht, warum ich dem den Vorzug vor Debian geben sollte. Und der Grund der da häufig genannt wird ist, das bei ubuntu ja die Pakete aktueller sind. Nur wenn man LTS braucht, damit das ganze einigermaßen bugfrei ist, dann fällt das Argument ja weg.

On top kommt da jetzt noch der Snap-Kram. Also nix gegen Anwendungscontainer. Das Konzept ist ja nicht verkehrt. Und der hat seine Stärke vor allem darin, das Entwickler ihre Anwendungsprogramme distributionsunabhängig paketieren können. Aber sowas brauche ich nicht von meinem Distributor. Da möchte ich ein Repository haben. Wenn der aber anfängt Software zunehmend in solche Container zu schieben, wozu brauch ich dann überhaupt noch nen Distributor? Da würde mir ja ein Mini-System mit Container-Runtime völlig reichen.

ubuntu wird ja viel kritisiert wegen allem möglichen. Dazu will ich auch gar nicht so viel sagen, dazu kann man stehen wie man will. Ich denke sogar, das ubuntu nen wichtigen Beitrag geleistet hat. Vor allem in der Form, das sie Linux im "Massenmarkt" sichtbarer gemacht haben.
Aber so nüchtern betrachtet als Distribution ist das relativ unspannend.

7vor10 schrieb:
Ja. Da ist was dran. Ich erinnere mich noch an Zeiten, wo Compiz/XGL auf der Bildfläche erschien. Und ja. Das waren alles Spielereien. Aber es waren effektvolle Spielereien. Insbesondere bei Usern von kommerziellen Betriebssystemen die mit Linux Textbildschirme oder allenfalls altbackene GUI verbanden war das natürlich schon etwas, mit dem man Aufmerksamkeit erregen konnte. :-)

Insgesamt nimmt dieser Spaßfaktor ab. Man versucht sich sozusagen einen seriösen Anstrich zu geben. Und das ist ein Problem. Weil die normalen Dinge (Deine Beispiele illustrieren das ja schön) sind fehlerhaft und das wurde bisher noch dadurch ausgeglichen, das man wenigstens sowas hatte. Das fällt jetzt auch noch zusehens weg.

Was auch zunehmend wegfällt ist die Einfachheit. Linux war mal (ganz in UNIX-Tradition) ein einfaches, klares System, was leicht (ja; leicht ist relativ) zu durchschauen war. Inzwischen hat es doch schon einen recht hohen Grad an Komplexität erreicht. Das ist deshalb ein Problem, weil es nicht nur die (technische) Zugänglichkeit schwieriger macht, sondern auch die Chancen von Bugs erhöht.

7vor10 schrieb:
Man kann ja an UEFI viel kritisieren (und das auch zu Recht). Aber das booten (jetzt mal den SecureBoot-Krempel außen vor gelassen) hat sie einfacher gemacht. Keine Notwendigkeit mehr von irgendwelchen Bootmanagern. Man hat ne FAT-Partition, wo man seinen Loader oder wahlweise seinen Kernel rein wirft und das wars im Wesentlichen.
DAS dann noch in den Sand zu setzen, ist schon ne Leistung. :-)
 
7vor10 schrieb:
Linuxe schreiben bei der Installation ihren UEFI-Eintrag stets nur auf die erste gefundene EFI-Partition.
Da du ausschließlich von Ubuntu und Mint redest: hast du jemals einen anderen Installer als Ubiquity benutzt?
 
Das verschwinden des Cubeeffects war kontrovers jedoch ein typisches Problem. Die Codebase war Uralt und keiner hat sich an einen rewrite gemacht.

Edit: Ich meinte den von KDE: https://bugs.kde.org/show_bug.cgi?id=438883
 
Zuletzt bearbeitet:
BeBur schrieb:
Generell weil die meisten Menschen sich als reine Nutzer verstehen, zu recht.
Naja, Nutzer von Consumer-Hardware bin ich auch. Trotz eines unüblichen Betriebsystems auf dem Desktop musste ich noch kein Geld zusätzlich ausgeben.
andy_m4 schrieb:
Insgesamt nimmt dieser Spaßfaktor ab.
Ich weiß jetzt nich wie Linux früher war, Desktop-Effekte und so gibt es jedenfalls.
 
  • Gefällt mir
Reaktionen: Garmor
SE. schrieb:
Desktop-Effekte und so gibt es jedenfalls.
Awww yeah. Direkt installiert. Was ein herrlicher Blödsinn. Die bewerben das auch direkt mit "Indulge in nostalgia with useless 3D effects". :love:
 
  • Gefällt mir
Reaktionen: konkretor und sedot
SE. schrieb:
Ich weiß jetzt nich wie Linux früher war, Desktop-Effekte und so gibt es jedenfalls.
Hab ja auch nicht gesagt, das es die nicht gibt. Ich hab nur gesagt, das das abnimmt.
Früher hattest Du gefühlt an jeder Ecke irgendwie so Nettigkeiten. Das waren jetzt auch nicht unbedingt irgendwelche Desktop-Effekte oder so. Allein schon der Tonfall von Fehlermeldungen und so. Wo man halt deutlich gespürt hat, da arbeitet jemand mit Spaß und Leidenschaft an seinem Projekt.

Man kann sich solche Sachen immer noch reinziehen, wenn man möchte. Aber so die alltägliche Präsenz, die wird (zumindest nach meinen Beobachtungen) weniger.
 
  • Gefällt mir
Reaktionen: sedot
SE. schrieb:
Ich weiß jetzt nich wie Linux früher war, Desktop-Effekte und so gibt es jedenfalls.
Linux hatte sehr früh schon sehr coole solcher Desktop-Effekte.

LochinSocke schrieb:
Das verschwinden des Cubeeffects war kontrovers jedoch ein typisches Problem. Die Codebase war Uralt und keiner hat sich an einen rewrite gemacht.
Spannend, ich dachte immer dass das einfach nicht sehr praktikabel ist.
 
andy_m4 schrieb:
Um das zu umgehen, kann man Block-IDs einsetzen. Dann ist man nicht darauf angewiesen, das die Gerätebezeichnungen stimmen. Und wenn die einem zu unhandlich sind, dann ggf. auch Labels.
Beides ist mir zu umständlich (und Labels kann man bei leeren, oder zu plättenden Laufwerken sowieso nicht nutzen). Ich habe das Übel an der Wurzel gepackt und lasse einfach die Finger von Ubuntu und dessen Derivate: Für den Einstieg sind die wirklich sehr gut, aber wenn man sich dann etwas tiefer in Linux einarbeiten will, wirft einem die Ubuntu-Basis immer mehr Stöcke zwischen die Beine: Tendenz steigend.

Deshalb habe ich LinuxMint 18.3 (basierte auf Ubuntu 16.04) bis Ende 2020 genutzt, da Ubuntu danach (für mich) immer unbrauchbarer wurde: Zuerst hatte ich das für Kinderkrankheiten wegen der eher kurzfristigen Abkehr von Unity gehalten, aber als das mit jeder Versionen immer schlimmer wurde und sich das mit Ubuntu 20.04 fortsetzte, habe ich die Hoffnung aufgegeben und mir eine "vernünftige" Distribution gesucht.

andy_m4 schrieb:
Und dann natürlich der Standard-Tipp: Möglichst nicht als root arbeiten :-)
Vor jedem Befehl sudo eintippen ist mir zu umständlich.

andy_m4 schrieb:
Wenn man das muss, weil man z.B. irgendwie mit VMs was macht und man dafür auf Blockdevices zugreifen können muss, dann lieber gezielt für das Blockdevice Rechte vergeben und damit arbeiten.
Genau deswegen gehöre ich zu "disk".

Ich hatte auch schon mal mit sudo und runas=$USER (oder so) experimentiert, aber dass ist der Ton von meinem VM-XP-Home kaputt.

andy_m4 schrieb:
Der Sinn von Snapshots liegt nicht darin, auf dem Laufwerk was zu sichern im Sinne von Backups.
Mir ist das klar. Es geht um Otto*in Normalo, de{r,m} oft suggeriert wird, das wäre eine richtige Sicherung, ohne anzusprechen was das wirklich ist.

andy_m4 schrieb:
Der Sinn liegt darin, einen Zustand quasi einzufrieren.
Warum ist das praktisch? Naja. Man kann fröhlich drauf rumschreiben und weiß, wenn was schiefgehen sollte kann man jederzeit ein Schritt zurück (sowas in der Art kennt man ja auch von vielen VM-Lösungen).
Deshalb mein Quick & Dirty-Backup der System-Partition auf die 2. int SSD.

andy_m4 schrieb:
Ein gangbarer Weg zum verringern der Schreiblast beim Restore, wären die verschmähten Snapshots. :-)
Also um die bei den Experimenten versehentlich zerschossene Partition wiederherzustellen, soll ich die Snapshots nutzen, die sich auf eben jener Partition befunden haben? - Das erscheint mir wenig zielführend. ;)

andy_m4 schrieb:
Wenn man es mehr aus der "Bastel"-Perspektive betrachtet sieht die Sache freilich anders aus.
Ein schlankes System von wenigen GB kann man nämlich einfach mal komplett in einer RAM-Disk laufen lassen.
Richtig.

Deshalb hatte ich Windows auf einer möglichst kleinen Partition am Anfang der Platte (im schnellen Bereich und möglichst geringe Kopfbewegungen) und alle Programme nach D: installiert, wo auch meine Daten waren ("Eigene Dateien" habe ich niemals genutzt): Windows konnte ich dann schnell Norton Ghost (von einem MS-DOS Bootstick) sichern/wiederherstellen, ohne dass die Programme+Daten betroffen waren (die habe ich per Robocopy gesichert).

Nachtrag:

Das habe ich verwechselt: Obiges wollte ich zu deiner Aussage bzgl. Image aus dem selben Beitrag schreiben, den hatte ich offenbar aber nicht zitiert.

Bzgl. VM wollte ich stattdessen auf die Installation einer zRAM-Disk hinweisen: Win11 22H2 als Pro4WS installiert belegt frisch nach Installation und erstem booten 9,7 GiB die mit lz4 auf ca. 6,5 GiB komprimiert werden: Mit zstd wird es noch ca. 1 GiB besser komprimiert, aber das ist natürlich etwas langsamer. - Da man für Windows if=ide nutzen muss, aber nicht sehr viel langsamer.

7vor10 schrieb:
Daher an dieser Stelle mal eine kleine Auswahl von Mucken und Macken unter Linux. Und zwar solche, denen auch ich persönlich schon ausgesetzt war oder bin:
Du erwähnst nur Ubuntu und LinuxMint (ein Ubuntu-Derivat), unterstellst aber, das würde generell für "Linux" gelten:

1. Ubuntu ist nicht "Linux".

2. s. o. was ich zu Ubuntu geschrieben habe und wie ich das gelöst habe.

Nachtrag (hatte ich vorhin vergessen):

3. bzgl. UEFI macht auch der LMDE-Installer Mist, wie ich in meinem Ventoy-Thread beschrieben hatte: Ich hatte deswegen den Clement angeschrieben und er hat sich nach weiteren Details erkundigt, aber ob dann was passiert ist, weiß ich nicht. Der aktuelle LinuxMint-Installer, macht jedenfalls ähnlichen Quatsch.

Seine Adresse hatte ich übrigens aus dem Dankesschreiben zu meiner Spende: Das noch zu LM 18, da war es mir das mehr als wert und auch im Nachhinein finde ich das OK, da ich deren X-Tools weiterhin vorzugsweise nutze.

andy_m4 schrieb:
Man kann ja an UEFI viel kritisieren (und das auch zu Recht). Aber das booten (jetzt mal den SecureBoot-Krempel außen vor gelassen) hat sie einfacher gemacht.
Ich habe damals versucht, LinuxMint 18.3 im UEFI-Modus auf einen USB-Stick zu installieren.

Die Installation lief problemlos durch, aber es bootete nicht: Egal was ich versucht habe. - Ich konnte noch nicht mal herausfinden, weshalb es nicht booten wollte: Nicht der geringste Ansatzpunkt.

Meine Erfahrungen (auch bei Bekannten):

Mit UEFI gibt es ständig Ärger und Probleme beim booten, während der BIOS-Modus immer funktioniert: Das ist so schön einfach und unkompliziert.

Erst als ich mich neulich nochmal damit beschäftigt habe, konnte ich durch das englischen Arch-Wiki sogar eine Möglichkeit finden, wie ich beliebig in BIOS- und UEFI-Modus booten kann, egal ob int. oder ext. Laufwerk. (s. Partitionierung)

Der LinuxMint-/Ubuntu-Installer hat nichts davon gemacht: Womit wird wieder bei meiner obigen Aussage bzgl. Ubuntu und in Linux einarbeiten sind.

Der Kreis hat sich geschlossen. :)
 
Zuletzt bearbeitet:
Caramon2 schrieb:
Vor jedem Befehl sudo eintippen ist mir zu umständlich.
Ja. Vor allem gewinnt man ja nix, wenn man lediglich ein sudo voran schreibt. Das Ergebnis (also das man die Dinge mit root macht) bleibt ja gleich.

Aber man hat ja z.B. die Möglichkeit sich Nutzeraccounts anzulegen die man gar nicht als klassische Accounts zum arbeiten benutzt, sondern um sich in eine Rolle zu begeben.
So kann man sich beispielsweise ein Nutzer backup anlegen, der zwar über all Leserechte hat aber Schreibrechte nur aufs Backup-Zielmedium.

Will sagen: Wenn man sich dazu Gedanken macht, kann man sich schon Umgebungen bauen. Das ist mit Aufwand verbunden. Aber gerade wenn man Dinge öfter macht, kann man sich damit auch einer Probleme und potentiellen Gefahren entledigen.

Caramon2 schrieb:
Also um die bei den Experimenten versehentlich zerschossene Partition wiederherzustellen, soll ich die Snapshots nutzen, die sich auf eben jener Partition befunden haben?
Bei Partition zerschossen hilft das natürlich wenig.
Aber ja. Lustig. :-)

Caramon2 schrieb:
Es geht um Otto*in Normalo, de{r,m} oft suggeriert wird, das wäre eine richtige Sicherung,
Ehrlich gesagt kenn' ich niemanden der ernsthaft behauptet das das ein Ersatz für ein Backup ist. Klar gibts hier und da Leute die Quatsch schreiben. Aber hey. Das im Internet Leute rumlaufen die Quatsch schreiben ist nun nix Neues. Und wenn ich jedes Mal darauf Bezug nehmen würde, weil irgendwer irgendwo Quatsch geschrieben hat, dann kommt man ja gar nicht mehr zu Potte und bringt ja auch nix.

Caramon2 schrieb:
Mit UEFI gibt es ständig Ärger und Probleme beim booten, während der BIOS-Modus immer funktioniert: Das ist so schön einfach und unkompliziert.
Das klassische BIOS hat nur einen sehr primitiven Mechanismus zum booten. Der lautet so sinngemäß: Lese den ersten Sektor des Datenträgers ein und starte das Miniprogramm was da drin ist.

Alles andere muss quasi zu Fuß gemacht werden. Und das kann ein weiter Weg sein bis man allein den Kernel geladen hat. Weil der liegt irgendwo im Dateisystem. Ein Dateisystem, wovon Du im Zweifel nicht weißt wie es aussieht. Das Miniprogramm reicht dazu natürlich bei weitem nicht aus. Das reicht nur aus, um nen größeren Loader zu laden und zu starten der wiederum nur dafür da ist, um noch mehr Payload zu holen und dann bist Du irgendwann mal so weit, das Du auch den Kernel laden kannst.

Wie gesagt: Bei EFI reicht es, wenn Du den Kernel auf die EFI-Partition kopierst. Alles andere übernehmen UEFI-Funktionen.

Das Du als User davon nix merkst was beim klassischen BIOS alles so läuft ist ne andere Geschichte. Inbesondere weil die Tools natürlich auch immer ausgereifter wurden.

Das der BIOS-Boot-Mechanismus völlig problemlos ist, kann man so nicht sagen. Eine Erfahrung, die jeder schon mal diesbezüglich gemacht, der Linux und Windows via Dualboot gefahren hat.

Ich will ja auch nicht sagen, das alles eitel Sonnenschein ist. Ich sag ja nur, das vom Prinzip her das Boothandling (technisch!) einfacher ist als beim klassischen BIOS.

Was die Sache für Boot-Lösungen wirklich eklig macht ist was Anderes. Früher wars einfach. Damals gabs für die PC-Plattform nur BIOS und nur MBR als PArtitionsformat und damit musstest Du als Bootlösung umgehen können.
Dann kam UEFI und GPT. Und jetzt musst Du nicht mit einer Möglichkeit umgehen können, sondern gleich mit Vier (BIOS-MBR, BIOS-GPT, UEFI-MBR, UEFI-GPT).
 
  • Gefällt mir
Reaktionen: Giaolin
Ich finde die aktuelle Diskussion sehr sprechend in Bezug auf das eigentliche Thema des Threads :D. Ich stell mir vor, wie hier ein normaler PC-Nutzer erst den Thread titel liest "Keine Angst vor Linux" und dann liest, worüber hier diskutiert wird...

7vor10 schrieb:
Platz 1 hat nun Gnome inne. Ich kann es selber kaum fassen. Aber im Zusammenspiel mit den Gnome-Extensions läßt sich ein erstaunlich gutes Benutzererlebnis sowohl in Sachen Funktionalität als auch Ästhetik konfigurieren.
Spannend, ich hab eher schlechte Erfahrungen mit Gnome-Extensions gemacht. Die Funktionen die ich wollte (z.B. Tray Icon :rolleyes: ) gab es meist nur in sehr schlecht bzw. gar nicht aktualisierten Extensions die so halb funktioniert haben. Vielleicht bin ich aber auch speziell wegen tray icons ein gebranntes Kind was das angeht.
 
  • Gefällt mir
Reaktionen: Giaolin und andy_m4
Vorab: Ich habe bei meinem vorherigen Beitrag noch zwei Nachträge hinzugefügt (Grund: menschliches Versagen)

andy_m4 schrieb:
Wenn man sich dazu Gedanken macht, kann man sich schon Umgebungen bauen. Das ist mit Aufwand verbunden. Aber gerade wenn man Dinge öfter macht, kann man sich damit auch einer Probleme und potentiellen Gefahren entledigen.
Das ist alles richtig. Aber mir zu umständlich:

Wenn ich was ausprobiere, konzentriere ich mich darauf und will meine "Kapazität" nicht noch mit anderen verzetteln. Das lenkt nur ab und macht es unübersichtlicher.

Bei meiner Partitionierung ist das System schnell gesichert und wiederhergestellt (üblicherweise 15-20 Sek. und selbst nach einer Neuformatierung unter einer Min. - ich nutze "time" im Sicherungs-/Wiederherstellungsskript), also wozu der Aufwand?

Und selbst wenn alle Stricke reißen (z. B. defektes Netzteil röstet den ganzen PC), habe ich ja noch die ext. SSD mit der aktuell gehalten 1:1 Kopie, die ich überall booten kann.

andy_m4 schrieb:
Ehrlich gesagt kenn' ich niemanden der ernsthaft behauptet das das ein Ersatz für ein Backup ist.
Guck dir die MichlFranken-Videos an: Der lobt das immer in den höchsten Tönen und kritisch Distributionen, die das nicht so machen, aber noch niemals (ich habe mir letztes Jahr alle seine Videos angesehen: bis auf seine teils zweifelhaften Prioritäten sind die echt gut gemacht, nicht nur für Einsteiger) ist er darauf eingegangen, dass die alle weg sind, wenn auch nur diese eine Partition beschädigt wird.

andy_m4 schrieb:
Das der BIOS-Boot-Mechanismus völlig problemlos ist, kann man so nicht sagen. Eine Erfahrung, die jeder schon mal diesbezüglich gemacht, der Linux und Windows via Dualboot gefahren hat.
Bzgl. Windows kenne ich nur Berichte, wo das immer mal wieder den UEFI-Eintrag von Linux überschreibt.

Dem Bekannten in Bayern habe ich deswegen sogar dringend empfohlen, auf einem ausgemusterten Rechner, den er von seinem AG geschenkt bekommen, Windows im BIOS-Modus zu installieren, weil das eben viel einfacher (auch zu reparieren) ist.

Das hat er auch gemacht und obwohl das schon ca. 4 Jahre her ist, mit entsprechend vielen Windows Zwangs-Updates, hat Windows nie die LinuxMint-Installation gekillt.
 
BeBur schrieb:
Ich stell mir vor, wie hier ein normaler PC-Nutzer erst den Thread titel liest "Keine Angst vor Linux" und dann liest, worüber hier diskutiert wird...
Ist doch prima. Da kriegt er gleich ein realistischen Eindruck und fängt erst gar nicht an mit banalen Fragen a-la "Wie ändere ich den Desktop-Hintergrund" rumzunerven. :-)

Caramon2 schrieb:
Bzgl. Windows kenne ich nur Berichte, wo das immer mal wieder den UEFI-Eintrag von Linux überschreibt.
Das war eigentlich immer nur beim MBR weil der Windows-Installer den stumpf komplett neu geschrieben hat.
Aber ja. Vermutlich würde ich da auch bei UEFI mit dem ein oder anderen Fallstrick zu rechnen.
Der Punkt war ja, da gibts wenigstens einen standardisierten Mechanismus um mit solchen Dingen umzugehen.
Bei nem Bootmanager muss man erst gucken, welchen man da hat und dann könnte man sich da automatisiert eintragen, was dann aber halt abhängig vom benutzten Bootmanager ist.

Immerhin gibt es so einen minmalen Pseudo-Standard. Das nämlich der MBR-Loader guckt, welche primäre Partition auf dem Laufwerk als "aktiv" markiert ist. Damit waren schon recht früh Multi-Betriebssystem-Umgebungen machbar ohne großes Bootmanager-Gehampel. Man hat einfach nur mit fdisk die gewünschte Partition "aktiv" gesetzt.

Caramon2 schrieb:
Das ist alles richtig. Aber mir zu umständlich
Ja. Das es umständlich ist, hatte ich ja eingeräumt. Deshalb muss man halt gucken, ob sich das lohnt.

Caramon2 schrieb:
Guck dir die MichlFranken-Videos an
Wie gesagt. Ich kann nicht Rücksicht auf jeden Hinz und Kunz nehmen.
Der Grund für Backups ist ja nicht nur "falls man mal was ausversehen löscht", sondern auch Festplattendefekts und dergleichen. Damit verbietet sich sichern auf dem zu sichernden Medium ganz automatisch.
 
andy_m4 schrieb:
Das war eigentlich immer nur beim MBR weil der Windows-Installer den stumpf komplett neu geschrieben hat.
Meine Vorgehensweise:

Windows zuerst installieren, anschließend die Linux-Distibution und Windows dann über Grub booten.
andy_m4 schrieb:
Aber ja. Vermutlich würde ich da auch bei UEFI mit dem ein oder anderen Fallstrick zu rechnen.
Das Problem soll sein (oder war - ich bin da nicht im Thema), dass Windows unbedingt an die erste Stelle will: Setzt man was anderes an erster Stelle, wird es bei nächster Gelegenheit von Windows überschrieben und der Eintrag ist weg.

Workaround soll(te) sein, dass man Windows an erste Stelle lässt, den Eintrag an die dritte Stelle kopiert, den an erster Stelle auf unsichtbar schaltet, so dass die Linux-Distribution auf der eigentlich zweiten Stelle primär gebootet wird.

Da Windows nur prüft, ob es an erster Stelle ist, aber nicht ob versteckt, pfuscht es dann nicht mehr am UEFI herum.

So habe ich das in Erinnerung, aber keine Ahnung wie man das umsetzt, da ich mich nie damit beschäftigt habe. - Einfacher als im BIOS-Modus booten ist das jedenfalls nicht.

andy_m4 schrieb:
Der Punkt war ja, da gibts wenigstens einen standardisierten Mechanismus um mit solchen Dingen umzugehen.
Bei nem Bootmanager muss man erst gucken, welchen man da hat und dann könnte man sich da automatisiert eintragen, was dann aber halt abhängig vom benutzten Bootmanager ist.
Ich nutze Grub und das hatte ich mir neulich herausgesucht, um ihn für beides Modi zu installieren:
Code:
# BIOS:
grub-install --recheck --target=i386-pc --boot-directory=/run/media/user/Artix-eSSD/boot/ $lw
# UEFI:
grub-install --recheck --target=x86_64-efi --removable --no-nvram --bootloader-id=Artix --boot-directory=/run/media/user/Artix-eSSD/boot/ --efi-directory=/run/media/user/ESP/ $lw

Da ich mich sowieso gerade mit UEFI beschäftigte und etwas mit Windows 11 (als Pro4WS) ausprobieren wollte, habe ich die erste SSD abgeklemmt (damit Windows mir die nicht zerschießt) und Windows auf der vorher geblkdiscardeten zweiten SSD (120 GB) im UEFI-Modus installiert und es standardmäßig installieren lassen.

Als dann endlich in den Desktop gebootet wurde und das Starmenü sowieso offen war: "cmd" + Strg+Shift+Enter und dort "powercfg -h off" damit es sauber herunter fährt. Anschließend habe ich auch noch die Swap deaktiviert. - Sonst habe ich nichts daran geändert.

Reboot, dann noch die Windows-Partition um ca. 20 GiB verkleinert und dort eine Test-Partition (ntfs) erstellt.

Wichtig: Das ganze offline, da Windows (egal welche Version) von mir niemals wieder einen Internetzugang bekommen wird.

Dann runter gefahren und die erste SSD wieder angeklemmt, da ich Artix zur Gegenkontrolle brauchte.

Wichtig: Die Windows-Partition habe ich niemals unter Artix angerührt und auch die Testpartition ausschließlich lesend zugegriffen.

Dann wieder Windows gebootet, meine Tests durchgeführt, zwischendurch immer mal wieder Artix gebootet und gegengetestet. - Alles kein Problem.

Dann den Computer runtergefahren und was anderes gemacht.

Später wollte ich noch etwas testen, will Windows booten, es kommt aber nur ein schwarzer Bildschirm und unten steht diese Meldung:

Win11-Fail.jpg

Nichts geht mehr. Nicht mal Strg+Alt+Del: Es blieb nur derHardreset.

Beim nächsten Versuch die selbe Meldung (ggfs. mit einer anderen Zeichenfolge hinten: das war jedenfalls nicht immer obige) und wieder blieb nur der Hardreset.

Ich boote Artix im UEFI-Modus (ja, das funktioniert weiterhin problemlos) und lösche alle Booteinträge, die Bootreihenfolge und dem Timeout, so dass das angezeigt wurde:
Code:
$ sudo efibootmgr
BootCurrent: 0004
No BootOrder is set; firmware will attempt recovery
Anschließend versuche ich wieder Windows zu booten: Weiterhin diese Meldung.

Ich habe dann sogar noch versucht, die zweite SSD per VM im UEFI-Modus zu booten:
Code:
cp -a /usr/share/edk2-ovmf/x64/OVMF.fd /tmp/uefi.bin
qemu-system-x86_64 -nodefaults -machine q35 -pflash /tmp/uefi.bin -enable-kvm -cpu host -smp cores=4 -m 4G -display sdl,gl=on,window-close=off -vga virtio -drive file=/dev/sdb,if=ide,aio=io_uring,discard=unmap
Aber auch da kam diese Meldung.

Wo ist das abgesicherte Modus geblieben?
Wo die Reparaturkonsole (oder wie das heißt)?
Wie soll man da was machen, wenn man nicht (außer Hardreset) machen kann?

Ich bin wirklich beeindruckt.

Wieso war ich so blöd zu Linux zu wechseln? Windows ist doch viel besser!!!

Nachtrag:

Was hätten mit da eigentich Snapshots (würde Windows ReFS nutzen) oder Wiederherstellungspunkte genutzt?
 
Caramon2 schrieb:
Meine Vorgehensweise:

Windows zuerst installieren, anschließend die Linux-Distibution und Windows dann über Grub booten.
Genau. Das ist auch die Standardvorgehensweise die immer empfohlen wurde/wird, um den MBR-Problemen aus dem Wege zu gehen.

Was Windows und UEFI angeht, kann ich (zumindest fürs Multiboot-Szenario) nur begrenzt Erfahrung vorweisen. Insofern äußere ich mich dazu lieber nicht. :-)

Caramon2 schrieb:
Man muss da übrigens ein bisschen aufpassen, das man sich da nicht ein totales Mischmasch einfängt. Weil auf der einen Seite hat man dann UEFI, was quasi sein eigenes Boot-Managerment usw. mit bringt. Auf der anderen Seite GRUB, was wiederum auch sowohl als Bootmanager als auch als Loader fungiert.
Man hat also Dinge doppelt drin die man auch immer sauber nachziehen muss, weil man sich sonst Inkonsistenzen einfängt.

Ich würde mich da gar nicht erst in irgendwelche Hybrid-Boot-Höllen begeben. Wenn ich eh UEFI hab, dann würde ich auch konsequent drauf setzen und GRUB auch nur allenfalls in seiner Funktion als Linux-Loader nutzen (wenn überhaupt; man kanns genauso gut auch weglassen - Stichwort: EFISTUB) und alles andere UEFI überlassen.

Keep it simple.

Caramon2 schrieb:
Einfacher als im BIOS-Modus booten ist das jedenfalls nicht.
Wie gesagt. Bei meinen Ausführungen ging es primär um den technischen Background. Eher weniger darum, wie gut oder schlecht das im Einzelfall in der Praxis funktioniert.

Caramon2 schrieb:
Was hätten mit da eigentich Snapshots (würde Windows ReFS nutzen) oder Wiederherstellungspunkte genutzt?
Wenn das Problem in der EFI-Partition liegt: Gar nichts, weil das ein FAT-System ist und das kann keine Snapshots.
 
andy_m4 schrieb:
Ich würde mich da gar nicht erst in irgendwelche Hybrid-Boot-Höllen begeben.
Das war nur eine Spielerei, um zu sehen, ob ich es mit der Beschreibung im Arch-Wiki endlich hinbekomme, auch von USB im UEFI-Modus zu booten.

Wenn UEFI wieder Mist macht, kann ich ja immer im BIOS-Modus booten: Der ist trivial und funktioniert immer.

andy_m4 schrieb:
Eben.
 
SE. schrieb:
SUSE hat eine Dokumentation für snapper, vielleicht klärt das einige deiner Fragestellungen.
https://documentation.suse.com/de-de/sles/15-SP1/html/SLES-all/cha-snapper.html
Dort ist das unfassend beschrieben und wird sicherlich einigen helfen. Danke dafür.

Meine Frage bzgl. dem Windows-Bootprobleme hattes du aber offenbar Miss Verstanden: Das war rhetorisch gemeint, da man bei einem BS, das sich beim booten sofort so aufhängt, dass nur noch der Hardreset funktioniert, gar nicht erst darauf zugreifen kann.

Ich wollte damit meine Argumentation untermauern, dass Snapshots einem unbedarften Nutzer falsche Sicherheit suggerieren können (seinem Verständnis nach macht er damit ja Sicherungen), weil die Snapshots auch mit betroffen sind, wenn es mal wirklich kracht.

Deshalb bin ich der Meinung, man sollte sich Snapshots gar nicht erst einrichten, damit es gar nicht erst dazu kommt, dass man sich daran gewöhnt und die eigentlichen Sicherungen vernachlässigt, weil die mit etwas Aufwand verbunden sind.

Btw:

Auch unter Windows habe ich die Wiederherstellungspunkte nach einer Neuinstallation immer gleich deaktiviert, da ich die als nutzlose Platzverschwendung angesehen habe:

Als ich damals mit XP die Möglichkeit dazu bekam, wollte ich das natürlich ausprobieren:

Bei einem frisch installierten Windows habe ich einen Wiederherstellungspunkt gesetzt, dann nur die Farbe des Desktops geändert, rebootet und wollte dann den Wiederherstellungspunkt mit der alten Farbe wiederherstellen:

Das hat mir Windows irreparabel zerschossen und ich musste es neu installieren.

Ich halte von solchem Kram generell nichts: Das dient nur der Bequemlichkeit und wenn dabei was hakt, ist man schnell aufgeschmissen.

"Richtige" Sicherungen (natürlich Plural, da man immer mehrere, physisch voneinander getrennte Sicherungen haben sollte) lassen sich dagegen unabhängig von dem was mit dem PC passiert ist, wiederherstellen: Egal ob man ein neues Laufwerk braucht (auch SSDs können abrauchen), oder einen ganzen PC (Blitzschlag, Kurzschluss im NT, oder was auch immer).

Wie hier im Thread schon geschrieben, sichere ich auf ext. HDs (eine davon bei meiner Mutter) und habe zusätzlich eine 1:1 Kopie meines Produktivsystems auf einer ext. SSD, die ich an allen PCs booten kann (sofern die von USB booten können).

Was evtl. nicht klar ist: Auch auf meiner int. SSD ist es so installiert, dass ich die einfach ausbauen und in ein ext. Gehäuse packen kann, um sie dann an beliebigen PCs zu booten: Mit 1:1 Kopie meine ich 1:1.

Umgekehrt lässt sich natürlich auch die ext. SSD in den PC einbauen und dort booten. - Wobei auch das nicht nur auf meinen PC beschränkt ist:

Beide SSDs lassen sich an (per USB) und in (SATA) jeden beliebigen x86_64-PC booten booten: Man muss nicht das geringste an der Konfiguration ändern, auch nichts neu installiert, oder sonst was. - Einfach anschließen und es funktioniert.

Mir sind diese Möglichkeiten sehr wichtig.
 
Zurück
Oben