Ist Linux generell instabiler als Windows ?

Drahminedum schrieb:
musste keinen einzigen Treiber/Gerätesoftware installieren. USV, Netzwerkkarte, USB-Soundkarte, Netzwerkdrucker - alles funktionierte sofort.

sei froh, das die Komponenten so mit den vorhandenen Treibern interagieren oder entsprechende Treiber vorhanden sind.
Oder die Installation diese aus dem Internet nachziehen konnte.

Ich hab da ganz andere Erfahrungen, vorallem mit Netzwerkdruckern.

netzgestaltung schrieb:
Die OotB Erfahrung ist dadurch sogar genau ident wie bei Windows. ... Das Board geht 1A mit Linux.
Alexander2 schrieb:
Da halte ich dagegen, ziemlich sicher supported linux mehr Hardware als windows :-)

solange die Hardware mit Standardtreibern zusammenarbeitet kann das durchaus stimmen. Wenn es aber an spezial Treiber geht, wenn ein Board z.B. spezielle Stromsparmechanismen bietet oder andere Sachen, die eben nicht standardmäßig sind, dann geht Linux, gerade wenn die Geräte eben auch nicht in den Online Bibliotheken liegen, wo man mit get SW etc installieren kann, dann wird das die Luft sehr dünn und man muss viel händisch machen.

ropf schrieb:
Es ist extrem nervig, sich da nach Updates immer wieder durchzuklicken - und du brauchst ein erhebliches Maß an Spezielwissen und Zeit, um diesen Dreck abzstellen.

ja das ist dort absoluter Dreck, da gebe ich dir Recht. Dieses Gängeln auf Cloud etc auch bei jeden größeren Update gehört verboten.

Alexander2 schrieb:

Das war in einer VM, die eine VIA Onboard Graka emuliert hat. Nichtsdestotrotz, per Konsole konntest du die Auflösung ändern, der GUI Dialog hat das nicht mitgemacht sondern bis auf die Farbtiefe alle Änderungen mit einen ¯\(ツ)/¯ quittiert

Drahminedum schrieb:
Nächstes mal Deine Ironie als solche kennzeichnen.

ist keine gewesen, sondern Realität.

Linux ist etwas für Leute, die gerne auch basteln, probieren, sich tief in Themen einlesen usw. bis dann mal irgendwann alles geht und dann aber normalerweise sehr zuverlässig und stabil, zumindest bis zum nächsten Kernel Patch. Wo dann was geändert wird und genau für den Anwendungsfall des Users diese Änderung zutrifft und die Anwendungen nicht mehr funktionieren oder auf Fehler laufen.
Dann muss man sich wieder hinsetzen und selbst die config wieder richten oder aus eine neue Version der Anwendung warten, die diese Änderung umschifft.

Aber damit du beruhigt bist, das passiert bei Windows auch. allerdings viel seltener, weil oft Rückwärtskompatibilitäten vorhanden sind, was aber auch die Instabilität erhöht, genauso wie die Angriffsfläche.
Dadurch ist Windows für Leute dann, die eben nur wenig Lust oder Energie in Fehlerbehebung stecken wollen.

Wenn du dazu ne andere Meinung hast schön und gut, aber das ist meine. Und ja, ich kenne beide Welten.


Alexander2 schrieb:
Ach und auch nurmal so neben rein, weils auch thema war, die uptime meiner Daddelkiste - ist jetzt aber nicht viel..


wenn wir mal dabei sind :D

1727443635143.png


idR sind es 30 Tage immer so, jeweils zwischen den Windows Updates ohne reboot
 
Sebbi schrieb:
Wenn es aber an spezial Treiber geht
Mein Drucker, den ich lange nicht am laufen hatte, auch wegen nem Forentheme ging auch nicht mitm standardtreiber aber so.
sudo pamac install Epsonblabla

Kartenlesegerät? hab ich auch nen Beispiel, lief "damals" nicht ootb. Für die Sparkasse mal angeschafft, aber da lief es genauso dann wie bei den Druckertreibern. Paket isntalliert, das es gab, und das Gerät lief inklusive Verwaltungssoftware die original linux Unterstützte und dann das banking mit der Sparkasse..

und zack lief es (der genaue Paketname ist uninteressant :D den suche ich jetzt nicht raus) Jedenfalls wenn die Hardware vom Hersteller support hat für Linux, dann ist das kein hexenwerk. Ich bringe es auch hier mal wiede ran..
Du würdest für einen Windows PC auch kein Gerät kaufen zum anschließen/einbauen, wo MAC Only drauf steht oder?

Also naja... es wird viel sehr viel Ootb gesupportet und dazu gibt es auch so einiges, das per extra Pakete entweder Community support oder gar immer öfter direkt Herstellersupport hat.
Aber am ende muss du bei JEDEM Bestriebssystem schauen ob was du kaufst oder hast überhaupt für dein System support hat. das lässt sich nicht umgehen.

Ich würde wirklich gerne mal einen ehrlichen Vergleich von sehr viel Hardware von altem krams bis neuesten Krams, sowohl spezielleres als auch altäglichen Kram sehen wo das verglichen wird, dann könnte man das mal evidenzbasiert anführen.

So jedenfalls ist es ziemlich Aussagenloß.
Interessant ist es letztendlich für Umsteiger dann immer speziell für vorhandene Hardware herauszufinden was funktioniert, am einfachsten und schnellsten ist es da wohl einfach mal sich nen Image ziehen mit einem möglichst aktuellen Linux und das per stick booten zu lassen.
Ergänzung ()

Sebbi schrieb:
pezielle Stromsparmechanismen bietet oder andere Sachen, die eben nicht standardmäßig sind, dann geht Linux, gerade wenn die Geräte eben auch nicht in den Online Bibliotheken liegen, wo man mit get SW etc installieren kann, dann wird das die Luft sehr dünn und man muss viel händisch machen.
Zu stromsparmechanismen :-) Umsteiger, die Windowskomplettgeräte gekauft haben .. müssen da halt durch wo der Hersteller keinen support bietet und es deswegen etwas anders oder garnicht läuft... enscheide dich halt ob es gut genug läuft oder verkaufe das gerät..
Ansonsten für Leute, die wissen, das sie Linux nutzen wollen → Linux Hardware kaufen, bzw als Linux kompatibel gelistete. So einfach ist es am ende :-) Tuxedo shop als nur ein Anlaufpunkt mal für komplettgeräte.
Ergänzung ()

Sebbi schrieb:
Das war in einer VM, die eine VIA Onboard Graka emuliert hat. Nichtsdestotrotz, per Konsole konntest du die Auflösung ändern, der GUI Dialog hat das nicht mitgemacht sondern bis auf die Farbtiefe alle Änderungen mit einen ¯\(ツ)/¯ quittiert
Naja, inner VM kannste auch kompatibles emulieren lassen. Das würdest du auch für Windows so machen... Es ist also an den Haaren herbeigezogen an der stelle..
Ergänzung ()

Sebbi schrieb:
Linux ist etwas für Leute, die gerne auch basteln, probieren, sich tief in Themen einlesen usw. bis dann mal irgendwann alles geht und dann aber normalerweise sehr zuverlässig und stabil, zumindest bis zum nächsten Kernel Patch. Wo dann was geändert wird und genau für den Anwendungsfall des Users diese Änderung zutrifft und die Anwendungen nicht mehr funktionieren oder auf Fehler laufen.
Dann muss man sich wieder hinsetzen und selbst die config wieder richten oder aus eine neue Version der Anwendung warten, die diese Änderung umschifft.
Hört sich nach Microsoft FUD an. Total übertrieben. Gibt auch Windows Nutzer, die wie du vor jedem Update angst haben weil dann wieder etwas nicht funktioniert.
 
Zuletzt bearbeitet:
Sebbi schrieb:
Das war in einer VM, die eine VIA Onboard Graka emuliert hat. Nichtsdestotrotz, per Konsole konntest du die Auflösung ändern, der GUI Dialog hat das nicht mitgemacht sondern bis auf die Farbtiefe alle Änderungen mit einen ¯\(ツ)/¯ quittiert
Echt jetzt? Aus Problemen mit einer emulierten(!) Grafikkarte schliesst du auf eine generelle(!) Instabilität von Linux?
 
  • Gefällt mir
Reaktionen: LuxSkywalker und fixedwater
Alexander2 schrieb:
Naja, inner VM kannste auch kompatibles emulieren lassen.

nur was die Software anbietet :D und was anderes hatte die damals nicht angeboten und da das eine weit verbreitetet OnBoard Graka war, sollte eigentlich jede damals aktuelle OS Treiber mitbringen - nur wenn der Dialog buggy ist, nützt auch der Treiber dann nix. wie gesagt per komandozeile ging es ja.

ropf schrieb:
Aus Problemen mit einer emulierten(!) Grafikkarte schliesst du auf eine generelle Instabilität von Linux?

an dem Punkt ging es um Bugs in den GUIs ....

Außerdem, die GUI von Linux ist schon immer anspruchsvoll an die Nerven. Viele Funktionen gehen zwar, aber genausoviel geht auch gar nicht.
 
Sebbi schrieb:
Und ja, ich kenne beide Welten.
Aber zumindest eine nicht gut genug.

Was du in Richtung von Kernel Patches formulierst, unterstützt ja im Prinzip die Aussage des TE, dass Linux generell instabiler als Windows ist.

Und das lässt sich so pauschal nicht sagen. Jemand mit einem LTS Kernel wird ein Problem durch Kernel Patches während der Lebensdauer seines Systems selten bis nie haben, und wenn doch, dann haben sich im selben Zeitraum bei Windows mindestens dieselbe Anzahl an Updates quergestellt, wenn nicht noch mehr. Und ja, ich weiß, dass es vor gar nicht langer Zeit mal einen major bug in einem LTS Kernel Patch gab (6.1. und Debian oder so, keine Ahnung weil nicht betroffen)

Wer hingegen mit Arch unterwegs ist, weiß was Kernel regressions sind und wie man damit umgeht (oder anders formuliert: man wurde vorab darauf hingewiesen, dass man sich damit auskennen sollte).

Irgendwelche Pauschalmeinungen über "Linux" haben sowieso nur bedingt Aussagekraft, weil es fast immer eine Linux Distribution gibt, die den eigenen Erfahrungen widersprechen wird.

Wir alle haben hier höchstens beide Welten mal gesehen, wirklich kennen werden wir sie wohl nie.
 
denonom schrieb:
Was du in Richtung von Kernel Patches formulierst, unterstützt ja im Prinzip die Aussage des TE, dass Linux generell instabiler als Windows ist.

ich seh instabil eher die Richtung, was man in Linux als kernel panic kennt und unter Windows als BSoD.

Was ich meine ist das Änderungen am Kernel ist, das diese auch teils die Anwendungsabläufe und Treiber beeinflussen, so das bei diesen konfigs etc geändert werden müssen, damit die ordnungsgemäß wieder funktionieren. Und das ist für mich Rumfrickeln!
Das ist bei Windows aber eher selten der Fall, auch nicht bei Major Updates aufgrund der gegannten Abwärtskompatibilitäten. Dafür gibts da andere Probleme

Alexander2 schrieb:
Hört sich nach Microsoft FUD an. Total übertrieben. Gibt auch Windows Nutzer, die wie du vor jedem Update angst haben weil dann wieder etwas nicht funktioniert.

für dich hört es sich so an, für mich isses Realität. Hab in meiner Laufbahn genug solche Probleme im first und second level behandelt, bis ich das erfolglos an die Spezialisten gegeben habe oder den Herstellersupport bemüht habe, weil ich nicht weider gekommen bin. Und hier war das häufiger bei Linux Anwender Systemen der Fall, obwohl viel mehr Windows Systeme im Betrieb sind mit einer wesentlich breiteren Software Pallette.
Und deshalb sage ich auch, wenn die Linux Kisten erstmal sauber laufen, dann auch dauerhaft und stabil.


Aber ja, die Angst bei Windowsupdates ist durchaus da bei den Anwendern, aber auch oft nur, weil die dann sich nicht zu helfen wissen. Mir persönlich macht das nix aus, ich bin nur genervt vom Zeitverlust, wenn ich ein Backup einspielen muss, wenn ein Update ein System so zerschießt, das auch die Rettungsmaßnahmen fehlschlagen.
 
sedot schrieb:
Welche Bloatware bei Apple meinst du? Ist mir zumindest bisher noch nicht aufgefallen. Wer Apple eigene Apps (wie z.B. Garage Band) nicht nutzen möchte, kann diese leicht entfernen.

Auch hier, was meinst du in Bezug auf iOS?
Komisch, dass du die Frage nur auf Apple bzw. iOS beziehst.

Ich sage es aber trotzdem: 1. alle vorinstallierten Apps und 2. alle Opt-Out Einstellungen und Anfragen die Opt-In Einstellungen zu akzeptieren, die meistens mit dem Einverständnis verbunden sind, dass Informationen und Daten der Nutzer für sonstige Zwecke verarbeitet werden.

Und was du im dritten Satz erwähnt hast, lässt sich auf alle Alternativen ebenfalls anwenden. Android, Windows, MacOS, Linux, usw.
 
  • Gefällt mir
Reaktionen: sedot
Beelzebot schrieb:
Zur Ausgangsfrage des Threads: Wirklich? Und Leute, ihr geht da noch drauf ein? Wo ist der Mod um das hier dicht zu machen??
Ich kann aus eigener Distrohopping-Erfahrung sagen, dass ich auch schon mal einen Installationsmarathon hinter mir hatte, wo ich mehrere Distros hintereinander weg installiert hatte, die alle Probleme gemacht haben.

Zorin (ließ sich gar nicht erst installieren, hat die Installation immer abgebrochen)
Linux Lite (deutsches Tastaturlayout lies sich nicht einstellen oder aktivieren, egal was ich gemacht hab)
Mint (GUI hat's regelmäßig zerbröselt, war Cinnamon)
KDE Neon (10 Minuten zum Starten gebraucht, ähnlich lange zum herunterfahren, keine Lösung die ich befolgt hatte, brachte Abhilfe)

Das ist jetzt schon vier Jahre her, und ich hab mittlerweile spitzgekriegt, *bunuts und deren Derivate laufen in meinem Haus einfach nicht. Kann ich auf der Arbeit installieren, funzt alles wunderbar, aber zuhause, nada. Muss verflucht sein. Ich zieh nächstes Jahr um, dann kann ich's nochmal versuchen :freak:
 
Hatte sowas ähnliches auch mal, es lag am ende daran, das ich den Buggy CSM (Bios Compatibility Modus) zum installieren und nutzen benutzen wollte. Nachdem ich den Uefi Modus, also csm aus benutzte, ohne secureboot. lief dann alles dufte.

Also effektiv Firmwarebugs (bei nem Dell Laptop)
 
  • Gefällt mir
Reaktionen: Kuristina
Nein, Linux läuft nicht instabiler als Windows. Ganz im Gegenteil.

Es kommt halt darauf an, ob der Nutzer sich mit dem System beschäftigen möchte oder davon ausgeht, dass alles wie unter Windows funktioniert. Ich nutze Linux Mint seit einiger Zeit und hatte keinerlei der von dir genannten Probleme.
Finde auch, dass das arbeiten mit Linux Mint wesentlich mehr Spaß macht, da man alles perfekt individualisieren kann. Vor allem findet man Programme sehr schnell in der Anwendungsverwaltung. Und das schöne: Alles Open Source.
 
  • Gefällt mir
Reaktionen: Espero, Kuristina und Drahminedum
AI-Nadja schrieb:
Komisch, dass du die Frage nur auf Apple bzw. iOS beziehst.
Reines Interesse, da ich auch Apple Produkte bzw. eben iOS nutze.

Bloat ist imo oft etwas diffus als Beschreibung und hat eine sehr breite Spannweite.
Vorinstallierte Apps können wie geschrieben entfernt werden, falls nötig oder gewollt. Welche Daten wofür verwendet werden ist imo transparent für User. Welche Dienste genutzt werden kann jede:r selbst entscheiden.
Das Apple Hardware bzw. die jeweiligen OS nicht super datensparsam sind ist jetzt keine Neuigkeit für mich. Daten teilen will ich unter Umständen, die damit einhergehenden Kompromisse sind bisher okay für mich.

Android oder Windows hatte ich in der Nachfrage ausgeschlossen, da ich nichts von beidem nutze.
Danke jedenfalls für deine Antwort, ich will hier keine Grundsatzdiskussion offtopic führen.
 
Ich habe mir noch nicht alles durchgelesen. Keine Zeit.

Ja, Linux ist stabil:

1727455204171.png


Da würden >300 days stehen. Aber ich musste doch ein Reboot machen.
 
  • Gefällt mir
Reaktionen: LuxSkywalker
sedot schrieb:
Welche Daten wofür verwendet werden ist imo transparent für User
Okay, für mich jedenfalls nicht. Und ehrlich gesagt kenne ich auch niemanden, der da durchblickt.
Die Nutzungsbedingungen sind so schwammig und allgemein, dass ich alles darunter verstehe und es vermutlich eine Fast-Vollmacht für die Anbieter bietet. Und woran ich nicht gedacht habe, bekomme ich ~10 Jahre später über eine News mitgeteilt, durch die das Unternehmen eine neue Rekordstrafe zahlt.

Deshalb bin ich der Meinung, dass eine grundsätzliche Deaktivierung, Ablehnung und Blockierung von allem, was man nicht versteht, der richtige Weg bei Software ist.
 
  • Gefällt mir
Reaktionen: LuxSkywalker
Sebbi schrieb:
Linux ist etwas für Leute, die gerne auch basteln, probieren, sich tief in Themen einlesen usw. bis dann mal irgendwann alles geht und dann aber normalerweise sehr zuverlässig und stabil, zumindest bis zum nächsten Kernel Patch. Wo dann was geändert wird und genau für den Anwendungsfall des Users diese Änderung zutrifft und die Anwendungen nicht mehr funktionieren oder auf Fehler laufen.
Dann muss man sich wieder hinsetzen und selbst die config wieder richten oder aus eine neue Version der Anwendung warten, die diese Änderung umschifft.

Aber damit du beruhigt bist, das passiert bei Windows auch. allerdings viel seltener, weil oft Rückwärtskompatibilitäten vorhanden sind, was aber auch die Instabilität erhöht, genauso wie die Angriffsfläche.

Mit dem Linux-Kernel hast du ein extrem schlechtes Beispiel gewählt. Denn gerade beim Kernel wird penibel darauf geachtet, dass dieser niemals das ABI (Schnittstelle) zum userspace - sprich den Anwendungen - bricht. Das ist die oberste Regel bei der Entwicklung von Linux. Wenn so ein Fall eintritt und jemand einen Patch (zur Integration) bei Linus einreicht, welcher die Kompatibilität bricht, dann wird Linus sehr ausfallend und der eingereichte Patch wird umgehend zurückgewiesen.
Es ist die goldene Regel #1: Don´t break userspace

Der von dir geschilderte Fall, dass mit einem Kernel - "Patch" Anwendungen nicht mehr funktionieren, ist somit sehr unwahrscheinlich oder extrem selten. Keinesfalls also so wie du es schilderst, und schon gar nicht "bis zum nächsten Kernel Patch".

Wenn es so schlimm wäre, wie du es behauptest, dann würden ja auch die wenigsten Linux auf dem Server einsetzen wollen, weil dort ja auch mit jedem Kernel - "Patch" irgendein Dienst nicht mehr laufen würde.

Was eher zutreffen kann, sind Major-Updates von Frameworks wir Qt oder GTK. Hier kommt es sehr wohl zu Anpassung der Funktionen. Allerdings kommen neue Major-Updates alle 10 Jahre raus, wie beispielsweise von Qt 5 auf 6, oder GTK 3 auf 4. Und selbst dann, kann man immer noch für eine sehr lange Zeit hinaus die alten Frameworks parallel zu den neuen Versionen installiert halten, womit sich auch die alten Anwendungen noch starten lassen.

Und wenn der Entwickler einer Anwendung eine neue Version bereitstellt, welches dann Probleme verursacht, dann kommt das eben nicht durch eine Änderung am Kernel, sondern von der Anwendung selbst.
 
  • Gefällt mir
Reaktionen: Alexander2
Alexander2 schrieb:
Ich muss sagen ich habe noch nicht getestet wie lange das ginge, bis der Rechner Probleme hätte. ich nutze ihn einfach nur.
Fedora Silverblue auf Notebook und Tablet, und ich habe Firefox durchs Flatpak ersetzt, weil er sonst nur bei Neustarts geupdated wird und das gerne Monate sind... So ist wenigstens der Browser aktuell.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alexander2
AI-Nadja schrieb:
Okay, für mich jedenfalls nicht. Und ehrlich gesagt kenne ich auch niemanden, der da durchblickt.
Die Nutzungsbedingungen sind so schwammig und allgemein, dass ich alles darunter verstehe und es vermutlich eine Fast-Vollmacht für die Anbieter bietet.
Ja, naja. Jede:r hat auch eine Pflicht sich zu informieren zu etwaigen Fragestellungen, imo. Informationen etc. gibt es sehr viele zu unterschiedlichen Teilbereichen. Muss dann jede:r auf der Basis (hoffentlich ausreichend informiert) für sich selbst gewichten was Prioritäten hat bei Entscheidungen.
AI-Nadja schrieb:
Deshalb bin ich der Meinung, dass eine grundsätzliche Deaktivierung, Ablehnung und Blockierung von allem, was man nicht versteht, der richtige Weg bei Software ist.
Fair. Ob die dann so eingeschränkte Auswahl reicht oder zu den Anforderungen passt muss auch jede:r selbst entscheiden. Manchmal sind meiner Erfahrung nach Kompromisse nötig, aber das ist eben auch eine individuelle Geschichte.
 
Mir ist mal ein Stapel CDs runter gefallen und bei der Suse CD war sofort ein Riss in der Hülle. Die Windows CD hingegen ist ganz geblieben. Von daher würde ich schon sagen, dass Windows stabiler ist.
 
Hast du das auch mal mit der Disketten Version probiert? Brechen die auch?
Also Damals™

Ich frag mich grad was die Linux From Scratch Schallplatte und die Ms-DOS Schallplatte da mitzureden haben :-)

Kleiner Tipp nebenbei, immer eine Frische Nadel benutzen für Linux from Scratch :bussi:
 
Zuletzt bearbeitet:
Alexander2 schrieb:
hat valve kein cups mit installiert?
Wobei das angesichts dessen was wir über Drucker Treiber bei der aktuellen Lücke gelernt haben auch gut so ist, bin schon geneigt zu nixOS zu wechseln einfach damit ich alles weglassen kann was nicht genutzt wird. Wozu bei mir dann auch CUPS gehört.
 
Generell nein, in Einzelfällen vielleicht. (Gilt auch für Windows)

Es kommt auf viele Faktoren drauf an, und auch was man überhaupt als "stabil" definiert. Keine Abstürze mittendrin? Keine Update-Probleme? Keine sich verändernden APIs/etc.?

Ich nehme jetzt einfach mal das erste an, dass mit "stabil" gemeint ist, dass das System oder Anwendungen nicht mittendrin abstürzen (egal in welcher Form).

Da kommt es wie gesagt auf die SItuation drauf an, aber das gilt für Windows gleichermaßen. Manchmal hat man etwas exotischhere oder brandneue Hardware, und die Treiber sind noch nicht so ausgereift. Ein Beispiel hier wären die Intel Arc GPUs, die anfangs unter Windows problematisch waren. Oder aktuell das eine Treiberproblem mit W1124H2 (NVME SSDs und noch irgendwas bei Asus-Notebooks), was zu Bluescreens führt. Das steht ja aber regelmäßig in den News, so auch hier.
Unter Linux gibt's genauso Beispiele. Ich selbst war betroffen von manchen davon. Mein alter Ryzen 1xxx war damals unter Linux garantiert gefreezed (Kompletter System-Lockup) nach wenigen Minuten, Abhilfe schaffte nur ein bestimmter Kernelparameter, um den C6-Powersave-State zu disablen. Unter Windows war das nicht nötig oder der Fall (was genau Windows dabei anders macht, oder ob es vielleicht einen ähnlichen Workaround nutzt, weiß man halt nicht genau, ist halt Closed Source).
Aktuell mit KDE Plasma 6 hatte ich in Plasma 6.0.x und 6.1.x selten mal einen Plasma-Shell-Absturz, heißt alle Apps haben sich geschlossen, Desktop wurde "resetted". Natürlich nervig wenn sowas passiert. Da ich generell nichts lange ungespeichert lasse, ist Datenverlust bei mir quasi ausgeschlosseen. Trotzdem nervig. Wurde aber gerade auch behoben in Plasma 6.2 - seitdem kein Crash mehr. Stand auch in der Changelog, dass manche Crashes gefixt wurden. Da war ich halt zufällig dabei.
Mit Gnome hatte ich dagegen noch nie einen Crash, auch bei brandneuen Releases keine. Genauso wird es sicherlich viele KDE User geben die noch nie einen Crash hatten.
Also auch hier kommt es stark auf die genaue Soft- und Hardwarezusammenstellung drauf an, das gilt aber auch unter Windows. Die meisten User dürften aber vermutlich keine Probleme haben und sich fragen, was meinen die Leute eigentlich die sagen "xyz ist instabil". Solange bis man halt mal selbst von irgendeinem komischen Crash betroffen ist. Software und auch Hardware ist halt nicht perfekt, Bugs gibt's überall, Inkompatibilitäten auch.
Linux (Kernel) + Serversoftware + alles was es schon lange gibt (die ganzen Kern-Utilities etc.) ist extrem stabil und auch bekannt dafür. Linux (Desktop) ist allgemein auch stabil aber es kommt auch auf den Reifegrad der Software drauf an. Gerade bei brandneuen Dot-Zero-Releases von KDE Plasma oder sowas was richtig viele Funktionen hat und somit auch viele potenzielle Bug-Quellen enthält, ist etwas Vorsicht geboten. Wer gar keine Überraschungen mag, lieber ein paar Monate noch auf der Vorgänger-Version bleiben. 5.27.x war ja super ausgereift schon. 6.0.x war dann halt ein Sprung ins kalte Wasser, und erst mit 6.2.x wurde das Wasser wieder angenehm warm.
Ähnliches gilt natürlich auch für Anwendungsprogramme. Hier kann es sein dass manche Windows-Anwendungsprogramme noch einen höheren Reifegrad haben, weil sie halt schon länger existieren und mehr dran rumgeschraubt wurde im Laufe der Jahre. Windows war ja schon auf dem Desktop weltweit dominant, als Linux noch ein Hobbyprojekt war. Linux-Desktop-Anwendungssoftware ist dagegen allgemein jünger, aber der Stein rollt trotzdem sehr schnell weiter, auch durch das kollaborative, offene Entwicklungsmodell in den meisten Fällen.
Dann gibt es noch Hardware, die auch manchmal etwas instabiler sein könnte. Ich denke hier insb. an Gamer-GPUs, die ab Werk schon overclocked sind, was ja auch auf Kosten der Stabilität gehen kann. Oder an Intel Core 13k/14k die ab Werk Hardwareprobleme hatten. Auch hier kommt es mal vor, dass sie mittendrin einen Crash verursachen, und in diesem Fall sogar hardwareseitig degradieren. Hier sollte man halt entweder mit dem Kauf warten, und Reviews verfolgen, ob die neue HW über einene gewissen Zeitraum auch wirklich rund läuft, oder eben nicht. Wer immer bleeding edge kauft, wird sicher auch mal zu was Instabilem greifen. Und dann kommt's auch noch drauf an wie problematisch die Instabilität für einen selbst ist (subjektiv).

Wenn man mit Stabilität dagegen "Update-Stabilität" meint: da ist Linux stabiler als Windows, da inzwischen glaube ich jeder Windows-User schon ein Update-Delay von ein paar Monaten aktiviert haben dürfte, denn die letzten Windows 11 Updates waren allesamt richtig katastrophal nach dem was man ständig liest. Also die Zuverlässigkeit von Windows-Patches geht allgemein steil bergab.
Bei Linux kommt es hierbei noch auf die Distri an natürlich - "Rolling Release" Distris können alle paar Monate mal problematische Updates drin haben, die im schlimmsten Fall dazu führen dass man nicht mehr booten kann oder nicht mehr ins Desktop Environment kommt. Für einen Newbie kann das schon mal eine unlösbare und extrem ärgerliche Situation sein, ein erfahrener Linux-User kann das aber in wenigen Minuten reparieren.
Das ist ein Mitgrund, warum man Arch keinem Newbie empfehlen sollte, nur weil es inzwischen einfach zu installieren und populär ist. Point Releases sind dabei weniger problematisch. Wer sowas aber reparieren kann, dem kann es natürlich egal sein und der kann die Vorzüge von Rolling Release (schneller aktuelle Programmversionen) einfach mitnehmen.

Wenn man mit Stabilität meint, "keine sich verändernden APIs/etc." oder dass uralte Software noch möglichst lange lauffähig ist auch in aktuellen Umgebungen, dann gewinnt hier Windows, aber auch das kommt mit einem massiven Nachteil daher. Microsoft legt traditionell extrem viel wert auf Backwards Compatibility, auch uralte kommerzielle Anwendungen die schon seit 20 Jahren keinen Support mehr haben, laufen meistens noch (halbwegs). Aber der große Nachteil dabei ist, dass Windows dadurch so viel Legacy-Ballast mit sich rumschleppt, der mehr Sicherheitslücken beinhaltet, und mehr Platz belegt und auch Performance kostet. Der ganze Platten- und RAM-Platz von Windows im Vergleich zu Linux kommt ja irgendwoher. Technisch gesehen ist es besser, unsicheren Legacy-Ballast auch wirklich loszuwerden und notfalls auf modernere Apps zu migrieren. Das passiert unter Linux natürlich wesentlich eher als unter Windows. Windows stellt immer Backwards Compatibility über Security und Performance, gnadenlos. Das liegt an dem Background, dass Windows von vielen Firmenkunden eingesetzt wird die halt diverse uralte kommerzielle Software mit sich rumschleppen (alles "business critical", natürlich). Oder auch alte Spiele etc. für den Heimuser, soll ja alles noch laufen, hat man ja mal Geld für ausgegeben! Tja. Die Technik bleibt aber leider nicht stehen, und auch die Erkenntnisse über die eingesetzte Technik nicht, und das was früher mal State of the Art war, ist heute ein wandelndes Sicherheitsproblem.
Aber auch z.B. bei den APIs ist Windows nicht immer so stabil wie es den Anschein hat. Da gab's vor kurzem einen ganz interessanten XDC Talk zu, wer mehr dazu wissen will. (Apples M1/2 verhalten sich auch etwas weird, damit durften sich die Asahi Linux Devs ja mit rumschlagen). WDDM 2 z.B. als Windows-Grafiktreiber-API ist zwar eigentlich sehr stabil, und auch sehr gut dokumentiert, aber es gibt eine sehr relevante Ausnahme dabei. Die proprietären Windows-Grafiktreiber schieben ständig irgendeinen Blob an Daten zwischen dem Kernel- und Userspace-Treiber-Teil über die eigentlich stabile dokumentierte WDDM 2 API hin und her (oder auch mal nicht), und dieses spezielle "Interface" bzw. was da genau hin- und hergeschoben wird an Datenpaketen, und wann, ist absolut gar nicht dokumentiert oder standartisiert, und verhält sich auch noch bei jedem GPU-Hersteller/Treiber anders. Weird stuff, aber sowas bekommt man halt bei Closed Source Software. Laut dem Entwickler ist das auch der Grund, warum Spielehersteller offene Grafiktreiber bevorzugen würden. Daher wird auch momentan versucht, Mesa auf Windows zu portieren. Nach dem Motto: warum sollten Windows-User keinen Zugang zu freien Treibern und Grafik-API-Implementationen haben. Das hätte auch noch andere Vorteile, da z.B. der RADV-Treiber in Mesa besser ist als der AMD-Vulkan-Windows-Treiber. Das scheint also unter Windows-Entwicklern tatsächlich problematisch zu sein, dass es da solche Inkonsistenzen und unbekannte Wechselwirkungen gibt. Bei ebenfalls proprietären Spielekonsolen soll es angeblich noch mal schlimmer sein was da alles gemauschelt wird. Aber gut, warum sollte es einen auch überraschen, wenn man nicht reingucken kann, dann ist halt nicht so viel Anreiz gegeben, es möglichst sauber zu machen alles. Unterstelle ich jetzt einfach mal.

TLDR: Alle OSse sind in bestimmten Fällen oder bei bestimmten Situationen oder Kontexten mal stabiler, mal instabiler. Man kann das aber durch kluge Choices bei der eingesetzten Soft- und Hardware alles in einem managebaren Zustand halten. Man sollte natürlich auch dem einen oder anderen Workaround nicht feindlich gegenüber stehen, denn ab und zu sind solche nötig. Was auch noch hilft bei Stabilität: darauf achten, dass alle Hardware-Komponenten die man kauft, miteinander und zum OS kompatibel sind, oder von einem Hersteller kaufen, der Linux-kompatible Komplettgeräte verkauft. Da kann es dann nicht passieren, dass irgendwas unerwartete Probleme macht. Also so ein bisschen die Apple-Route, da stammt auch alles aus einer Hand und ist deshalb garantiert kompatibel. Linux und Windows laufen dagegen auf viel mehr diverser Hardware, da ist dann nicht immer jede Kombination optimal. Wer trotzdem diverse Hardware einsetzt, sollte zumindest nicht allzu exotische Hardware einsetzen, damit die Chance hoch ist, dass die Treiber verfügbar und ausgereift sind. Je mehr Mainstream eine Hardware ist, desto eher ist das der Fall. Da im Linux-Bereich die Treiber nicht immer vom Hersteller stammen, sondern teilweise von 3rd Party Entwicklern geschrieben werden, die halt ein Interesse daran haben dass ihre eigene Hardware unter Linux funktioniert, heißt das dass manche Nischen-Hardware dann auch mal gar keinen Treiber hat.
Die klügste Choice bei Software sollte aber natürlich generell immer Open Source Software sein, wegen der Transparenz und Offenheit bzw. aufgrund der vielen kleinen Vorteile die sich daraus ergeben. Langfristig sehe ich proprietäre Software aus allen kritischen Bereichen rausfliegen, höchstens bei spezifischen Anwendungsgebieten wie reine Anwendungssoftwrae und Spiele sehe ich sie weiter leben. Aber alles was irgendwie kritsich ist, systemnah, OS-nah, Treiber, OS selbst, Kernel, APIs, kritische Libs, ... das sollte und darf nicht Closed Source sein. Closed Source bedeutet letztendlich immer, dass der Hersteller da irgendeinen Kram reinbauen kann oder sonstwie pfuschen darf und kaum jemand bekommt es mit. Dafür sind IT-Systeme im Jahr 2024 viel zu lebenswichtig geworden, dass wir sowas noch länger tolerieren könnten. "Open Source Hardware" ist dann natürlich auch noch mal ein Thema, aber eins nach dem anderen.

Das wären so meine Gedanken und Erfahrungen zu den Themen.
 
  • Gefällt mir
Reaktionen: mike78sbg
Zurück
Oben