Generell nein, in Einzelfällen vielleicht. (Gilt auch für Windows)
Es kommt auf viele Faktoren drauf an, und auch was man überhaupt als "stabil" definiert. Keine Abstürze mittendrin? Keine Update-Probleme? Keine sich verändernden APIs/etc.?
Ich nehme jetzt einfach mal das erste an, dass mit "stabil" gemeint ist, dass das System oder Anwendungen nicht mittendrin abstürzen (egal in welcher Form).
Da kommt es wie gesagt auf die SItuation drauf an, aber das gilt für Windows gleichermaßen. Manchmal hat man etwas exotischhere oder brandneue Hardware, und die Treiber sind noch nicht so ausgereift. Ein Beispiel hier wären die Intel Arc GPUs, die anfangs unter Windows problematisch waren. Oder aktuell das eine Treiberproblem mit W1124H2 (NVME SSDs und noch irgendwas bei Asus-Notebooks), was zu Bluescreens führt. Das steht ja aber regelmäßig in den News, so auch hier.
Unter Linux gibt's genauso Beispiele. Ich selbst war betroffen von manchen davon. Mein alter Ryzen 1xxx war damals unter Linux garantiert gefreezed (Kompletter System-Lockup) nach wenigen Minuten, Abhilfe schaffte nur ein bestimmter Kernelparameter, um den C6-Powersave-State zu disablen. Unter Windows war das nicht nötig oder der Fall (was genau Windows dabei anders macht, oder ob es vielleicht einen ähnlichen Workaround nutzt, weiß man halt nicht genau, ist halt Closed Source).
Aktuell mit KDE Plasma 6 hatte ich in Plasma 6.0.x und 6.1.x selten mal einen Plasma-Shell-Absturz, heißt alle Apps haben sich geschlossen, Desktop wurde "resetted". Natürlich nervig wenn sowas passiert. Da ich generell nichts lange ungespeichert lasse, ist Datenverlust bei mir quasi ausgeschlosseen. Trotzdem nervig. Wurde aber gerade auch behoben in Plasma 6.2 - seitdem kein Crash mehr. Stand auch in der Changelog, dass manche Crashes gefixt wurden. Da war ich halt zufällig dabei.
Mit Gnome hatte ich dagegen noch nie einen Crash, auch bei brandneuen Releases keine. Genauso wird es sicherlich viele KDE User geben die noch nie einen Crash hatten.
Also auch hier kommt es stark auf die genaue Soft- und Hardwarezusammenstellung drauf an, das gilt aber auch unter Windows. Die meisten User dürften aber vermutlich keine Probleme haben und sich fragen, was meinen die Leute eigentlich die sagen "xyz ist instabil". Solange bis man halt mal selbst von irgendeinem komischen Crash betroffen ist. Software und auch Hardware ist halt nicht perfekt, Bugs gibt's überall, Inkompatibilitäten auch.
Linux (Kernel) + Serversoftware + alles was es schon lange gibt (die ganzen Kern-Utilities etc.) ist extrem stabil und auch bekannt dafür. Linux (Desktop) ist allgemein auch stabil aber es kommt auch auf den Reifegrad der Software drauf an. Gerade bei brandneuen Dot-Zero-Releases von KDE Plasma oder sowas was richtig viele Funktionen hat und somit auch viele potenzielle Bug-Quellen enthält, ist etwas Vorsicht geboten. Wer gar keine Überraschungen mag, lieber ein paar Monate noch auf der Vorgänger-Version bleiben. 5.27.x war ja super ausgereift schon. 6.0.x war dann halt ein Sprung ins kalte Wasser, und erst mit 6.2.x wurde das Wasser wieder angenehm warm.
Ähnliches gilt natürlich auch für Anwendungsprogramme. Hier kann es sein dass manche Windows-Anwendungsprogramme noch einen höheren Reifegrad haben, weil sie halt schon länger existieren und mehr dran rumgeschraubt wurde im Laufe der Jahre. Windows war ja schon auf dem Desktop weltweit dominant, als Linux noch ein Hobbyprojekt war. Linux-Desktop-Anwendungssoftware ist dagegen allgemein jünger, aber der Stein rollt trotzdem sehr schnell weiter, auch durch das kollaborative, offene Entwicklungsmodell in den meisten Fällen.
Dann gibt es noch Hardware, die auch manchmal etwas instabiler sein könnte. Ich denke hier insb. an Gamer-GPUs, die ab Werk schon overclocked sind, was ja auch auf Kosten der Stabilität gehen kann. Oder an Intel Core 13k/14k die ab Werk Hardwareprobleme hatten. Auch hier kommt es mal vor, dass sie mittendrin einen Crash verursachen, und in diesem Fall sogar hardwareseitig degradieren. Hier sollte man halt entweder mit dem Kauf warten, und Reviews verfolgen, ob die neue HW über einene gewissen Zeitraum auch wirklich rund läuft, oder eben nicht. Wer immer bleeding edge kauft, wird sicher auch mal zu was Instabilem greifen. Und dann kommt's auch noch drauf an wie problematisch die Instabilität für einen selbst ist (subjektiv).
Wenn man mit Stabilität dagegen "Update-Stabilität" meint: da ist Linux stabiler als Windows, da inzwischen glaube ich jeder Windows-User schon ein Update-Delay von ein paar Monaten aktiviert haben dürfte, denn die letzten Windows 11 Updates waren allesamt richtig katastrophal nach dem was man ständig liest. Also die Zuverlässigkeit von Windows-Patches geht allgemein steil bergab.
Bei Linux kommt es hierbei noch auf die Distri an natürlich - "Rolling Release" Distris können alle paar Monate mal problematische Updates drin haben, die im schlimmsten Fall dazu führen dass man nicht mehr booten kann oder nicht mehr ins Desktop Environment kommt. Für einen Newbie kann das schon mal eine unlösbare und extrem ärgerliche Situation sein, ein erfahrener Linux-User kann das aber in wenigen Minuten reparieren.
Das ist ein Mitgrund, warum man Arch keinem Newbie empfehlen sollte, nur weil es inzwischen einfach zu installieren und populär ist. Point Releases sind dabei weniger problematisch. Wer sowas aber reparieren kann, dem kann es natürlich egal sein und der kann die Vorzüge von Rolling Release (schneller aktuelle Programmversionen) einfach mitnehmen.
Wenn man mit Stabilität meint, "keine sich verändernden APIs/etc." oder dass uralte Software noch möglichst lange lauffähig ist auch in aktuellen Umgebungen, dann gewinnt hier Windows, aber auch das kommt mit einem massiven Nachteil daher. Microsoft legt traditionell extrem viel wert auf Backwards Compatibility, auch uralte kommerzielle Anwendungen die schon seit 20 Jahren keinen Support mehr haben, laufen meistens noch (halbwegs). Aber der große Nachteil dabei ist, dass Windows dadurch so viel Legacy-Ballast mit sich rumschleppt, der mehr Sicherheitslücken beinhaltet, und mehr Platz belegt und auch Performance kostet. Der ganze Platten- und RAM-Platz von Windows im Vergleich zu Linux kommt ja irgendwoher. Technisch gesehen ist es besser, unsicheren Legacy-Ballast auch wirklich loszuwerden und notfalls auf modernere Apps zu migrieren. Das passiert unter Linux natürlich wesentlich eher als unter Windows. Windows stellt immer Backwards Compatibility über Security und Performance, gnadenlos. Das liegt an dem Background, dass Windows von vielen Firmenkunden eingesetzt wird die halt diverse uralte kommerzielle Software mit sich rumschleppen (alles "business critical", natürlich). Oder auch alte Spiele etc. für den Heimuser, soll ja alles noch laufen, hat man ja mal Geld für ausgegeben! Tja. Die Technik bleibt aber leider nicht stehen, und auch die Erkenntnisse über die eingesetzte Technik nicht, und das was früher mal State of the Art war, ist heute ein wandelndes Sicherheitsproblem.
Aber auch z.B. bei den APIs ist Windows nicht immer so stabil wie es den Anschein hat. Da gab's vor kurzem einen ganz interessanten XDC Talk zu, wer mehr dazu wissen will. (Apples M1/2 verhalten sich auch etwas weird, damit durften sich die Asahi Linux Devs ja mit rumschlagen). WDDM 2 z.B. als Windows-Grafiktreiber-API ist zwar eigentlich sehr stabil, und auch sehr gut dokumentiert, aber es gibt eine sehr relevante Ausnahme dabei. Die proprietären Windows-Grafiktreiber schieben ständig irgendeinen Blob an Daten zwischen dem Kernel- und Userspace-Treiber-Teil über die eigentlich stabile dokumentierte WDDM 2 API hin und her (oder auch mal nicht), und dieses spezielle "Interface" bzw. was da genau hin- und hergeschoben wird an Datenpaketen, und wann, ist absolut gar nicht dokumentiert oder standartisiert, und verhält sich auch noch bei jedem GPU-Hersteller/Treiber anders. Weird stuff, aber sowas bekommt man halt bei Closed Source Software. Laut dem Entwickler ist das auch der Grund, warum Spielehersteller offene Grafiktreiber bevorzugen würden. Daher wird auch momentan versucht, Mesa auf Windows zu portieren. Nach dem Motto: warum sollten Windows-User keinen Zugang zu freien Treibern und Grafik-API-Implementationen haben. Das hätte auch noch andere Vorteile, da z.B. der RADV-Treiber in Mesa besser ist als der AMD-Vulkan-Windows-Treiber. Das scheint also unter Windows-Entwicklern tatsächlich problematisch zu sein, dass es da solche Inkonsistenzen und unbekannte Wechselwirkungen gibt. Bei ebenfalls proprietären Spielekonsolen soll es angeblich noch mal schlimmer sein was da alles gemauschelt wird. Aber gut, warum sollte es einen auch überraschen, wenn man nicht reingucken kann, dann ist halt nicht so viel Anreiz gegeben, es möglichst sauber zu machen alles. Unterstelle ich jetzt einfach mal.
TLDR: Alle OSse sind in bestimmten Fällen oder bei bestimmten Situationen oder Kontexten mal stabiler, mal instabiler. Man kann das aber durch kluge Choices bei der eingesetzten Soft- und Hardware alles in einem managebaren Zustand halten. Man sollte natürlich auch dem einen oder anderen Workaround nicht feindlich gegenüber stehen, denn ab und zu sind solche nötig. Was auch noch hilft bei Stabilität: darauf achten, dass alle Hardware-Komponenten die man kauft, miteinander und zum OS kompatibel sind, oder von einem Hersteller kaufen, der Linux-kompatible Komplettgeräte verkauft. Da kann es dann nicht passieren, dass irgendwas unerwartete Probleme macht. Also so ein bisschen die Apple-Route, da stammt auch alles aus einer Hand und ist deshalb garantiert kompatibel. Linux und Windows laufen dagegen auf viel mehr diverser Hardware, da ist dann nicht immer jede Kombination optimal. Wer trotzdem diverse Hardware einsetzt, sollte zumindest nicht allzu exotische Hardware einsetzen, damit die Chance hoch ist, dass die Treiber verfügbar und ausgereift sind. Je mehr Mainstream eine Hardware ist, desto eher ist das der Fall. Da im Linux-Bereich die Treiber nicht immer vom Hersteller stammen, sondern teilweise von 3rd Party Entwicklern geschrieben werden, die halt ein Interesse daran haben dass ihre eigene Hardware unter Linux funktioniert, heißt das dass manche Nischen-Hardware dann auch mal gar keinen Treiber hat.
Die klügste Choice bei Software sollte aber natürlich generell immer Open Source Software sein, wegen der Transparenz und Offenheit bzw. aufgrund der vielen kleinen Vorteile die sich daraus ergeben. Langfristig sehe ich proprietäre Software aus allen kritischen Bereichen rausfliegen, höchstens bei spezifischen Anwendungsgebieten wie reine Anwendungssoftwrae und Spiele sehe ich sie weiter leben. Aber alles was irgendwie kritsich ist, systemnah, OS-nah, Treiber, OS selbst, Kernel, APIs, kritische Libs, ... das sollte und darf nicht Closed Source sein. Closed Source bedeutet letztendlich immer, dass der Hersteller da irgendeinen Kram reinbauen kann oder sonstwie pfuschen darf und kaum jemand bekommt es mit. Dafür sind IT-Systeme im Jahr 2024 viel zu lebenswichtig geworden, dass wir sowas noch länger tolerieren könnten. "Open Source Hardware" ist dann natürlich auch noch mal ein Thema, aber eins nach dem anderen.
Das wären so meine Gedanken und Erfahrungen zu den Themen.