Web-Schecki schrieb:
Zum Beispiel das Linux immer noch ein sehr monolithisches System ist. Was die Implikation hat, das ein Problem an einer Stelle den ganzen Kernel mit in den Abgrund reißen kann.
Auch hat Linux Probleme eingeführt die es im traditionellen UNIX nicht gab. Nämlich das es für ein Problem unterschiedliche konkurrierende Lösungen gibt. Guck Dir nur allein die Anzahl an unterschiedlichen Sicherheitsframeworks an (AppArmor, SELinux, Secomp und wie sie alle heißen). Klar. Man kann sagen, das führt dann auch dazu das man für seinen konkreten Fall sich das Passenste aussuchen kann. Aber es bringt auch viel Komplexität in den Kernel und damit natürlich auch potentiell viele Bugs.
Man braucht auch nur mal gucken was für andere Systeme es noch gibt. Ich denke da z.B. an Plan-9 welches die Unix-Philosophie konsequenter umgesetzt hat, was dazu führt das es für bestimmte Probleme einfachere Lösung gibt und überhaupt das System weniger komplex gehalten werden kann.
Klar kann man trotzdem sagen: Na gut. Wir haben mit Linux ein System was seine Probleme hat. Aber im Großen und Ganzen funktioniert es in der Praxis gut und warum sollte man das alles wegwerfen? Vor allem da auch ein neues Projekt erst mal Kinderkrankheiten mitsich bringt und eh man einen Reifegrad hat, wo es auch praktisch einsetzbar ist wird ne ganze Weile vergehen und mit viel Aufwand verbunden sein.
Die Frage ist aber, ob das so bleibt. Ob das ganze auch künftig beherrschbar ist oder uns die Komplexität irgendwann das Genick bricht. Es könnte nämlich sein, das gar nicht die Frage ist ob wir das tun müssen, sondern wann. Und umso später man startet, umso schwieriger und aufwändiger wird es.
Ich finde schon das das Fragen sind, die man zumindest mal diskutieren sollte.
pseudopseudonym schrieb:
Ähhh, dann kompiliere dir deinen eigenen und wähle alle Optionen ab, die du nicht brauchst?!
Ja. Kann man. Aber wie oft geschieht das in der Praxis schon? In der Regel wird der Kernel benutzt, der der Distribution bei liegt. Und der wird eher fett sein. Und muss er auch sein weil unterschiedliche Programme benutzen unterschiedliche Features.
MR2007 schrieb:
Tarball fallen 84% allein auf drivers, arch, fs und Documentation.
Ja. Alles weg. Gleich die Gelegenheit nutzen mehr auf Open-Source-Hardware zu setzen. Denn auch die Hardware ist viel zu komplex. Sieht man ja allein an den ganzen Sicherheitsproblemen auch aktuell wieder in den CPUs. Und glaubt mal gar nicht das es bei GPUs und Co so viel besser aussieht.
Gut. Der Vorschlag wäre vielleicht etwas radikal. :-) Aber wäre ja schon einiges gewonnen, wenn mehr Sachen out-of-tree sein könnten. Wenn es stabile Kernel-Schnittstellen gäbe, dann ginge das ja. Das würde dann auch einen Schritt mehr hin zu echter Modularität bedeuten.