News Release Candidate: Linus Torvalds hat den neuen Linux-Kernel 6.0 freigegeben

foofoobar schrieb:
Die Einführung von multiqueuing und den Umbau des IO-Systems für nvme wäre mit einer "stabilen" Kernel-API sicherlich schwieriger gewesen.
Wie gesagt. Es war nicht unbedingt die Rede das eine API bis in alle Ewigkeiten so festgezurrt bleiben muss. Denkbar wären z.B. API-Changes nur in Major-Versionen. Hab ich aber alles schon geschrieben. Ist ein wenig nervig, wenn man sich ständig wiederholen muss.

foofoobar schrieb:
Jeder kann den Linux-Kernel forken oder was komplett neues bauen.
Hat niemand etwas Gegenteiliges behauptet.

foofoobar schrieb:
Im wesentlichen ist das ein X-Server der einen Wayland-Treiber hat, derartige X-Server gibt es unter Windows massenhaft.
Who cares?
Lies noch mal den Beitrag und versuch zu verstehen, worum es ging.
Macht irgendwie wenig Sinn wenn Du immer am eigentlichen Thema vorbei kommentierst.
 
andy_m4 schrieb:
Das macht es ja nicht besser. Und das wäre ja eher ein Grund für Mikrokernel, weil dann der eigentliche Kernel der Einflussphäre des Treibercodes entzogen wäre.
Es gibt ja Microkernel, auch unter freier Lizenz, ganz modern sogar in Rust geschrieben. Warum setzt sich Linux trotzdem durch? Praktisch ist der modularisierte, monolithische Ansatz einfach besser. Aus Benutzersicht sowieso: Treiber im Kernel unterliegen einer gewissen Qualitätskontrolle und ihre Kompatiblität mit neueren Versionen ist sichergestellt, solange sich jemand darum kümmert.

Auch bei vermeintlichen Micro- oder Hybridkernelkonzepten können Treiber das System zum Absturz bringen. Sonst gäbe es unter NT wohl keine oder nur sehr wenige Bluescreens ;)

andy_m4 schrieb:
Denkbar wären z.B. API-Changes nur in Major-Versionen
Gibt es bei Linux halt nicht. Auch eine Designentscheidung, die bisher ganz gut ankommt...

Grundsätzlich hast du ja recht, WENN man heute einen neuen Kernel schreiben würde, dann würde man vielleicht ein paar Sachen anders versuchen. Tatsächlich passiert das ja auch, aber massenkompatibel ist es eben nicht unbedingt. Weil einfach zu viele Sachen für Linux sprechen, so wie es ist.
 
Web-Schecki schrieb:
Es gibt ja Microkernel, auch unter freier Lizenz, ganz modern sogar in Rust geschrieben. Warum setzt sich Linux trotzdem durch?
Ökosystem, Unaushereiftheit

Web-Schecki schrieb:
Sonst gäbe es unter NT wohl keine oder nur sehr wenige Bluescreens ;)
Seit Jahren keinen gesehen tbh
 
Zuletzt bearbeitet:
Web-Schecki schrieb:
Es gibt ja Microkernel, auch unter freier Lizenz, ganz modern sogar in Rust geschrieben.
Ja. RedoxOS. Hatte ich auch schon genannt.

Web-Schecki schrieb:
Warum setzt sich Linux trotzdem durch?
Na im Falle von RedoxOS weil das noch ein relativ junges Projekt ist. Linux war auch nicht von Anfang an da, wo es jetzt ist. Und Linux hatte halt sogar noch den Vorteil das es nicht mit etwas komplett Neuem gestartet ist, sondern im Wesentlichen das nachimplementiert hat was es schon gab.
Klar. Auch da gabs Neues aber der Verhältnis zwischen neu und altbekannten war bei Linux sehr viel mehr zum Zweiteren als bei RedoxOS.

Web-Schecki schrieb:
Aus Benutzersicht sowieso
Dem Benutzer ist es egal. Der merkt und weiß nicht, was da drunter liegt.

Web-Schecki schrieb:
Treiber im Kernel unterliegen einer gewissen Qualitätskontrolle und ihre Kompatiblität mit neueren Versionen ist sichergestellt, solange sich jemand darum kümmert.
Das ist weniger eine Sache der Architektur denn der Organisation. Wobei natürlich die Architektur eine bestimmte Organisation bedingt. Bei Linux bist Du viel mehr darauf angewiesen das so zu organisieren. Heißt aber nicht das wenn Du es architektonisch anders machst dann die Qualitätskontrolle weglässt.

Web-Schecki schrieb:
Auch bei vermeintlichen Micro- oder Hybridkernelkonzepten können Treiber das System zum Absturz bringen. Sonst gäbe es unter NT wohl keine oder nur sehr wenige Bluescreens
Abstürze hast Du auch unter Windows heutzutage relativ selten. Abgesehen davon. Ja. Windows war durchaus mal ziemlich berüchtigt für ihre Bluescreens. Eine häufige Ursache waren unter anderem Grafiktreiber. Die hatte man (aus Geschwindigkeitsgründen) im Kernel-Space verschoben (das war bei den ganz frühen NT-Versionen noch anders). Erst mit Vista sind die wieder (zumindest zum Großteil) in den Userspace gewandert.
Wie Du schon richtig feststellst: Windows hat einen Hybridkernel und keinen reinen Mikrokernel. Auch bei Mikrokernel kannst Du Abstürze haben die das gesamte System in den Abgrund reißen. Der Vorteil bei Mikrokernel (oder von mir aus auch Hybridkernel) ist nicht der das Abstürze ausgeschlossen sind. Der Vorteil ist, das der Codeumfang in dem Fehler mit solchen Auswirkungen auftreten können viel kleiner sind und damit sinkt auch die Wahrscheinlichkeit das das passiert.

Web-Schecki schrieb:
Gibt es bei Linux halt nicht. Auch eine Designentscheidung, die bisher ganz gut ankommt...
Naja. Was heißt ganz gut ankommt. Das wird schon immer mal wieder diskutiert. Ist ja jetzt nicht so, als wäre das vollkommen unumstritten.

Web-Schecki schrieb:
Grundsätzlich hast du ja recht, WENN man heute einen neuen Kernel schreiben würde, dann würde man vielleicht ein paar Sachen anders versuchen. Tatsächlich passiert das ja auch, aber massenkompatibel ist es eben nicht unbedingt.
Die IT-Branche wird ja gern als schnellebig empfunden. Aber im Grunde ist sie das weniger als man denkt. Konzepte brauchen nicht selten tatsächlich einen sehr langen Zeitraum bis sie sich tatsächlich beginnen zu etablieren. Man denke nur mal an KI (oder besser gesagt: Machine Learning). Denken ja auch viele, das wäre ne Sache der letzten Jahre. Tatsächlich wurden die Grundlagen dafür (die auch heute noch Anwendung finden) in den 50er Jahren gelegt.

Da lassen sich viele Beispiele finden. Und manchmal kann es auch dann sehr schnell gehen, weil sich Gegebenheiten oder Anforderungen ändern.
Man sollte sich nicht davon blenden lassen, das es gerade gut läuft.
 
Web-Schecki schrieb:
[...]
Auch bei vermeintlichen Micro- oder Hybridkernelkonzepten können Treiber das System zum Absturz bringen. Sonst gäbe es unter NT wohl keine oder nur sehr wenige Bluescreens ;)
[...]
Ich mische mich mal zeitverzögert ein. Bei vielen Punkten im Verfolgen dieser Diskussion sehe ich eher Linux im Vorteil, auch was das Pflegen der Treiber anbelangt und dass ich meinen Uralt-Scanner problemloser unter Linux laufen lassen kann, als auf Windows, wo mir jedes Jahres-Upgrade die Treiber löscht, weil sie (Win7-Treiber-Modell) angeblich nicht mehr kompatibel sind. Aber in Sachen Kernel zum Absturz bringen: Nein, der Treiber allein schafft das nur schwer und ich war anno 2007 oä. heilfroh, mit abstürzenden Radeon-Treibern auf evtl. instabiler Grafikkarte beim Spielen immer nur zu sehen, dass "Explorer.exe" abschmierte und automatisch neustarte, als dass der Kernel gepanikt wäre. Viele Windows-Bluescreens liegen an instabiler Hardware. Irgendwo auf dem Weg zwischen vielen Hardware-Komponenten flippt ein Bit, wahlweise weil eine unscheinbare Komponente, die nicht zu den gut überwachten Hauptkomponenten zählt, überhitzt oder weil irgendwo ein kleiner, unscheinbarer Transistor oder ein kleiner, unscheinbarer Kondensator entweder kaputt ist oder seinen Lötkontakt verloren hat. Dann zeigt der Bluescreen an, "Fehler in blablabla Adresse blublublu" und die Forenweissagenden weissagen los, an welchem Treiber oder Windows-Update das wohl liegen müsse, obwohl es manchmal einfach nur eine überhitzende SATA-Bridge ist und man gar nicht weiß, warum der Bitflip an einer SATA-Brücke nun so gravierende Folgefehler macht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: andy_m4
MountWalker schrieb:
oä. heilfroh, mit abstürzenden Radeon-Treibern auf evtl. instabiler Grafikkarte beim Spielen immer nur zu sehen, dass "Explorer.exe" abschmierte und automatisch neustarte, als dass der Kernel gepanikt wäre.
Ja. Unter Linux ist es schon ziemlich schwierig einfach mal den Treiber manuell zu reloaden.

Falls sich jemand fragt, warum man das wollen würde: Na zum Beispiel um ein Problem zu debuggen oder mal eben schnell Fixes zu testen. Dann läuft eigentlich immer auf ein Reboot hinaus, weils anders oft nicht praktikabel ist.
Was ich witzig finde, weil die Linuxer werfen ja Windows immer vor, das das immer so viele Reboots haben will. :-)
 
andy_m4 schrieb:
Was ich witzig finde, weil die Linuxer werfen ja Windows immer vor, das das immer so viele Reboots haben will
Bei ganz normalen Updates. Weit weg von Debuggen oder Fixes testen.
 
  • Gefällt mir
Reaktionen: Web-Schecki
Kuristina schrieb:
Bei ganz normalen Updates. Weit weg von Debuggen oder Fixes testen.
Ja. Da hast Du recht. Trotzdem finde ich den Gedanken witzig. Aber das ist vielleicht auch zu sehr Nerdhumor :-)
 
  • Gefällt mir
Reaktionen: Kuristina
andy_m4 schrieb:
Dem Benutzer ist es egal. Der merkt und weiß nicht, was da drunter liegt.
Eben nicht ganz:
MountWalker schrieb:
und dass ich meinen Uralt-Scanner problemloser unter Linux laufen lassen kann, als auf Windows,
Und das ist halt ganz klar DER Vorteil bei Linux.
Keine Frage, Nachteile hat das auch, aber grundsätzlich wird diese absolute Abwärtskompatibilität schlicht als sehr praktisch empfunden. Deshalb wird Linux eben auch breit eingesetzt.

Ja, die Organisation spielt eine Rolle. Aber es ist nunmal so, dass die Entwickler nicht etwas am Kernel verändern und dann die Hälfte der Treiber inkompatibel werden und rausgeschmissen werden müssen. Die Gefahr wäre sicherlich viel größer, wenn die Treiber nicht Teil des Kernels wären. Dann würde man wohl wie bei Windows eine Art driver model einführen und hätte ebenfalls alle paar Jahre mal haufenweise alte Geräte, die nicht mehr kompatibel sind, weil keiner den Treiber auf das neue driver model anpassen will. Und die Kernel-Entwickler interessiert das dann weniger, weil die Treiber mit dem Kernel nicht mehr viel zutun haben. Die Codequalität der Treiber wird dann auch nicht mehr von den Kernel-Leuten überprüft. Microsoft löst das afaik durch Treiber-Zertifikate.. Naja.. Kann man so machen, aber man erkennt glaube ich schon, warum der Status Quo bei Linux nicht nur schlecht ist, sondern auch praktische Vorteile hat.
 
Web-Schecki schrieb:
Und das ist halt ganz klar DER Vorteil bei Linux.
Das hat jetzt aber nichts mit Mikrokernel vs. Monolith zu tun oder dergleichen.
Das ist halt ne Entscheidung die Microsoft getroffen hat.
Übrigens würden stabile APIs ja eher dazu führen, das Treiber länger benutzbar sind.

Abgesehen davon das Scannertreiber diesbezüglich ohnehin ein eher schlechtes Beispiel sind, weil die (ähnlich wie Druckertreiber) gar nicht im Kernel liegen.

Web-Schecki schrieb:
Aber es ist nunmal so, dass die Entwickler nicht etwas am Kernel verändern und dann die Hälfte der Treiber inkompatibel werden und rausgeschmissen werden müssen. Die Gefahr wäre sicherlich viel größer, wenn die Treiber nicht Teil des Kernels wären.
Das mag sein. Allerdings hast Du ja auch jetzt nicht alles im Kernel was so benutzt wird. Bekanntes Beispiel ist ZFSonLinux was out-of-tree gepflegt wird. Solche Projekte hätten es mit stabilen APIs natürlich einfacher.

Und nichts spricht dagegen Treiber trotzdem mit dem Kernel zusammen zu pflegen. In anderen Projekten klappt das ja auch verschiedene modulare Teilprojekte zu haben aber unter einem Dach zu entwickeln.

Wie gesagt: In anderen Bereichen haben wir ja auch Modularität und da akzeptierst Du sie ja offenbar auch. Aber beim Kernel ist das dann auch einmal ein Problem?

Web-Schecki schrieb:
Dann würde man wohl wie bei Windows eine Art driver model einführen und hätte ebenfalls alle paar Jahre mal haufenweise alte Geräte, die nicht mehr kompatibel sind, weil keiner den Treiber auf das neue driver model anpassen will.
Das ist doch offensichtlich Blödsinn. Die Kernel-Leute können sich doch auch weiterhin um die Treiber kümmern. Warum sollten sie es auch nicht, wo sie es ja schon jetzt tun und das obwohls schwieriger ist. Aber wenn man das vereinfacht, dann machen das die Kernel-Leute plötzlich nicht mehr? Ist doch völlig abwegig.

Web-Schecki schrieb:
Und die Kernel-Entwickler interessiert das dann weniger, weil die Treiber mit dem Kernel nicht mehr viel zutun haben. Die Codequalität der Treiber wird dann auch nicht mehr von den Kernel-Leuten überprüft.
Warum sollte das so sein?

Deine Windows-Vergleiche helfen da auch nur bedingt, weil das da ohnehin anders abläuft. Da ist die Treiberentwicklung ohnehin außerhalb von Microsoft weil die mit Treiberentwicklung nichts zu tun haben wollen. Das ist in erster Linie eine organisatorische Entscheidung und nicht begründet durch technische Notwendigkeiten oder technische Gegebenheiten.
 
andy_m4 schrieb:
Das ist doch offensichtlich Blödsinn. Die Kernel-Leute können sich doch auch weiterhin um die Treiber kümmern.
"Kernel-Leute" sind doch zu großen Teilen Angestellte der Hardwarehersteller selbst. Und die müssen sich nunmal an die Vorgaben ihrer Vorgesetzten halten, die nach wirtschaftlichen Gesichtspunkten entscheiden. Aktuell werden sie auf der anderen Seite von den anderen Kernel-Entwicklern kontrolliert. Wenn sie versuchen, ihre Treiberarchitektur derart abzuändern, dass künftig nur noch bestimmte Generationen der Hardware unterstützt und alte Generationen links liegen gelassen werden, dann würden sie das wohl technisch gut begründen müssen, wenn der Patch nicht abgelehnt werden soll. Auf solche Sachen wird meines Wissens ziemlich geachtet.
Wirtschaftlich lohnt es sich derzeit, die Module in den Tree zu bekommen, weil sich die internen Schnittstellen bei Linux ziemlich schnell ändern können - da kommt ein externer Entwickler schnell nicht mehr hinterher. Möglich ist es, aber eben wirtschaftlich nicht unbedingt lukrativer.

andy_m4 schrieb:
Und nichts spricht dagegen Treiber trotzdem mit dem Kernel zusammen zu pflegen. In anderen Projekten klappt das ja auch verschiedene modulare Teilprojekte zu haben aber unter einem Dach zu entwickeln.
Aber für die Hardwareleute spricht auch nichts dafür. Dagegen spricht sehr viel dafür, die Entwicklung losgelöst vom Kernel zu betreiben und nur die neueste Generationen mit Treiberupdates zu versorgen, während der Rest irgendwann inkompatibel wird. Ist sicher nicht teurer.

Es sind vielleicht nicht die technischen Argumente, die du wolltest, aber ich kann mich nur wiederholen: Technisch gesehen ist die Sache Mikro- vs monolithischer Kernel ausdiskutiert. Praktisch hat sich die eigentlich unterlegene Lösung aber durchgesetzt, sonst würden heute Millionen Menschen mit einem Minix-basieren Telefon herumrennen und die ganzen Webserver würden mit Minix laufen.
 
Web-Schecki schrieb:
"Kernel-Leute" sind doch zu großen Teilen Angestellte der Hardwarehersteller selbst. Und die müssen sich nunmal an die Vorgaben ihrer Vorgesetzten halten, die nach wirtschaftlichen Gesichtspunkten entscheiden.
Ähm das ist ja dann nur noch mehr ein Pro-Punkt für stabile Schnittstellen. Weil umso stabiler die sind, umso weniger muss man beim Treibercode pflegen.

Aber noch mal ein Schritt zurück bevor ich weiter (also auch auf den Rest Deines Postings) antworte. Also es kam irgendwie das Scanner-Beispiel rein was Du ja abgefeiert hast sozusagen als Beleg dafür, das das Linux-Modell mit dem Monolithen und sich ändernden Schnittstellen super funktioniert und langfristige Unterstützung ermöglicht.

Wie gesagt. Sowas wie Scannertreiber usw. liegen gar nicht im Kernel. Klar interagieren die auch mit dem Kernel. Aber das über externe Schnittstellen. Und die sind Trommelwirbel STABIL.
Was auch gut ist und hilft das solche Treiber langfristig funktionieren. Denn gerade im Bereich von Consumer-Hardware hast Du auch gern mal den Fall, das Treiber nur einmalig gedropt werden und dann nie wieder neue Versionen erscheinen. Oder Du hast erst gar keine Treiber aber z.B. ein Open-Source-Entwickler der sich mal die Mühe gemacht hat einen Treiber zu schreiben aber dann irgendwann die Hardware nicht mehr hatte und dann auch kein Interesse mehr an der Pflege des Treibers hat. Der funktioniert aber häufig trotzdem noch dank gewisser Stabilität.

Womit wir gleich zum nächsten Punkt kommen über den offenbar viel Missverständnisse bestehen. Du sagst immer das es schön ist die Treiber gleich direkt im Linux-Kernel zu haben. Aber was denkst Du eigentlich, wie kommen die da rein? Ist ja nicht so das man eine Mail (mit dem Treiber als .tar.gz-Anhang) zu den Kernelentwicklern mit der Bitte um Aufnahme schickt und nach ein paar Wochen kriegt man dann ne Antwort, das man das integriert hätte und ab der nächsten Kernelversion ist das drin.

Aber so läuft das ja nicht. Die Aufnahme in den Linux-Kernel ist ein durchaus aufwendiger Prozess. Für große Firmen a-la Intel und Co ist das weniger ein Problem. Die haben halt genug Cash und Manpower um das einfach zu machen. Als kleine Firma oder gar Hobbyentwickler wirst Du Dir das also drei mal überlegen, ob Du das dann wirklich machst.
Man kann schon irgendwie davon sprechen das dies eine Eintrittsbarriere ist, die finanzstarke Leute bevorzugt. Kleine Entwickler werden da so ziemlich allein gelassen. Ironischerweise von einem Projekt welches selbst mal als Hobbyprojekt gestartet ist.

Es gibt aber noch andere Punkte. Da gehts auch so ein bisschen darum über den eigenen Tellerrand zu schauen (etwas, was Linuxern ja gerne Windowslern vorwerfen wenn die Linux ignorieren).

Es gibt nämlich noch andere freie Betriebssysteme. Und für die ist die Treibersituation meist noch deutlich schlechter als für Linux. Was machen die also? Die Integrieren in ihr Projekt Linux-Treiber (etwas, was man unter Linux ja auch schon gemacht hat; man denke nur mal an den ndiswrapper, wo Linux selbst Profiteur von stabilen Schnittstellen war).
Für die ist das natürlich ein Problem, wenn im Linux-Kernel ständig irgendwelche Schnittstellen geändert werden, weil die das dann immer nacharbeiten müssen.

Und eigentlich ist die Idee hinter Open-Source ja genau die: Man hat denn Quelltext und stellt den frei zur Verfügung, damit andere ihn benutzen und in ihr Projekt einbauen können. Durch volatile Schnittstellen erschwert man das. Jetzt sicher nicht mit Absicht, aber ein Kollateralschaden ist das auf jeden Fall.

Web-Schecki schrieb:
Aktuell werden sie auf der anderen Seite von den anderen Kernel-Entwicklern kontrolliert. Wenn sie versuchen, ihre Treiberarchitektur derart abzuändern, dass künftig nur noch bestimmte Generationen der Hardware unterstützt und alte Generationen links liegen gelassen werden, dann würden sie das wohl technisch gut begründen müssen, wenn der Patch nicht abgelehnt werden soll.
Die Kernelentwickler als Kontrollinstanz für die Treiberentwickler? Ok. Nehmen wir mal an, das ist ne gute Idee.
Es spricht ja (trotz stabiler API und trotz out-of-tree-Treiber) nichts dagegen das zu tun. Sozusagen als eine Art Qualitätsmerkmal. Die Kernelentwickler nehmen sich dem (wie jetzt auch auch) an und sagen: Für die und die Treiber, da übernehmen wir eine Kontrollfunktion.

Und den Rest überlässt man dann dem Anwender (von mir aus auch über den Umweg einer Distribution) die Wahl. Der kann dann halt sagen: "Ich will nur Treiber haben, die die Kernelentwickler auch abgenickt haben." Ein anderer sagt sich: "Och. Mir egal. Ich nehm' auch Treiber mit die nicht abgesegnet sind."

Dieses Wählen können, diese Freiheit .... das ist doch immer dieses Mantra was die ganzen Linux-Fanboys vor sich hertragen. Hier wäre mal ne 1A Gelegenheit Taten sprechen zu lassen.

Web-Schecki schrieb:
Es sind vielleicht nicht die technischen Argumente, die du wolltest
Naja. Es kamen halt nicht wirklich technische Argumente dafür. Und die Argumente die Du mir verkaufen wolltest für "instabile interne Kernel-APIs sind toll" belegen eher das Gegenteil.

Web-Schecki schrieb:
Praktisch hat sich die eigentlich unterlegene Lösung aber durchgesetzt
Wie ich bereits sagte: Lösungen haben ihre Zeit. Was heute noch hinreichend brauchbar ist, muss es morgen nicht mehr sein.

Das Minix-Beispiel zeigt das auch ziemlich gut. Als es mit Linux los ging war die Hardware im Vergleich zu heute relativ schwach (jeder billige Plaste-Router hat heute mehr Rechenpower/RAM als ein typischer Rechner mitten in den 90er Jahren). Unter diesen Bedingungen haben es monolithische Ansätze viel einfacher, weil da die "Dienstwege" kürzer sind und da man damals ohnehin stetig viel zu wenig Hardware-Ressourcen hatte wollte man da halt sparen (unter inkaufnahme von Nachteilen).

Gut. Bei Minix gabs jetzt auch noch ne Reihe anderer Faktoren. So war Minix lange Zeit gar nicht frei verfügbar. Zudem war es als akademisches System für die Lehre gedacht und nicht primär als Produktivsystem. Viele Optimierungen und Funktionen fehlen zugunsten der Anschaulichkeit.

Erst mit Version 3 wurde Minix so ganz langsam auch als Produktivsystem interessant, aber da war der Zug natürlich schon längst Richtung Linux abgefahren.
Für alternative Systeme ists dann halt auch schwer, weil bekannte Systeme viel Aufmerksamkeit und damit natürlich auch Ressourcen aufsich ziehen. Was einerseits gut ist, weil man den "viele ziehen an einem Strang"-Effekt hat, aber auch den Nachteil, das es Diversität killt.
 
andy_m4 schrieb:
was Du ja abgefeiert hast
andy_m4 schrieb:
was die ganzen Linux-Fanboys
Ich fürchte, mit so einer Polemik kommt man in der Diskussion nicht wirklich weiter. Vielleicht liest du meinen Post nochmal ein bisschen weniger agressiv und überlegst dann, was du antwortest.
Ich habe nichts abgefeiert. Ich habe versucht Argumente vorzubringen, warum dein "wir schmeißen den Linux-Kernel weg und machen alles neu und ser" eben etwas zu kurz gedacht ist. Nicht aus technischen, sondern aus praktischen Gründen. Die Argumente bringst du teilweise sogar selbst:
andy_m4 schrieb:
Und die sind Trommelwirbel STABIL.
Es gibt also durchaus die Möglichkeit, auch bei einem monolithischen Kernel stabile Schnittstellen zu schaffen und zu modularisieren, denn Linux macht genau das. Und eine solche Aufweichung des monolithischen Konzepts findet an ziemlich vielen Stellen statt, man denke nur an FUSE. So ganz hirnverbrannt sind die Linux-Leute einfach nicht, auch wenn du das so darstellst.
andy_m4 schrieb:
Und die Argumente die Du mir verkaufen wolltest für "instabile interne Kernel-APIs sind toll" belegen eher das Gegenteil.
Ich wollte dir auch nichts verkaufen, sondern lediglich einen weiteren Blickwinkel eröffnen. Instabile Kernel-APIs haben eben auch Vorteile bezüglich der Flexibilität. Natürlich ist es nach Außen hin ein Nachteil für Leute, die Kernel-Module außerhalb des Kernels entwickeln wollen. Mein Argument ist lediglich, dass das nicht nur schlecht ist. Auch wenn die praktischen Nachteile auf der Hand liegen, gibt es eben auch Vorteile, die scheinbar nicht vollkommen irrelevant sind.

Ja, die Mikrokernel-Versuche sind oft nicht daran gescheitert, dass das Konzept schlecht ist, sondern an anderen Umständen. Dennoch hat es der Linux-Kernel geschafft, einige der Nachteile monolithischer Kernel durch kluge Konzepte auszumerzen. Und einige der technischen Unzulänglichkeiten haben vielleicht eben auch praktische Vorteile, weswegen man sie bewusst in Kauf nimmt.

Du solltest meinen Beitrag vielleicht einfach mit ein bisschen weniger Wut im Bauch lesen. Ich sehe ja ein, dass meine Windows-Vergleiche nicht wirklich gut waren. Und ich widerspreche dir nicht, dass kleine Mikrokernel das technisch überlegene Konzept sind. Also einfach mal durchatmen und nicht gleich alle Argumente mit Polemik beantworten.
 
Termy schrieb:
Schoen ist die Situation sicher nicht - aber DKMS ist jetzt auch kein Beinbruch (doof natuerlich wenn bei dir da scheinbar ein Hook nicht richtig funktioniert) und unter Windows braucht man so oder so extra Software, da ist die Situation also nochmal schlechter ;)
braucht man auf linux doch auch!
nur zenpower kann dir nichts anzeigen. gibt dann zB zenmonitor, mangohud, cpu-x, etc

Eli0t schrieb:
zenpower3 kompiliert sich bei mir nicht immer neu :)
das passiert vermutlich nur, wenn du die -git version verwendest :)
ist das unter 5.19 auch?
bei jedem versions update. also wenn ich nur ein kleines update für kernel 5.15 bekommen, dann geht es
aber ich habe 5.17 deinstalliert und wegen zenpower jetzt noch irgendwelche reste, sodass es grub noch immer anzeigt
es ist einfach nur sehr nervig, dass AMD das nicht endlich wieder in den kernel bringt, dann hätte man diese probleme einfach nicht mehr
 
longusnickus schrieb:
braucht man auf linux doch auch!
nur zenpower kann dir nichts anzeigen. gibt dann zB zenmonitor, mangohud, cpu-x, etc


bei jedem versions update. also wenn ich nur ein kleines update für kernel 5.15 bekommen, dann geht es
aber ich habe 5.17 deinstalliert und wegen zenpower jetzt noch irgendwelche reste, sodass es grub noch immer anzeigt
es ist einfach nur sehr nervig, dass AMD das nicht endlich wieder in den kernel bringt, dann hätte man diese probleme einfach nicht mehr
tjo, ist halt etwas holprig... aber was willste machen... immerhin tun sie etwas :)
 
andy_m4 schrieb:
Das mag sein. Allerdings hast Du ja auch jetzt nicht alles im Kernel was so benutzt wird. Bekanntes Beispiel ist ZFSonLinux was out-of-tree gepflegt wird. Solche Projekte hätten es mit stabilen APIs natürlich einfacher.
Das Problem liegt woanders:
Linux-Chefentwickler Linus Torvalds hat einer Aufnahme des ZFS-Dateisystems in den Linux-Kernel erneut eine klare Absage erteilt. In einer Mailinglisten-Diskussion rät er Linux-Anwendern: "Benutzt ZFS nicht." Er werde keinen ZFS-Code in den Kernel aufnehmen, solange er keinen offiziellen Brief der Oracle-Anwälte – oder noch besser – von Firmenchef Larry Ellison persönlich erhalten habe, der eine ZFS-Implementation unter der GPLv2-Lizenz des Kernels absegnet.
https://www.heise.de/newsticker/mel...S-im-Linux-Kernel-erneute-Absage-4633302.html
Ergänzung ()

longusnickus schrieb:
es ist einfach nur sehr nervig, dass AMD das nicht endlich wieder in den kernel bringt, dann hätte man diese probleme einfach nicht mehr
https://jobs.amd.com/search/?createNewAlert=false&q=linux&locationsearch=
Ergänzung ()

MountWalker schrieb:
Viele Windows-Bluescreens liegen an instabiler Hardware. Irgendwo auf dem Weg zwischen vielen Hardware-Komponenten flippt ein Bit, wahlweise weil eine unscheinbare Komponente, die nicht zu den gut überwachten Hauptkomponenten zählt, überhitzt oder weil irgendwo ein kleiner, unscheinbarer Transistor oder ein kleiner, unscheinbarer Kondensator entweder kaputt ist oder seinen Lötkontakt verloren hat. Dann zeigt der Bluescreen an, "Fehler in blablabla Adresse blublublu" und die Forenweissagenden weissagen los, an welchem Treiber oder Windows-Update das wohl liegen müsse, obwohl es manchmal einfach nur eine überhitzende SATA-Bridge ist und man gar nicht weiß, warum der Bitflip an einer SATA-Brücke nun so gravierende Folgefehler macht.

Mittlerweile haben viele HW-Komponeten Prüfsummen, teilweise auch FEC, z.b. SATA, PCIe, CPU-Caches, usw.
Nur beim RAM verweigern sich viele einer Fehlerprüfung, dabei hatte der allererste IBM-PC immerhin eine Parity auf das RAM.
 
Zuletzt bearbeitet:
Termy schrieb:
Bestreitet ja niemand, deine Kritik liest sich nur so, als waere es auf Windows nicht so.
ich glaube, dass du nicht so richtig verstehst worum es geht
auf windows ladet man sich hwmonitor runter, startet das teil und hat alle möglichen werte
bei AMD muss man dann noch ein kernel modul installieren, damit man auch alle werte auslesen kann. das braucht man bei windows einfach nicht extra!

offtopic. generell systemmonitoring ist auf linux nicht so übersichtlich wie auf windows
das fängt beim task manager an, der bei windows wirklich um einiges besser ist als alles was linux zu bieten hat, geht über hwmonitor bis zu s.m.a.r.t
sowas detailliertes und übersichtliches fehlt auf linux leider

benötigt man als normaler user selten bis gar nicht, aber so ein diskinfo gibts auf linux auch nicht. da gibts nur so ein gsmart, oder gnome-disk-utility, aber die sind lange nicht so übersichtlich wie ein diskinfo
 
Web-Schecki schrieb:
Ich fürchte, mit so einer Polemik kommt man in der Diskussion nicht wirklich weiter.
Naja. Ich würde ja jetzt nicht mehr Dramatik reinlegen als da tatsächlich ist.
Ich würde es ja noch verstehen, wenn nur solche Sprüche kämen. Aber ich versuche ja schon meine Gedankengänge zu erklären und das ist sozusagen nur die Würze. :-)

Web-Schecki schrieb:
Ich habe versucht Argumente vorzubringen, warum dein "wir schmeißen den Linux-Kernel weg und machen alles neu und ser" eben etwas zu kurz gedacht ist.
Wegschmeißen und neu machen ist auch ein bisschen überspitzt an der Grenze zur Provokation. WAs ich damit ausdrücken wollte ist, das man schon vermutlich radikalere Änderungen bräuchte.
Und sicher ist es nicht sinnvoll Linux einfach wegzuwerfen und bei Null zu beginnen nur damit man in 10 Jahren dann irgendwie vielleicht mal wieder ein benutzbares System hat. Trotzdem sollte man sich Gedanken machen wie die Zukunft aussehen kann bzw. welche Probleme man hat und welche Notwendigkeiten sich daraus ergeben.

Und ich glaube, dann ist halt nicht ganz verkehrt wenn man nicht zu sehr an dem hängt was man hat, sondern sich wirklich mal überlegt was man braucht und was man haben will (also gedanklich den Linux-Kernel wegschmeißen). Und wenn man dann ein Ziel hat wo die Reise hingehen soll kann man immer noch überlegen, ob das mit dem jetzigen System in Form einer evolutionären Entwicklung geht oder ob dafür tatsächlich ein Neubau nötig ist. Und auch dann wird es ja eher nicht so laufen das man Linux wegwirft, sondern parallel ein Nextgen-Linux aufbaut. Möglicherweise findet das aber auch außerhalb der Linux-Community statt.
Aber das sind alles Überlegungen die erst im Nachgang kommen. Am Anfang steht, was haben wir für Probleme und wo wollen wir hin.

Web-Schecki schrieb:
Es gibt also durchaus die Möglichkeit, auch bei einem monolithischen Kernel stabile Schnittstellen zu schaffen und zu modularisieren, denn Linux macht genau das.
Ja. Das bestreitet ja auch niemand. Nur dann stellt sich doch auch automatisch die Frage, das wenn wir das ohnehin schon machen (weils ja offenbar Vorteile hat), warum machen wir das dann nicht an noch mehr Stellen oder gar "überall"? Warum sind wir dann nicht konsequenter?

Web-Schecki schrieb:
So ganz hirnverbrannt sind die Linux-Leute einfach nicht, auch wenn du das so darstellst.
Nein. Sind sie natürlich nicht. Allerdings gibts halt auch den Aspekt, das wenn man schon über Jahre in so einem Projekt drin steckt auch sowas wie Betriebsblindheit entwickelt. Das ist jetzt auch gar nicht als Vorwurf gemeint oder so. Außerdem sind das ja durchaus diskutierte Themen. Es ist ja jetzt nicht so, das alle Entwickler mit allem 100% zufrieden ist wie es läuft.

Und dann gibt es halt noch den Faktor "es läuft doch gut". Es ist viel leichter Veränderungen herbei zu führen, wenn das Projekt massive Probleme hat. So lange alles gut läuft ist jede Veränderung auch ein Risiko. Wirds danach schlechter wird man immer mit dem Vorwurf konfrontiert sein das dies ja nur an der Veränderung lag.

Web-Schecki schrieb:
Ich wollte dir auch nichts verkaufen, sondern lediglich einen weiteren Blickwinkel eröffnen. Instabile Kernel-APIs haben eben auch Vorteile bezüglich der Flexibilität. Natürlich ist es nach Außen hin ein Nachteil für Leute, die Kernel-Module außerhalb des Kernels entwickeln wollen. Mein Argument ist lediglich, dass das nicht nur schlecht ist. Auch wenn die praktischen Nachteile auf der Hand liegen, gibt es eben auch Vorteile, die scheinbar nicht vollkommen irrelevant sind.
Ja. Instabile APIs haben auch Vorteile. Das habe ich aber auch selbst schon eingeräumt.
Für mich las sich das so, als würdest Du nur Vorteile sehen und die Nachteile eher nicht so. Insofern gut das wir das jetzt geklärt haben.

Web-Schecki schrieb:
Ja, die Mikrokernel-Versuche sind oft nicht daran gescheitert, dass das Konzept schlecht ist, sondern an anderen Umständen. Dennoch hat es der Linux-Kernel geschafft, einige der Nachteile monolithischer Kernel durch kluge Konzepte auszumerzen. Und einige der technischen Unzulänglichkeiten haben vielleicht eben auch praktische Vorteile, weswegen man sie bewusst in Kauf nimmt.
Nicht verkehrt was Du sagst.
Mir ging es nur darum, das man hin und wieder Dinge auch mal neu bewerten sollte, weil sich halt die Gegebenheiten und Problemstellungen mit der Zeit verschieben.

Web-Schecki schrieb:
Du solltest meinen Beitrag vielleicht einfach mit ein bisschen weniger Wut im Bauch lesen.
Nein. Es war nicht Wut. Mit Wut lese ich hier so gut wie gar nichts. :-)
Höchstens mit Ärger. Das trifft es eher.

Und man muss nicht meine Meinung haben. Im Gegenteil. Ich finde es gut wenn jemand Blickwinkel aufzeigt die ich möglicherweise gar nicht auf dem Radar hatte. Das ist eine prima Gelegenheit dazu zu lernen. Ärgerlich wirds eher dann, wenn Argumente nicht wirklich gut passen und man dementsprechend auch nicht wirklich etwas draus lernen kann.

Aber jetzt bitte nicht missverstehen oder so. Ich schätze durchaus Deine Postings.

foofoobar schrieb:
Das Problem liegt woanders:
Du redest einmal mehr wieder am Thema vorbei. Es geht nicht darum, das ZFS nicht in den Linux-Kernel aufgenommen wird oder werden soll. Von mir aus darf ZFS gerne out-of-tree bleiben. Es wäre generell schön wenn es besser möglich wäre out-of-tree-Projekte zu haben. Und stabile APIs würden dabei helfen.

foofoobar schrieb:
Nur beim RAM verweigern sich viele einer Fehlerprüfung, dabei hatte der allererste IBM-PC immerhin eine Parity auf das RAM.
Und das Parity-Bit gibt es ja auch nach wie vor. ECC hat den Vorteil das z.B. auch Doppelbit-Fehler erkannt werden und sogar bei nicht all zu schwerwiegenden Fehlern auch eine Korrektur möglich ist.
ECC hat also seine Vorteile. Hat aber auch ein paar Nachteile. ECC-RAM-Module sind teurer und i.d.R. auch langsamer als deren non-ECC-Pendants.
Muss man sich halt überlegen was einem wichtig ist.

longusnickus schrieb:
auf windows ladet man sich hwmonitor runter, startet das teil und hat alle möglichen werte
bei AMD muss man dann noch ein kernel modul installieren, damit man auch alle werte auslesen kann. das braucht man bei windows einfach nicht extra!
Ja. Du brauchst es nicht extra. Was aber lediglich bedeutet das bei Windows das Modul immer mitläuft. Egal ob Du es gerade brauchst oder nicht.
Ob man das als klaren Vorteil werten kann, würde ich zumindest mal in Frage stellen. :-)

longusnickus schrieb:
das fängt beim task manager an, der bei windows wirklich um einiges besser ist als alles was linux zu bieten hat,
Es gibt unter Linux nicht DEN Task-Manager (das trifft nicht mal für Windows zu; auch da gibts zum mitgelieferten Task-Manager Alternativen; teilweise sogar von Microsoft selbst wie z.B. den Process-Explorer ).

Ansonsten müsstest Du jetzt mal ausführen was Du denn konkret monitoren willst und wofür Du es brauchst. Geht es Dir darum Anomalien im Betrieb zu erkennen, geht es um eine Problemanalyse oder willst Du eher ein Klicku-Bunti-Tool welches in erster Linie den Spieltrieb befriedigen soll aber darüber hinaus allenfalls begrenzten Nutzen hat?
 
andy_m4 schrieb:
Du redest einmal mehr wieder am Thema vorbei. Es geht nicht darum, das ZFS nicht in den Linux-Kernel aufgenommen wird oder werden soll. Von mir aus darf ZFS gerne out-of-tree bleiben. Es wäre generell schön wenn es besser möglich wäre out-of-tree-Projekte zu haben. Und stabile APIs würden dabei helfen.
Oracle kann auch die ZFS-Lizenz ändern.
Solaris und Sparc ist sowieso tot und Kohle macht Oracle damit auch keine mehr.
 
Zurück
Oben