News Tux sieht rot: Linux Kernel 6.11 mit zahlreichen Neuerungen für AMD

Bigfoot29 schrieb:
Wer Debian Rolling Release nehmen will, für den ist "unstable". Manche sagen, es wäre immer noch stabiler als Ubuntu, aber das ist dann wohl doch etwas übertrieben. :D

Also den Arbeitsrechner meines Kollegen mit Ubuntu zerlegt es deutlich häufiger (alle paar Wochen) als meinen Rechner mit Unstable (noch nie). :D
 
  • Gefällt mir
Reaktionen: Bigfoot29
@schrht : Aber Obacht. obvious PEBCAK is obvious. :D
(Denn ganz so dramatisch schlecht ist nun auch Ubuntu nicht. Ich habe es lange benutzt (bis mir der SNAP-Zwang zu viel wurde).) :)

Regards, Bigfoot29
 
Tanzmusikus schrieb:
Nein. Es ist bei Debian ein weitergehenderes Prinzip von Sicherheit gemeint. Eher konservativ z.B.: Stabilität.
Ja das ist natürlich klar. Aber das ist eigentlich primär der deutschen Übersetzung geschuldet. Diese "Sicherheit" nennt man im deutschen wie gesagt auch "Sicherheit" - das ist das gleiche Wort mit im Sinnzusammenhang einer anderen Bedeutung für das, wofür Sicherheit, als Übersetzung des englischen Security eigentlich steht.

Natürlich kann man sich dort halbwegs "sicher" sein, dass bei einem LTS so und so lange nichts geändert wird bzw. nichts so signifikant, dass mit dem Ansatz bricht. Aber das macht es nicht aus der Sicherheitsbrille betrachtet, "sicher". Dieses "sicher" ist komplett identisch im Ansatz bei einem LTS wie einem non LTS Release. Sicherheitslücken und Funktionsstörungen werden behoben. Sicherheitslücken sogar möglichst schnell.

Ob man mehr dieser Sicherheitslücken findet, wenn man länger Zeit hat diese zu suchen, kann statistisch vielleicht sogar stimmen. Aber das ist lange kein Selbstläufer wie genug Funde der Vergangenheit belegen. Häufig finden sich Sicherheitslücken über mehrere Versionen hinweg, weil die Codebasis auch über LTS Releases hinweg selten bis nie komplett verändert wird und man viel vom alten Kram häufig lange mitschleppt.

Der Punkt oben ist also absolut kein Widerspruch zum LTS Ansatz, wenn man Code, der gefundene! Schwachstellen und Probleme zurück portiert. Und nur weil man lange Zeit hat, den Code zu sichten werden lange nicht alle Probleme überhaupt gefunden. Wie gesagt, die Sicherheit, dass es dennoch (bis auf Ausnahmen, die es immer gibt) läuft in der Umgebung, die bleibt ja weiterhin im Rahmen der Eintrittswahrscheinlichkeit gegeben. Eine echte Garantie gibt es nie. Die Wahrscheinlichkeit, dass ein Backport irgendwas "kaputt" macht, ist relativ gering. Der Nutzen aber sehr hoch, wenn der Code eben eine Sicherheitslücke fixt. Dann erhöht man nämlich die Sicheitheit ggü. dem Zustand, dass die bekannte Lücke einfach offen bleibt, was in dem Zusammenhang eben dem eigentlichen "Security" Thema entspricht.
Ergänzung ()

schrht schrieb:
Also den Arbeitsrechner meines Kollegen mit Ubuntu zerlegt es deutlich häufiger (alle paar Wochen) als meinen Rechner mit Unstable (noch nie). :D
Ich hab hier ne drei stellige Anzahl an Ubuntu LTS Systemen - da braucht es weniger als 5 Finger einer Hand um abzuzählen was da letztlich seit Start des Einsatzes (begib mit 14.04 LTS) mal zerlegt wurde. Vor allem, alle paar Wochen? Wie schafft man das? Das sind jetzt grob 10 Jahre. Wir hatten einen Fall wo es mal die SNMP Libs durch ein problematisches Update erlegt hatte und ich kenne Fehler im FreeRadius. Aber das ist alles kein Systemkram der zu einem "Zerlegen" führt, sondern eher Zusatzsoftware, die dann halt nicht oder nur eingeschrenkt funktioniert.
 
  • Gefällt mir
Reaktionen: Bigfoot29 und Tanzmusikus
fdsonne schrieb:
Ich hab hier ne drei stellige Anzahl an Ubuntu LTS Systemen - da braucht es weniger als 5 Finger einer Hand um abzuzählen was da letztlich seit Start des Einsatzes (begib mit 14.04 LTS) mal zerlegt wurde.

Ich hatte gehofft, dass der Smiley am Ende indikativ dafür ist, dass der Beitrag eher humoristisch, oder zumindest nicht zur Gänze ernst gemeint ist. Mir ist schon bewusst, dass zwei Systeme nicht einmal ansatzweise auch nur auf irgendetwas hindeuten.
 
@schrht
Aber muss ja was dran sein, wenn dein Kollege da massivst Probleme zu haben scheint? Natürlich ist es klar dass das aus zwei Systemen nicht ableitbar ist... Deswegen ja auch zwischendrin mal die Frage, wie man das schafft?
 
Wenn ich aus seinen Flüchen einen roten Faden rauslesen kann ist es meistens irgendeine über Snap installierte Applikation die einen Crash hat (Firefox dürfte ein guter Kandidat sein), woraufhin der snapd stirbt und Unity beginnt interessante Crashes zu produzieren. Ich kann ihn gerne nächste Woche mal im Detail fragen, ich krieg das tatsächlich nur am Rande mit.
 
  • Gefällt mir
Reaktionen: Bigfoot29
fdsonne schrieb:
Ob man mehr dieser Sicherheitslücken findet, wenn man länger Zeit hat diese zu suchen ...
Gibt es eigentlich soetwas wie "Codescanner", die Code automatisiert auf potentielle Schwachstellen abgrasen? Wäre das nicht ein Paradeansatz für eine KI, die auf der einen Seite mit "best practices", und auf der anderen mit bekannten Fehlern gefüttert wird?

Falls jemand an sowas arbeitet - ich hätte Bock mitzumachen.
 
@fdsonne : Während ich Deiner Aussage weitestgehend zustimmen kann, habe ich doch eine kleine Ergänzung. Der Verzicht auf Software-Updates (und lediglich Sicherheits-Patches) ist nicht nur im Hinblick auf funktionale Änderungssicherheit (Stabilität) ein wichtiger Kernpunkt der Sicherheitsstrategie. Viele, gerade jüngere Devs glauben, nur regelmäßig aktualisierter Code ist ein Zeichen für hohe Sicherheit. Das ist aber Quatsch.

Ich bin mir grade nicht sicher, wie das Programm hieß... QMail? Irgend ein Linux Mail-Programm jedenfalls. Da gab es abgesehen von ein paar initialen Updates (zur Feature-Komplettierung) viele Jahre keinerlei Updates mehr. Warum? Nun, weil das Programm schlicht sicher gebaut war. Unsicher waren lediglich die Libraries drumherum.

Auch statistisch ist nachgewiesen, dass ein neueres Software-Release neue Softwarefehler implementiert. Sei es, durch fehlerhaftes Refaktoring, fehlerhafte Patch-Implementierung (berüchtigtes Wiederauftreten eigentlich schon gefixter Bugs) oder schlicht Fehler in neuem Code. Daher ist immanent, dass lediglich Sicherheitspatches bei ansonsten gleicher Code-Basis weniger Fehler erzeugen, als Sicherheitspatches via Software-Releaseupdate.

(Mal ganz davon ab, dass theoretisch JEDES neue Software-Release EINES Programmes an ganz verschiedenen Stellen im System Dinge kaputt machen kann, weil API-Syntax oder sonstige Ein- oder Ausgaben oder auch nur Laufzeit-Quirks sich zur vorherigen Version verändert hat.. Auch DAS erspart man sich dadurch. Mehrkosten hat das Debian-Team lediglich dadurch, dass sie Sicherheitspatches, die ggf. nur gegen neuere Software-Versionen effizient sind, auf ihren "alten" Software-Stand zurückportieren müssen. - Ein kleineres Übel. :) )

Regards, Bigfoot29

Nachtrag: @ropf : Diese Code-Scanner gibt es. Sowohl klassisch als auch mit KI-Ansätzen. Klassische Scanner funktionieren entweder nach dem Prinzip des "Ich mülle das Programm mit Eingangsdaten zu und schaue mal, bei welchen es kotzt" oder eben dem Prinzip der wirklichen Code-Scanner, die ein eingebautes Regelset haben, was potentiell gefährlich oder "schlechte Praxis" ist.
ABER:
1) Die Nutzung dieser Programme kostet Zeit (für die Einarbeitung des DEVs in den Code-Scanner sowie reguläre Ausführungszeit) und Geld (Lizenzen oder schlicht Rechenzeit irgendwo)
2) Und viel schlimmer: Anders als viele glauben, werden bei weitem nicht alle Bugs gefixt. Jeder nicht gefundene Fehler ist ein Code-Fragment, dass nicht geschrieben werden muss. Oft gilt daher: "Works as designed und raus an den Kunden! Der meldet sich dann schon." Auch in freier Software werden bei WEITEM nicht alle Fehler behoben. Wer das nicht glaubt, darf gern mal bei beliebigen OSS-Programmen (Kernel, Firefox, Nextcloud, ...) in die öffentlich einsehbaren Bugtracker gucken. Da gammeln Hunderte Fehlermeldungen vor sich hin. Die Kappa (Muskelkraft) zum Beheben fehlt aber. Daher werden nur die schlimmsten Bugs behoben. Der Rest wartet, bis irgend wann am St.Nimmerleinstag mal doch jemand Zeit findet, kleinere Auffälligkeiten zu beheben.
3) Kotzen die DEVs gerade massiv über KI im Code-Scanning ab. KI halluziniert. Sie KANN kein richtig von falsch unterscheiden. Sie sagt/tut Dinge, die - vereinfacht gesagt - prozentual für den nächsten Schritt am wahrscheinlichsten (und nicht am logischsten) sind. Das funktioniert für Text Ein-/Ausgabe und Sprache relativ gut, da das ein vergleichsweise kleines Aufgabengebiet ist. Aber für nahezu beliebig komplexe Dinge wie Code KANN KI gar nicht ausreichend "wahrscheinlich korrekt" sein. Daher sind viele der KI-basiert gefundenen Bugs schlicht Fakes. Das kostet dann extra Zeit für die Devs, herauszufinden, dass der Fehler eben NICHT echt ist. Denn gemäß plausibel klingender KI-Meldung IST der Code ja kaputt. Nur passt das nicht zur Realität und lässt sich daher unheimlich schwer auf einfache Art als Fehl-Meldung beweisen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ropf
ropf schrieb:
aber kein mir bekannter Video-Player
Am ehesten würde ich hier vermuten, das es mpv hinbekommen würde, man hat hier eine sehr große Auswahl an video-output-drivern und einen Haufen an Optionen.
Ergänzung ()

Bigfoot29 schrieb:
Xen (Hypervisor)+LVM2("HDD-nahe" Datenschicht)+drbd("verteilte" virtuelle Datenschicht drüber)
Würde dann auf dem DRBD Device noch mal btrfs nutzen, für maximalen Overhead :D
Mich würde aber echt interessieren, warum man sich aktuell noch Xen antut, anstatt KVM?
Ergänzung ()

Bigfoot29 schrieb:
Och, Arch ist jetzt nicht soo kompliziert. Insbesondere, wenn man Helfer wie ArcoLinux o.ä nutzt, die auf Arch basieren, aber einen netten Installer und einiges an QoL mitbringen. :)
Naja, man muss halt im Fehlerfall in der Lage sein Probleme selbst zu lösen.
Gibt auch alle paar Monate mal ein Update, wo man manuell Hand anlegen darf, man muss hier also die Website im Auge behalten.
 
  • Gefällt mir
Reaktionen: Bigfoot29
Pesky_ schrieb:
Gibt auch alle paar Monate mal ein Update, wo man manuell Hand anlegen darf
Genau. Aktuell betraf es "yay" sowie "pamac-aur" unter EndeavourOS (Arch-Basis).
Die Community, insbesondere die EnOS-Maintainer, haben großartig zusammen Workarounds bis zur Behebebung entwickelt und die Configs angepasst. Nun ist alles schon wieder "in trockenen Tüchern". :daumen:
 
  • Gefällt mir
Reaktionen: Bigfoot29
fdsonne schrieb:
@schrht
Aber muss ja was dran sein, wenn dein Kollege da massivst Probleme zu haben scheint? Natürlich ist es klar dass das aus zwei Systemen nicht ableitbar ist... Deswegen ja auch zwischendrin mal die Frage, wie man das schafft?
PEBCAK?
Ergänzung ()

ropf schrieb:
Gibt es eigentlich soetwas wie "Codescanner", die Code automatisiert auf potentielle Schwachstellen abgrasen?
Ja.
 
  • Gefällt mir
Reaktionen: frazzlerunning
Falsch den Post verstanden
 
Zurück
Oben