News Ubuntu denkt über „Rolling Release“ nach

derGrimm schrieb:
LTS für die die Stabilität wollen und Rolling Release für den Rest.

LTS steht aber nicht für Stabilität, sondern für längeren Support.
Ubuntu an sich in jeder Variante ist der Entwicklerzweig von Debian und als solcher notorisch instabil.
Nur das originale stable-Debian ist auch wirklich stabil.

Es wäre vielleicht mal von Vorteil, wenn man diese stabile Debian-Variante mit der Usability von ubuntu oder noch besser mit Linux Mint Mate verknüpfen würde.
Ergänzung ()

Zedar schrieb:
Arch LInux macht das z.b. hervorragend. Immer Bleeding Edge aber immer sehr stabil, hatte bisher noch nie wirklich Probleme.

Wie kann man denn die Stabilität beurteilen, wenn es immer Bleeding Edge ist?
Wirkliche Stabilität sieht man doch erst nach ca 2 Monaten intensivem Einsatz, aber in der Zwischenzeit hat man bereits wieder ein neues "bleeding edge", weil man alle paar Tage neue Updates installiert.
Überall könnten versteckte Stabilitätsfallen verborgen sein.

Stabilität nachweisen kann man erst durch intensive Tests und die brauchen eben Zeit.
Während dieser Zeit sind die Entwickler aber nicht untätig.
Daher sind nachgewiesen stabile Systeme auch niemals bleeding edge.
Daher hinkt Debian auch immer zwangsläufig der Entwicklung hinterher, was aber oft ein Vorteil ist, etwa bei Servern, wo Stabilität wichtiger als alles andere ist.
 
An sich begrüsse ich das diskutierte neue (Teil-)Rolling-Modell. Der Teufel liegt aber im Detail. Wer LTS-Versionen bisher installiert hat, erwartet neben dem längeren Support auch möglichst viel Stabilität für den produktiven Einsatz. Zu viele Experimente (gerade auch beim User-Interface) sind da Tabu.

IMHO war der grosse Kapitalfehler von Ubuntu in den letzten Jahren vor allem Unity. Niemand will es und die, welche es haben, sind nicht zufrieden. Selber benutze ich häufig Xubuntu/XFCE und bin deutlich zufriedener damit als mit Ubuntu/Unity.

M$ hat ja mit "Metro" (welches jetzt nicht mehr "Metro" genannt werden darf) den gleichen Irrtum begangen: Warum eine One-Size-Fits-All-Oberfläche, wenn es (gerade bei Linux!) für praktisch jeden Einsatzzweck mehrere gute Alternativen gibt. Unity hat schon seine Berechtigung, aber auf einem Desktop für den produktiven Einsatz gefällt es zumindest mir überhaupt nicht. Und verbockt ist Unity nach wie vor. M$ hatte "Metro" wohl besser für den mobilen Einsatz auf Tablets, Smartphones und Notebooks mit Touchpanel vorsehen sollen, während man auf dem Desktop/Server mit dem alten Desktop (komplett ohne Metro) besser fahren würde. Ich mache einfach immer wieder die Feststellung, dass Windows 8 User Settings umstellen oder Zusatztools benutzen, damit sie so wenig mit Metro zu tun haben wie nötig. Metro als Startmenu-Ersatz auf dem Desktop ist in etwa gleich doof wie der normale Windows-Desktop auf einem Tablet.

GNOME 3 war auch so ein Desaster. GNOME 2 war äusserst beliebt, inkl. der damaligen Ubuntu-Versionen mit GNOME 2. Klar, man kann GNOME 2 auch heute noch nachinstallieren, aber es hat Ubuntu trotzdem geschadet. Weiterentwicklungen von GNOME 2 bestätigen dieses Annahme, da diese recht beliebt sind.


Krautmaster schrieb:
die 12.10 haben sie auch komplett vergeigt. Ich bin immer wieder schockiert wie die Jungs was perfekt laufendes im nächsten Release zerschießen können ;)

Noch dazu hat man seit 10.04 gefühlte 500% Geschwindigkeitsverlust. (mit SSD)

Bei den LTS-Versionen haben sie sich bisher meistens Mühe gegeben. Die Versionen zwischendrin waren eher experimenteller.

Auf meinen Kisten habe ich im Moment vor allem Xubuntu 12.04 LTS und bin sehr zufrieden damit. Bei einer Trinity-APU-Kiste musste ich aber gezwungermassen Xubuntu 12.10 drauf machen und war auch nicht wirklich begeistert. Ein paar Bugs sind aber mittlerweile korrigiert.

Das mit dem Geschwindigkeitsverlust ist z.T. erklärbar: Es gab ja diverse Änderungen unter der Haube. Je nach Konfiguration sind die 3.x.x-Kernel sogar deutlich schneller, gerade auf aktuelleren Kisten (im Vergleich zu 2.6.x). Sogar auf uralten Atom330/ION-Kisten habe ich noch deutlich Performance gekriegt zum Gamen von z.B. OpenArena, da der 3.x.x Kernel dort einfach besser ist.

10.04 hat natürlich einfach geringere HW-Anforderungen.

Ich würde Dir mal empfehlen Xubuntu, Lubuntu etc. auszuprobieren. Die laufen gespürt deutlich flinker als die Stamm-Version mit Unity.


Meine Meinung: Wenn schon ein (Teil-)Rolling-Modell, dann bitte mit klarer Betonung auf Stabilität und keine grossen Experimente. Grössere Änderungen z.B. am User-Inferface könnte man dann alle zwei Jahre mit Erscheinen des nächsten Releases machen.
 
2L84H8 schrieb:
An sich begrüsse ich das diskutierte neue (Teil-)Rolling-Modell. Der Teufel liegt aber im Detail. Wer LTS-Versionen bisher installiert hat, erwartet neben dem längeren Support auch möglichst viel Stabilität für den produktiven Einsatz. Zu viele Experimente (gerade auch beim User-Interface) sind da Tabu.
Die Stabilität hat er doch auch mit dem angedachten neuen Modell. Er erhält genau alle 2 Jahre eine neue LTS und dazwischen nur Sicherheit und wichtige Bugfixes.
Dass sich alle Jubeljahre mal etwas am System ändert ist doch absolut normal.

IMHO war der grosse Kapitalfehler von Ubuntu in den letzten Jahren vor allem Unity. Niemand will es und die, welche es haben, sind nicht zufrieden. Selber benutze ich häufig Xubuntu/XFCE und bin deutlich zufriedener damit als mit Ubuntu/Unity.
Und? Ich hab Unity mal eine Weile wirklich ausprobiert. Für 24" Desktops ist es nix... aber schlecht ist es trotzdem nicht. Da du aber nur 2 Klicks von Gnome3, Gnome-Classic, Xfce oder KDE entfernt bist: who cares?
Und spätestens im Server-Segment ist es dir eh egal. Eines hat eine Server-Installation nämlich nicht: einen X-Server.

Auf meinen Kisten habe ich im Moment vor allem Xubuntu 12.04 LTS und bin sehr zufrieden damit. Bei einer Trinity-APU-Kiste musste ich aber gezwungermassen Xubuntu 12.10 drauf machen und war auch nicht wirklich begeistert. Ein paar Bugs sind aber mittlerweile korrigiert.
Was zwingt dich? Kernel Backports installieren und gut.

Meine Meinung: Wenn schon ein (Teil-)Rolling-Modell, dann bitte mit klarer Betonung auf Stabilität und keine grossen Experimente. Grössere Änderungen z.B. am User-Inferface könnte man dann alle zwei Jahre mit Erscheinen des nächsten Releases machen.
Wenn du LTS wählst, dann hast du deine Interface-Änderungen nur alle 2 Jahre. Wenn du Rolling wählst, dann hast du immer Bleeding Edge. Ganz einfach. Wozu noch einen dritten Weg, bei dem nur die Hälfte Bleeding Edge ist? Ist doch Unsinn, das klappt nie.
Dem einen ist dann evtl. GIMP 2.8 lieber als GIMP 2.10, also will er das Paket aus dem Roll-Zyklus raus haben. Ein anderer will Xfce nicht aktualisieren, der nächste will bei Gnome 3.6 bleiben statt auf 3.8 zu wechseln...

Und hey: es steht dir sogar frei. Klick die Updates nicht an, Ende.
 
Bolko schrieb:
Wie kann man denn die Stabilität beurteilen, wenn es immer Bleeding Edge ist?
Wirkliche Stabilität sieht man doch erst nach ca 2 Monaten intensivem Einsatz, aber in der Zwischenzeit hat man bereits wieder ein neues "bleeding edge", weil man alle paar Tage neue Updates installiert.
Überall könnten versteckte Stabilitätsfallen verborgen sein.

Stabilität nachweisen kann man erst durch intensive Tests und die brauchen eben Zeit.
Während dieser Zeit sind die Entwickler aber nicht untätig.
Daher sind nachgewiesen stabile Systeme auch niemals bleeding edge.
Daher hinkt Debian auch immer zwangsläufig der Entwicklung hinterher, was aber oft ein Vorteil ist, etwa bei Servern, wo Stabilität wichtiger als alles andere ist.

Hi,

stabil in dem Sinne, dass man sich nicht das System zerschießt bzw. Anwendungen nach Updates nicht mehr funktionieren. Obwohl Arch immer die neueste Upstream-Software in den Repositories hat, passieren doch (fast) nie Unfälle. Und sogar Arch hat einen testing-Branch, in dem neue Software für ein oder zwei Wochen getestet wird, bevor das Paket in das normale Repository kommt.

Man kann natürlich sein Arch kaputtmachen, aber das liegt dann meistens daran, dass Leute die News nicht lesen und z.B. beim filesystem-Update (oder glib? weiß nicht mehr genau) ein "--force" ausgeführt haben. Die haben dann rumgejammert, obwohl in der News deutlich drin stand, das man das nicht tun sollte. Und selbst denen konnte noch geholfen werden.

Jason Wryan hat da einen sehr interessanten Artikel über die Arch-Mentalität geschrieben: http://jasonwryan.com/blog/2012/07/19/breakage/
 
Ich sehe schon die ganzen enttäuschten Neueinsteiger, die sich beklagen, dass nichts funktioniert. ;) Die werden sicher keine News lesen und "seltsame" eintippseln. Rolling Release ist für Anwender gedacht, die sich mit ihrem System auseinandersetzen können und wollen, nicht für typische Ubuntu-Einsteiger (aka Windows-Umsteiger).
 
Bolko schrieb:
Wie kann man denn die Stabilität beurteilen, wenn es immer Bleeding Edge ist?
Wirkliche Stabilität sieht man doch erst nach ca 2 Monaten intensivem Einsatz, aber in der Zwischenzeit hat man bereits wieder ein neues "bleeding edge", weil man alle paar Tage neue Updates installiert.
Überall könnten versteckte Stabilitätsfallen verborgen sein.

Gegenfrage:

Wie kann/will man instabilität oder zumindest fehlende Stabilität nachweisen wenn im Zyklus in dem man die Software nutzt keine instabilitäten auftreten. Das man solche Distributionen nicht als Server-Distribution anwenden sollte, denke ich, weiß jeder. Außerdem war es nur ein Beispiel das Bleeding Edge nicht immer auch gleich "nicht-funktionierendes-System" heißt. Für Desktopanwender ist es jedenfalls gut genug.

Ich habe in den 4 Jahren in denen ich Mittlerweile durchgängig eine Arch Installation auf der Festplatte habe zumindest noch keine Probleme gehabt, wie z.b. Kubuntu 8.04 als KDE 4.0 in die Repositories kam. Bei Ubuntu ist das ganz anders, Debian Sid ist teilweise hinter den offziellen Repositories von Arch Linux. Und Ubuntu hat ja seinen Upload von Debian Sid/Testing, das Rolling Release wird sich meiner Meinung nach irgendwo dazwischen befinden. Man kann - hab ich ja schon mal geschrieben - auch Rolling Release fahren ohne Bleeding Edge.

Ich denke das der Strom Windowsumsteiger und diejenigen die Wert auf Stabilität legen auf die LTS-Versionen gelenkt werden, die RR-Versionen werden denke ich gekennzeichnet, ähnlich wie jetzt die Betas.
 
Zuletzt bearbeitet:
Zurück
Oben