News Probleme beim Update auf Ubuntu 13.10

aurum schrieb:
[…]zu überzeugen, dann muss man mit derartigem rechnen.[…]

Wenn soll ich von was überzeugen? Entweder man kommt mit Linux klar und setzt sich auf den Hosenboden oder man schafft es nicht und wird ein meckerer. Mich interessiert das schon lange nicht mehr. Wer ein Problem hat und um Hilfe fragt dem helfe ich. Wer nur meckern will, ja mei... Und jetzt mal Hand aufs Herz: meinst du wirklich von einem virtuellen System auf ein natives schließen zu können? Nur weil die OS von Microsoft gut laufen, heißt das nicht das es die anderen auch tun müssen. Ich weiß übrigens immer noch nicht wo die Probleme sind.

BaserDevil schrieb:
[…]Nochwas was ich nicht verstehe. Alle Distribution basieren auf ein und demselben Kernel. Von den aktuellen Versionen mal abgesehen. Linuxkernel gibts nur einen. Jetzt baut jede Distri seinen Desktop herum und die richtet die Hardwareerkennung ein usw. Warum muß es dann überhaupt für jede Distri spezielle Softwarepakete geben? Das ist tief im Herzen immer noch Linux von gleichen Ursprung.

Zu dem Problem mit den PPAs: ich hatte zu meiner ubuntu Zeit auch immer einiges an PPAs in der sources.list. Ich fand die immer nützlich. Bei arch hab ich ja auch einiges an AUR Paketen. Die Entwickler sperren zu einem Distributionsupgrade diese Quellen weil sie den Upgradepfad stören könnten. Da kommt dann doch das Sicherheitsdenken wie man es sonst von Debian kennt zum Vorschein.

Der andere Punkt ist auch leicht erklärt. Jeder Distributor macht je nach Distribution schon einiges an den Paketen. Bei ubuntu, Mint oder openSuse werden durch die Paketverwaltung andere Vorgänge angestoßen, z.B. das bei bestimmten Paketen eine bestimmte Vorkonfiguration mittels Skripten oder Config Dateien durchgeführt wird. Bei Mint erhält man ein für die meisten schon fertig eingerichtetes Samba direkt aus den Quellen, bei arch muss erst die Config erstellt werden. Das gilt auch für Bootparameter. Auch die Kernel von ubuntu unterscheiden sich z.B. von den Gentoo Kerneln.

Gleich ist nur der Quellcode der Kernel bzw. bestimmter Pakete die von unabhängigen Entwicklern gepflegt werden. Sobald die Pakete in eine Distribution aufgenommen werden müssen sie angepasst werden, unterschiedlich stark zwar aber zumindest so dass der Paketmanager weiß was er mit ihnen tun soll.
 
Wenn soll ich von was überzeugen?

Die Linuxcommunity muss die Meinungsführer überzeugen. Vorausgesetzt man will überhaupt den Massenmarkt erreichen. Mir wurde in den Linuxforen bisher immer gesagt, dass Linux weder Alternative noch Substitut wäre. In dem Fall ist das Vorgehen freilich genau richtig.

meinst du wirklich von einem virtuellen System auf ein natives schließen zu können?

Kann man nicht. Arbeite aber bei uns am Institut auch mehr oder weniger täglich mit normalen Installationen. Die Problemfelder bleiben die gleichen. Zuerst versucht man die Hardware ans laufen zu bringen. Manchmal scheitert man schon hier. Läuft die Hardware, dann macht die Software Probleme. Spätestens jetzt optimiert man das System kaputt ^^ Eine Systemwiederherstellung gibt es nicht. Man installiert alles wieder neu etc. Führt nicht unbedingt zu einer nachhaltigen Zufriedenheit. Grundsätzlich ist vieles lösbar, aber man muss das OS als eigenes Hobby betreiben ;)
 
BaserDevil schrieb:
Der Kernel 3.11 ist übrigens alles andere als alt, wie jemand gegenteilig schrieb. Das ist der aktuelle. 3.12 ist noch Beta.
Ach, du meinst den Spruch von Zehkul? Ich werd ihm ein Memo schreiben, dass er ab jetzt bitte [sarkasmus]-Tags verwendet...

XBMC ist in Version 12.0 aus dem Ubuntu-Software-Center erhältlich. Nützt mir aber nichts, weil 12.2 deutlich besser läuft.
Typisches Early-Adopter - Problem, würde ich sagen.
Entweder du gibst den Leuten mal etwas Zeit, dir das Zeug mundgerecht zu kompilieren (kleiner Hinweis: PPA-Betreiber machen sowas in ihrer FREIZEIT!), oder du kompilierst es selbst. Mit Werkzeugen wie "checkinstall" kann man sehr effizient eigene .deb bzw. .rpm bauen, die dann wunderbar mit der Paketverwaltung harmonieren. Hab ich schon oft gemacht...

Was ich aber noch nicht verstanden habe ist, was am verwenden von fremden PPAs falsch sein soll.
Es spricht NICHTS dagegen, fremde PPAs zu verwenden, vom Sicherheitsaspekt abgesehen.
Es ist nur nicht empfehlenswert, PPAs aktiv zu verwenden, während man gerade ein Distributionsupdate macht. Warum? Ok, ein nettes kleines Beispiel:
Du bist PHP-Entwickler, hattest bisher Ubuntu 13.04 im Einsatz und, weil dich neue Funktionen sehr interessieren auf Ondřej Surýs PHP-Builds gesetzt. Nun, du hattest bisher PHP 5.5.5 im Einsatz. In den regulären Repositories von Ubuntu 13.10 ist aber 5.5.3.... Was macht der Updater jetzt? Macht er ein Downgrade auf 5.5.3? Behält er 5.5.5? Und was ist mit Paketen, die jetzt explizit 5.5.5 erfordern?

Nochwas was ich nicht verstehe. Alle Distribution basieren auf ein und demselben Kernel. Von den aktuellen Versionen mal abgesehen. Linuxkernel gibts nur einen. Jetzt baut jede Distri seinen Desktop herum und die richtet die Hardwareerkennung ein usw. Warum muß es dann überhaupt für jede Distri spezielle Softwarepakete geben? Das ist tief im Herzen immer noch Linux von gleichen Ursprung.
Die meisten Distributionen haben eigene spezifische Manipulationen am Kernel. Ubuntu ist bekannt für spezifische Patches, die den Hardware-Support verbessern. Aber auch die klassischen Server-Distributionen haben Unmengen an Patches. CentOS/RHEL verwenden z.B. immer noch einen 2.6er Kernel, also echte Holzklasse... aber die RHEL-Maintainer haben eine große Menge an Backports eingepflegt, die vor allem die Sicherheit betreffen.
Mir fällt gerade keine Distribution ein, die den puren Mainline-Kernel wirklich verwendet. Bei Gentoo oder Arch könnt ichs mir evtl noch vorstellen... Und selbst wenn die Quellcodes von Mainline verwendet wurden: Beim Kompilieren eines Kernel kannst du extrem viel einstellen. Schau mal in die Optionen, da kannst du Tage zubringen, bis du alle Optionen angeguckt hast.

Also: Es gibt nicht DEN Kernel.
 
Hallo,

wisst Ihr was mich wirklich freut, dass die Diskussion sachlich bleibt und man Antworten bekommt. :)
Danke für die Erklärungen. Okay, zurück zu meinem Problem.

Was ist nun besser in meiner Lage. Mein jetziger funktionierender Zustand aber mit deaktivierten Paketquellen.
Oder Ubuntu 13.04 wo es keine Paketquellenproblem gab und den Kernel 3.11 selbst updaten. ?

Muß ich mich um die derzeit deaktivierten Paketquellen selbst kümmern und wieder freischalten wenn ich mitbekomme es gibt welche für Ubuntu 13.10 oder was muß ich tun? Können die deaktivierten Paketquellen generell Probleme machen? Ich würde es erstmal so lassen wollen bis 14.04 LTS kommt. Hier würde ich bis zur Installation warten bis es PPAs für 14.04 gibt. Man ist ja lernfähig. ;)
 
Archlinux hat in der Tat einen ziemlich ungepatchten Kernel.
https://projects.archlinux.org/svntogit/packages.git/tree/trunk?h=packages/linux

BaserDevil schrieb:
Aber! Ohne zusätzlichen Inteltreiber wird die GPU der CPU nicht richtig genutzt. Sprich XBMC läuft ohne notwendige vaapi Unterstützung. Also muß man irgendwie den Inteltreiber installieren. Für Ubuntu 13.10 gibt es noch kein fertiges Installationpaket. https://01.org/linuxgraphics/downloads

Warum? Ich sagte doch schon, du hast bereits den neuesten Kernel. Damit hast du auch den neuesten Treiber. Der Kernel IST der Treiber. Vaapi sollte es auch in ausreichend aktueller Version in den Paketquellen geben. Warum machst du es dir unnötig schwer?

Wenn XBMC in einer ein paar Monate frischeren Version deutlich besser läuft und sie kein PPA stellen – Tja, Problem der XBMC Devs. Und in gewisser Weise auch von deiner Distribution, ja, bzw. der Wahl deiner Distribution, denn Ubuntu ist einfach nicht für die frischeste Software da. Dafür gibt es eigene Distributionen. (Archlinux :freaky:)
Du könntest auch einfach selbst kompilieren, das ist keine Magie und geht eigentlich ziemlich leicht. Dann kannst du auch jederzeit die aktuelle Git Version laden. Ja, das macht durchaus Sinn, zB wenn du einen Bug meldest, und der Developer fragt, ob es nun gefixt ist. (Vielleicht denke ich da aber wieder zu nerdig)

Außerdem, wenn du direkt nach Release auf eine neue Windowsversion wechselst, hast du auch einige Programme nicht. Einige wirst du sogar nie wieder bekommen. (Das geht unter Linux viel einfacher) Das ist einfach so mit neuen Versionen. Neu ist neu. Wer das nicht will, ist mit einer LTS Version + PPAs am besten bedient.

Ach ja, VDPAU > Vaapi. :P
 
Du kannst in jeder Distribution den Quellcode der Kernelcrew benutzen, ich würde davon abraten, denn es ist zwar tatsächlich nicht allzu schwer den Kernel selbst zu kompilieren, für dem 08/15 User kommen dann aber wieder neue Probleme dazu. Man benötigt einfach einiges an Erfahrung oder eine gute Dokumentation und bei solchen Eingriffen muss man schon wissen was man fragt oder wo man kuckt.

Für sowas lohnt es sich tatsächlich eine Distribution mit RollingRelease zu nehmen, es sei denn du hast eine mit einem gut gepflegten PPA. Andererseits ist es meistens so, das neu aufgenommene Hardware erst mal so schnell nicht mehr aus dem Kernel fliegt, das heißt es ist eine Frage der Zeit bis der gewünschte Kernel in die offiziellen Repositories kommt.

Als Beta gekennzeichnete Kernel musst du aber in aller Regel selbst kompilieren, da gibt es selten vorkompilierte Pakete als .deb oder was auch immer.

aurum schrieb:
Die Linuxcommunity muss die Meinungsführer überzeugen. Vorausgesetzt man will überhaupt den Massenmarkt erreichen. Mir wurde in den Linuxforen bisher immer gesagt, dass Linux weder Alternative noch Substitut wäre. In dem Fall ist das Vorgehen freilich genau richtig.[...]

Die Meinung teile ich. Auch wenn ich sehe das viele Dinge schon besser sind als vor 5 Jahren gibt es noch einiges zu erledigen. Die Frage ist aber nach wie vor: Will man mit Linux da wirklich hin? Wenn in dem Fall die Alternative heißt: Microsoft Linux? Ich finde Linux hat seinen Charme, gerade die Bastler Distributionen. Mein Arch ist auf die Bedürfnisse von mir und meiner Frau abgestimmt. Das schätze ich mehr als ein OS bei dem ich nicht weiß was es gerade wieder im Hintergrund zu arbeiten hat.

Grundsätzlich ist vieles lösbar, aber man muss das OS als eigenes Hobby betreiben ;)

Da ist was dran. Aber wie gesagt, ich bin mittlerweile so weit das ich es nicht mehr hergeben möchte. Die paar Mal wo ich Windows 7 booten muss (Android Handy Update) ärgere ich mich das ich das nicht unter Arch erledigen kann.
 
BaserDevil schrieb:
Was ist nun besser in meiner Lage. Mein jetziger funktionierender Zustand aber mit deaktivierten Paketquellen.
Oder Ubuntu 13.04 wo es keine Paketquellenproblem gab und den Kernel 3.11 selbst updaten. ?

Muß ich mich um die derzeit deaktivierten Paketquellen selbst kümmern...
13.10 mit deaktivierten Quellen ist die bessere Option (u.a. weil 13.04 in 3 Monaten ausläuft). Wenn es läuft, genieß es einfach. Und nein, die Quellen werden nicht einfach wieder aktiv. Tatsächlich kannst du die jetzt auch aus der Liste löschen, macht keinen Unterschied. Wenn dir auffällt, dass eine neue Quelle verfügbar ist, dann fügst du sie eben hinzu.


Zedar schrieb:
Will man mit Linux da wirklich hin? Wenn in dem Fall die Alternative heißt: Microsoft Linux? Ich finde Linux hat seinen Charme, gerade die Bastler Distributionen. Mein Arch ist auf die Bedürfnisse von mir und meiner Frau abgestimmt.
Das eine schließt das andere nicht aus. Du kannst für die, die es unkompliziert wollen, ein OSX/Windows-artiges System anbieten, für die eher nerdigen Teile der Bevölkerung sowas wie Arch oder Gentoo. Genauso kannst du auch Distributionen wie jetzt anbieten, die mehr Freiheit als OSX oder Windows bieten, aber weniger frickelig als Arch & Co sind.
Wie effektiv so etwas sein kann siehst du ja an Android. Effektiv IST Android ja ein Google Windows, du kannst nix groß dran machen.
 
Fonce schrieb:
Ich glaube wir sollten DocWindows einfach ignorieren. Er hat eh keine Ahnung wenn es um das Thema geht und macht nicht in geringster Weise den anschein als wolle er mal Ahnung davon haben.

Doch, im Moment möchte ich gerne verstehen warum die Upgraderoutine die - ich sag mal bekannterweise inkompatiblen - Paketquellen entfernt, den ppa-purge Befehlt aufruft und nach einem eventuell erforerlichen Neustart mit dem Upgrade beginnt.
Das ist eine einfache Frage, kein Getrolle und es interessiert mich wirklich. Wenn du mir das beantwortest hab ich schon wieder ein bißchen mehr Ahnung. Da der Upgrader ja zumindest die Paketquellen entfernt, könnte er doch auch gleich das Purge ausführen, wenn auch mit Neustart. Sollte ja keinen großen Unterscheid machen ob ich das in der Kommandozeile eintippe oder er das selbst ausführt.

Mit zusätzlichen PPAs und wie damit in verschienenden Fällen umzugehen ist hab ich mich in der Tat noch nicht beschäftigt und sozusagen keine Ahnung. Ich brauch sie halt nicht. Aber auch ohne sie zu verwenden stellt sich eben diese einfache, offensichtliche Frage warum der Upgradeinstaller die Quellen nicht entfernt und den Aufräumbefehl ausführt.

BTW nervt es ziemlich wenn man für einfache Fragen oder Aussagen dumm angelabert wird. Genau das bemängelt man allgemein am Verhalten der vielgelobten "Community". Als ich letztens schrieb das 13.10 bei mir nicht mal den Kernel bootet und merkwürdige Blinkhieroglyphen kommen wurde ich auch gleich wieder als Troll bezeichnet. Linux hatte aber in der Tat Probleme mit meine RAM-Vollbestückung. Mit 2 statt 4 Riegeln bootete es normal. Man sollte sich mal als Linux-Gutfinder und Troll-Identifikator fragen ob man sich, der Community, interessierten Usern und Linux im Allgemeinen einen gefallen tut wenn man jeden Kommentar der auch nur den Hauch von Kritik oder Problemen an/mit Linux enthält gleich als Trollen anprangert.
 
Zuletzt bearbeitet:
DocWindows schrieb:
Doch, im Moment möchte ich gerne verstehen warum die Upgraderoutine die - ich sag mal bekannterweise inkompatiblen - Paketquellen entfernt, den ppa-purge Befehlt aufruft und nach einem eventuell erforerlichen Neustart mit dem Upgrade beginnt.
Weil das nicht Windows ist! Hier werden Rechte deutlich strenger kontrolliert und durchgesetzt.
Außerdem kannst du nicht einfach blind Neustarts auslösen. Unter Windows mag da normal sein, Linux arbeitet aber nicht so. Einen Linux Server startest du im Zweifel nur nach einem kritischen Sicherheitupdate für den Kernel neu, ansonsten lässt du das Ding laufen... und wenn es 5 Jahre durchläuft.

Außerdem können durchaus starke Komplikationen entstehen, wenn das System einfach mal ungefragt PPAs purged. Nehmen wir nur einfach mal ein Chromium-Nightly - Repository... Ein Downgrade bei Chrome/Chromium ist nicht möglich, die Benutzerprofile sind inkompatibel. Was aber, wenn wenn das PPA die v30 bereit stellt, ohne PPA aber maximal die v29 verfügbar ist? BÄM, Userprofile im Eimer.

Da der Upgrader ja zumindest die Paketquellen entfernt, könnte er doch auch gleich das Purge ausführen, wenn auch mit Neustart. Sollte ja keinen großen Unterscheid machen ob ich das in der Kommandozeile eintippe oder er das selbst ausführt.
Paketquelle aus der Liste löschen (bzw. auskommentieren) -> Paket bleibt INSTALLIERT
Paketquelle purgen -> Pakete werden entfernt und durch die Standard-Version ersetzt. Config-Dateien werden dabei i.d.R. NICHT berührt

Und der Unterschied zwischen Automatisch und Manuell ist: Automatismen sorgen für Fehler!

Linux hatte aber in der Tat Probleme mit meine RAM-Vollbestückung. Mit 2 statt 4 Riegeln bootete es normal.
Ich vermute weiterhin, dass einfach 1-2 deiner Riegel einen Hau weg haben. Nur weil es unter Windows nicht auffällt muss es nicht nicht kaputt sein.
 
Vielleicht weil bei einem ppa-purge zum Teil Dinge abgefragt werden müssen(Also Entscheidungen getroffen) und man es somit nicht einfach automatisiert in einen Upgrade Prozess integrieren kann?
[EDIT_1]Siehe Antwort von Daaron[/EDIT_1]
Daaron schrieb:
Warum geht das nicht automatisch? Tja, einfachste Erklärung: Manche PPAs erfordern tatsächlich einen Neustart, z.B. Kernel-PPAs oder die Treiber aus XSwat. Andere PPAs erfordern zumindest einen Neustart des Displays bzw. der Desktopupgebung, z.B. Gnome-Shell - Erweiterungen. Oder was, wenn du per PPA eine neue Version von apt oder dpkg verwendest?

Nun zum letzten Absatz deines Post...
Wenn der Kernel nicht gestartet wäre, dann könnte es schlecht zu Grafikfehlern, welcher vermütlich vom Grafiktreiber kommen, kommen.
Wenn ich mich nicht irre hast du eine GTX670...hey habe ich auch und bei mir gibt es keine Probleme.
Mein Fazit deshalb, der Hersteller der Grafikkarte hat vermutlich Mist gebaut und einen Fehler im BIOS oder sonst wo gemacht.
Bzgl. des Vollausbaus wurde dir schon gesagt, das Linux nun mal deutlich empfindlicher reagiert was den RAM angeht. Wenn alle Riegel ohne fehler sind und es trotzdem zu fehlern kommt, dann kann das Problem noch am Mainboard Hersteller liegen der irgend was versaut hat. Das große Problem ist hier nämlich das die Hersteller für ihre Tests eben nur Windows nutze und oft (z.B. bei ACPI) sich nicht an die Standards halten und sogar extra Workaround in die Windows Treiber eingebaut werden damit es überhaupt läuft, dies aber nicht nach außen kommunizieren, damit andere darauf überhaupt reagieren können.

Das sind aber alles Dinge, die ich pro Jahr bestimmt >10 mal in irgendwelchen Foren/Kommentaren irgend welchen Leuten beschreiben und bei der nächsten News sind es die selben Leute denen man es wieder beschreiben müsste weil sie den selben Kommentar wie beim letzten mal abgelassen haben! Und da wunderst du dich das es Leute, wie mich, gibt die das Aufregt und darauf keinen Bock mehr haben?
Kommst mit Begriffen wie "Linux-Gutfinder" oder "Troll-Identifikator" welche in dem Satz defamierend sind?
Vielleicht solltest du dir mal deine eigenen Posts zum Thema Linux der letzten Jahre noch mal anschauen und dich dann nochmal fragen warum ich mittlerweile so auf deine Posts reagiere!

Glaub mir die Linux Community ist sehr Kritik freudig, aber man hat halt keinen Bock irgendwelche Mythen wieder und wieder zu widerlegen und ständig Hilfe zu Problemen zu geben die an etlichen Stellen gut Dokumentiert sind.
Auch spielt es eine wichtige Rolle, das man beim Gegenüber zumindest einen Hauch der Eigeninitiative festellen kann oder nicht. Ist das nicht der Fall. Wenn man z.B. selber zu faul ist eine Manpage zu lesen, wieso erwartet man dann das andere Lust haben dies für einen zu machen?
Wenn du ein Problem mit einer Software hast dann gibt es nicht schöneres als eine Diskussion mit dem Entwickler per Mail, IRC oder über einen Bugtracker. Man sollte beim lesen von Diskussion/Kommentaren/Interviews zwischen/von Entwicklern sich auch bewusst sein, das Entwickler nun mal ein manchmal ... ich sagt mal gewöhnungsbedürftiger Menschenschlag für Außenstehende ist. Da nimmt man nicht jedenwort todernst...da werden Dinge/Ansichten halst verteidigt, weil man sie für die technisch bessere Lösung hält und wenn jemand meint es geht besser, dann möchte man das natürlich am besten mit belegt haben, z.B. mit einer Beispielimplementierung des ganzen.
Die Linux Community ist nicht böse, ich würde eher sagen hier gilt das gleiche wie bei Windows <=> Linux vergleichen...

Windows ist nicht Linux und versucht auch gar nicht so zu sein!
 
Zuletzt bearbeitet:
Fonce schrieb:
Wenn der Kernel nicht gestartet wäre, dann könnte es schlecht zu Grafikfehlern, welcher vermütlich vom Grafiktreiber kommen, kommen.
Wenn ich mich nicht irre hast du eine GTX670...hey habe ich auch und bei mir gibt es keine Probleme.
Nö, ich hab ne 560Ti zuhause, die vollkommen ohne zu Murren läuft. Lediglich Plymouth will nicht, aber darauf scheiß ich, fällt auf ner SSD eh nicht auf.

Die Linux Community ist nicht böse, ich würde eher sagen hier gilt das gleiche wie bei Windows <=> Linux vergleichen...
Sie belohnt lediglich Eigenintiative mehr als das bei Windows-Nutzern üblich ist...
 
Das Zitat war für DocWindows gedacht und nicht auf dich bezogen ;-)
 
Wenn man z.B. selber zu faul ist eine Manpage zu lesen, wieso erwartet man dann das andere Lust haben dies für einen zu machen?

Weil es bei der Konkurrenz so gemacht wird. Das heißt nicht, dass derartiges gut ist. Google ich nach einem Windows Problem, dann finde ich häufig sehr viele detaillierte Artikel. Bei Linux Problemen finde ich häufig meine eigenen Threads oder einen Verweis auf eine 400 Seiten Doku.
 
Bei Linux ist aber Eigeninitiative gefragt. Es gibt ein hervorragendes Wiki von ubuntuusers.de, welches alle anderen im deutschsprachigen Raum in den Schatten stellt. Gerade ArchLinux und Gentoo haben auch sehr gut aufbereitete Dokumentationen welche den eiligen User das nötige kurz und knapp erläutern, gegen bei Bedarf aber auch ordentlich in die Tiefe.

Das gibt es für Windows nicht, da muss man wie auch bei den Programmen erst das Internet durchforsten um dann auf eine Seite zu kommen wo der Download von Freeware Geld kostet.

Während bei Linux alles gesammelt wird und über eine zentrale Sache, ob jetzt Homepage oder Repositories ist es bei Windows gerne fragmentiert. Ich hab übrigens nicht angefangen Äpfel mit Birnen zu vergleichen.
 
Naja, ich will jetzt nicht zu Windows Trollen, aber die erste Hilfestellung bei WIndows Problemen die letztens an einem PC angezeigt wurde:
"Fragen Sie einen Freund"
das finde ich für ein System für jenes man Geld Hinlegt schon ziemlich drollig :lol:


DocWindows schrieb:
BTW nervt es ziemlich wenn man für einfache Fragen oder Aussagen dumm angelabert wird. Genau das bemängelt man allgemein am Verhalten der vielgelobten "Community". Als ich letztens schrieb das 13.10 bei mir nicht mal den Kernel bootet und merkwürdige Blinkhieroglyphen kommen wurde ich auch gleich wieder als Troll bezeichnet. Linux hatte aber in der Tat Probleme mit meine RAM-Vollbestückung. Mit 2 statt 4 Riegeln bootete es normal. Man sollte sich mal als Linux-Gutfinder und Troll-Identifikator fragen ob man sich, der Community, interessierten Usern und Linux im Allgemeinen einen gefallen tut wenn man jeden Kommentar der auch nur den Hauch von Kritik oder Problemen an/mit Linux enthält gleich als Trollen anprangert.
Also erstmal, natürlich ist das nicht die feine Englische Art das man jemand für Kritik so angeht. Da solltest du aber dennoch nicht alle über ein Kamm scheren, ich könnte dir hier auch Storys von Usern erzählen die mich per PN Beleidigt haben oder sonst was, aber weißte, da steh ich drüber über solches getrolle ;) Mehr darf ich dazu aber hier über das Forum nicht schreiben, sonst wird mein Kommentar wieder gelöscht ;)

Desweiteren, hast du mal zu deinem Linux Problem einen Thread aufgemacht? Da liegt nämlich das Problem, die von dir geäußerte Kritik ist ja erstmal nur Mutmaßung, und dass soll jetzt nicht auf dich Persönlich bezogen sein oder ein vorwurf sein, aber viele hier der CB Trolls machen genau solche Dinge. Erzählen in Linux Threads von ihren Problemen, wobei die garkein Hilfethread aufgemacht haben, weil die auch gar keine Lösung haben wollten. Und meistens haben, wie in deinem Fall, die Probleme garnichts mit dem Thread zu tun.

Deshalb, mach doch ein Thread auf wenn du jenes Problem gelöst haben willst, wenn irgendjemand dann dämliche Kommentare von sich gibt, obwohl du einfach nur ganz sachlich Hilfe benötigst, direkt den Kommentar melden. (Wobei dein Problem ja schon soweit erkannt wurde)


aurum schrieb:
Google ich nach einem Windows Problem, dann finde ich häufig sehr viele detaillierte Artikel. Bei Linux Problemen finde ich häufig meine eigenen Threads oder einen Verweis auf eine 400 Seiten Doku.
Das sehe ich aber entscheidend anders, die Angaben über auftretende Probleme sind bei Linux um einiges Aussagekräftiger wie ich finde, da bei Windows meistens nur eine Kryptische Fehlermeldung auftaucht. Bei Linux sind die m.M.n. sehr aussagekräftig.
 
Habe ein Haswell-System, siehe Sig. Da ich gerne Linux als Zweitsystem auf einer separaten Partition habe, versuchte ich die letzte Zeit alle möglichen Distris zu installieren und zu testen. Alles unter 13.10 macht schon bei der Installation Riesenprobleme, vermutlich Kernel. 13.10 lässt sich gut installieren, jedoch habe ich Ruckler, Hänger, Wartezeiten schon im Desktopbetrieb und auch Abstürze von Progs, z.B. Softwarecenter. Ich will das hier auch gar nicht weiter ausbreiten; mein Fazit: im Augenblick unter Haswell ohne grösseren Zeitaufwand und Einarbeitung nicht vernünftig zu benutzen.

Ich bin zwar kein Linux-Spezialist, benutze es jedoch schon lange und habe auch beruflich schon Sinix-Server betreut. Will damit sagen, dass ich die gängigsten Systemdinge schon verstehe. Allerdings will ich keinen grossartigen Zeitaufwand mehr leisten, um ein Betriebssystem auf gängiger Hardware einwandfrei zum Laufen zu bringen.

Linux mag ich wie erwähnt sehr gerne, es bleibt jedoch den Bastlern und allen vorbehalten, die viel, viel Zeit haben. Zumindest bei neuer Hardware hat sich nichts geändert.
 
Wie kommst du auf die Idee, dass es an der CPU liegt? Das ist Schwachsinn. Selbst die Haswell Grafikeinheit funktioniert schon wunderbar. Was Zeit braucht, bis der Support ausreift, ist lediglich deine AMD Grafikkarte. Intel ist vorbildlich, AMD etwas langsam und NVidia liefert einfach gar keine echten Linuxtreiber. Und dass man bei neuer Hardware auch einen neuen Kernel und damit neuere Distributionen braucht, sollte eigentlich logisch sein.
 
Zurück
Oben