News Maui Shell für Linux: Neue Desktop-Shell für PCs, Smartphones und Tablets

AtomLord schrieb:
Ich habe auf einem von meinen Notebooks Heftor Linux installiert, ist echt ne super Distribution. Sieht schon fast aus wie Mac OS ... :D

Ein OS auf seine Optik (nicht einmal seine GUI) zu reduzieren ist doch ein eher naiver Ansatz, oder? Ich könnte auch zu über 90% der Linux-Distributionen, die mir bisher untergekommen sind, sagen: "Sieht schon fast aus wie Windows 7" .. und würde einen Shitstorm sondergleichen ernten.

Das grundsätzliche Dilemma von Linux-GUI ist und bleibt: Sie werden von keinen GUI-Profis mit tief gehendem Wissen bezüglich Software-Ergonomie und Human Interface Design erstellt, sondern eher, als lästiges Übel "nebenbei" von Programmierern. Und diese nehmen sich mangels eigener Kenntnisse dann halt Windows oder Mac OS als Kopiervorlage, denen sie dann mehr oder (meist) weniger gerecht werden.
 
DevPandi schrieb:
Der Mauszeiger ist in seiner Form auch nur der "Finger" der auf dem Display herum tatscht, nur dass man ihn halt nicht mit dem Finger bedient, sondern mit der Maus. Tastatur braucht man dann sowieso immer, egal ob jetzt auf dem Display emuliert oder Angebuten.
Sorry, aber das ist Unsinn. Die Touch-Abfrage eines Fingers ist wesentlich komplexer, als die pixelgenaue Steuerung und Abfrage einer Mausposition. Nur, weil das bei Android, iOS oder iPad OS im Hintergrund vom OS selbst ausgewertet wird, ist es nicht vergleichbar trivial. Will man das Ganze selbst nachprogrammieren, so muss man bei Touch-Bedienung einiges berücksichtigen, das bei einer Maus vernachlässigt werden kann oder gar nicht vorkommt. (Etwas, das mich bei Linux-Fans immer wieder - auch in diesem Thread - fasziniert, ist die Haltung: "Sieht ähnlich aus, also ist es gleich.")

DevPandi schrieb:
Das primäre Problem ist immer eher die größe der verfügbaren Arbeitsfläche und da ist es egal ob man nun mit Touch oder Maust+Tastatur angiert. Auf einem kleinen Display muss ich ganz anders mit den Informationen umgehen und muss auch die Informationen zugänglich machen als auf einem großen Display und ich merke da täglich in der Arbeit, wenn ich eine IDE auf habe oder einen Editor oder die Datenbanktools. Bin ich unterwegs und habe nur die 13" auf dem Laptop, dann habe ich eine ganz andere Anordnung - tortz Maus und Tastatur - als wenn ich an den beiden 27" Geräten in der Arbeit hänge und auf dem Smartphone habe ich auch ganz andere Prioriäten dafür.
Und der Trick ist, dass ggf. nämlich eine Universal-GUI nicht reicht.
Microsoft hat es bei Windows versucht, ist damit gescheitert und musste zum Schluss sogar seine Smartphone-Sparte schließen (nein, die neuen MS-Smartphones sind nur noch gepimpte Android Devices). Android schafft es bis heute nicht, vernünftig die Dimensionen von Tablets zu nutzen (> 90% der Anwendungen sind dann einfach nur vergrößerte Smartphone-Apps). Und Chrome OS sieht man überall die Beschränkungen des Systems an.

DevPandi schrieb:
Der Aufbau der GUI ist nicht von den Eingabegeräten abhängig, sondern von der Display-Größe. Die einzige Auswirkung, die Touch hat, ist die Tatsache, dass man entsprechende Schaltflächen passend dimensionieren muss, das war es.
Sorry, aber: Beide Aussagen sind aus Sicht der Ergonomie schlicht falsch. Nicht umsonst beschäftigen Apple und Microsoft hunderte Spezialisten im Bereich Human Interfaces - und scheitern doch hin und wieder an ihren eigenen Konzepten.
Ergänzung ()

Iapetos schrieb:
@MarkInTosh Na, das stimmt aber nicht. Zum Beispiel existieren die Gnome Human Interface Guidelines.
Und was steht drin und wer hält sich dran?

Nur, dass etwas definiert ist, bedeutet nicht, dass die Definition gut ist, selbst, wenn sich alle daran halten (würden). Auch wenn Linux eine faszinierende Sache ist, so muss man doch einfach zugestehen, dass es Apple und Microsoft in Bezug auf Human Interfaces nicht nur ein bisschen besser können, oder? (Anm.: Die Desktop GUI ist - ggf. austauschbarer - Teil des OS, Interface Guidelines richten sich an Entwickler von Anwendungen für das OS, die die jeweilige GUI nutzen.)
 
Zuletzt bearbeitet:
psyabit schrieb:
Ich hab shell noch nie im Zusammenhang mit einer Desktop Umgebung gehört.
Gnome 3 wurde für einige Zeit Gnome Shell genannt (zur Abgrenzung von Gnome 2) z.b.
 
@MarkInTosh
Da muss ich auch ganz entscheidend widersprochen, zumindest was Microsoft angeht (mit Mac OS hab ich keine Berührungspunkte).

Wenn ich mir GUIs für Linux anschau, zumindest die populären, wie Gnome, KDE oder XFCE, hab ich das Gefühl, da wird einem Konzept und einer überwiegend einheitlichen Designrichtlinie gefolgt und es sieht zum größten Teil wie aus einem Guss aus. Ob man mit dem Bedienkonzept nun klar kommt oder nicht, sei Mal dahingestellt. Ich selbst mag z.B. Gnome seit Version 40 wieder sehr gern, während in letzter Zeit ein Großteil der Anwender zu XFCE oder KDE abwandern.

Bei Microsoft hat man mit Windows 8 versucht ein OS für mehrere Geräte zu bringen, was im Ansatz nicht so schlecht war. Klar die Kacheloptik ist nicht Jedermanns Sache gewesen, aber man konnte sie auf dem Desktop auch einfach ignorieren und schon hatte man im Grunde ein klassisches Windows. Aber hier haben schon zwei Designrichtlinien nebenher koexistiert, aber ohne sich zu sehr in die Quere zu kommen.
In Windows 10 hat man dann das ganze komplett verwässert, so dass beides ineinander übergeht und das ist der letzte Müll. Man hat zwei komplett unterschiedliche Designs, die man aber auch beide nutzen muss, da manches nur hier und manches nur dort zu finden ist, das ist absolut unübersichtlich und nervig. Wenn MS so gute UI Designer hat, verstehe ich nicht wieso so ein Milliarden Dollar Konzern es noch nicht auf die Kette gebracht hat seine UI zu vereinheitlichen und einigermaßen übersichtlich zu gestalten. Das ganze ist angeblich seit dem Release von Windows 10 ein ToDo, also seit sechs Jahren. Die UI von Windows 10, Server ab 2016 oder auch von dem, was ich von 11 gesehen habe, ist ein bunter Kladderadatsch aus mehreren Designs, Frameworks und sonst noch was, was in der Bedienung absolut furchtbar ist. Das beste, das MS in letzter Zeit in Sachen UX macht, ist das konstante Aufbohren der Powershell, die ist gut brauchbar im Gegensatz zur UI.

Ich verstehe allerdings dass Geschmäcker verschieden sind, das spiegelt jetzt meine Meinung wider.
 
  • Gefällt mir
Reaktionen: Termy
MarkInTosh schrieb:
Und was steht drin und wer hält sich dran?

Nur, dass etwas definiert ist, bedeutet nicht, dass die Definition gut ist, selbst, wenn sich alle daran halten (würden). Auch wenn Linux eine faszinierende Sache ist, so muss man doch einfach zugestehen, dass es Apple und Microsoft in Bezug auf Human Interfaces nicht nur ein bisschen besser können, oder? (Anm.: Die Desktop GUI ist - ggf. austauschbarer - Teil des OS, Interface Guidelines richten sich an Entwickler von Anwendungen für das OS, die die jeweilige GUI nutzen.)
Anwendungen, die in den Gnome-Nimbus fallen, erfüllen diese Richtlinien oder werden darauf hin entwickelt. Ich finde diese Designsprache durchaus angenehm und nutzerfreundlich.

Im Dienst muss ich Windows 10 verwenden. Natürlich komme ich damit zurecht, aber schön oder durchdacht finde Ich es nicht; es wirkt zusammengestückelt und nicht zu Ende gedacht. Wo auch immer das viele Geld von Microsoft hin fließt, die Nutzeroberfläche scheint keine große Rolle zu spielen.

Ach ja, Gnome wird zu einem sehr großen Teil von Red Hat finanziert, es handelt sich also keineswegs um ein "Hobby-Projekt". Aber selbst Hobby-Projekte wie sway machen auf mich einen sehr viel reiferen und durchdachteren Eindruck als die Windows-Oberfläche.
 
  • Gefällt mir
Reaktionen: MountWalker, NedFlanders und Chris_S04
Um mal wieder zurück zu Maui zu kommen ;)
Wenn man sich die Screenshots anschaut, dann erinnern die Einstellungen natürlich schon an MacOS bzw. IOS. Das lässt sich wahrscheinlich auf Dauer auch gar nicht vermeiden, dass man sich bewusst oder auch unbewusst von bestehenden Konzepten beeinflussen lässt.
Als ich Nitrux geladen habe, sah die Oberfläche allerdings etwas anders aus. Die Menüs habe ich so nicht gefunden. Ist das eventuell nicht die aktuelle Version der Oberfläche gewesen?
Ansonsten steckt da eben sehr viel Plasma drin. Der Dateiexplorer gefällt mir optisch sehr gut. Um diese Oberfläche aber wirklich einschätzen zu können, müsste man einen Langzeittest starten.
 
Ich weiß, es ist OT, aber ich bitte um Gnade:
Selbst unter Windows wird der Begriff der Shell verwendet (und sie könnte getauscht werden):
1640696405316.png
 
Puh, schwierig.
Von der UX her ist das Ganze tatsächlich wie eine Smartphone-Nutzeroberfläche aufgedröselt. So ist man dann aber auch immer einen Klick mehr von relevanten Einstellungen aus dem "Tray"-Bereich entfernt. Eine UI, die ausschließlich auf eine Dock setzt, spricht mich aber ohnehin nicht an.


Mit einem Stable-Release in erst einem Jahr wird es zwar bereits vorweggenommen, aber aktuell leidet Maui unter zu vielen Bugs und Problemen, als dass ich es als brauchbar erachten würde.
 
aki schrieb:
Als ich Nitrux geladen habe, sah die Oberfläche allerdings etwas anders aus.
Kann ich so bestätigen, allerdings nur VBox Installation.
aki schrieb:
Der Dateiexplorer gefällt mir optisch sehr gut.
Gibts auch als Appimage, falls du Bedarf hast.
https://mauikit.org/apps/index/

Kurzreview;
4Kerne und 4GB RAM, 15GB Festplatte.

Sehr fluffig zu bedienen, die GUIs für Einstellungen entsprechen denen von Plasma weitestgehend, sind aber sinnvoller sortiert imo, Plasma Widgets sind schnell nachinstalliert. Zugriff auf die „get new things…“ von Plasma gibts auch. Das Dock und die Taskbar sind ein Latte Dock Layout, entsprechend flexibel anpassbar ist die GUI. Im Appstore dominieren scheinbar Appimages. zsh ist Teil der CLI Shell
Sehr modern insgesamt.
Was mir nicht gefiel ist das sich nicht öffnende Terminal (open terminal here) im Index Dateiexplorer. An der Veränderung der Auflösung bin ich auch irgendwie gescheitert. Keine Ahnung warum, hatte ich so auch schon bei anderen Distributionen, kann auch an VBox liegen und/oder mir.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aki
MarkInTosh schrieb:
Sorry, aber das ist Unsinn. Die Touch-Abfrage eines Fingers ist wesentlich komplexer, als die pixelgenaue Steuerung und Abfrage einer Mausposition. [...], ist es nicht vergleichbar trivial. [...] so muss man bei Touch-Bedienung einiges berücksichtigen, das bei einer Maus vernachlässigt werden kann oder gar nicht vorkommt.
Da wir schon eine gewisse "Aggressivität" in den Kommentaren haben, werde ich mir da auch erlauben etwas direkter zu sein und sage mal frei heraus: Du magst meinen Beitrag gelesen haben, mit deinen Einwürfen gehst du aber vollkommen inhaltlich entweder an meinen Aussagen vollkommen vorbei - Thema verfehlt - oder beschränkst dich nur darauf es als Falsch hinzustellen, ohne dass du wirklich inhaltliche Argumente dafür nutzt.

An dieser Stelle macht es theoretisch überhaupt keinen Sinn auf deinen Beitrag weiter einzugehen, weil ich nicht nur deine Aussagen in der Luft zerpflücken würde, sondern die anderen hier inhaltlich langweilen würde.

Alleine die Aussage, dass die Touchabfrage eines Fingers wesentlich komplexer ist als die pixelgenaue Steuerung und Abfrage einer Mausposition ist in der Form genau eines Unsinn! Natürlich ist die Abfrage in Software einer Touchgeste anders aufgebaut als die Abfrage anders als die Mausbewegung und ebenso ist der Click anders zu bewerten. Alleine aber die Aussage, dass du das eine als trivial hinstellst und das andere nicht, lässt hier sehr wohl die Frage aufkommen, ob du wirklich jemals einen "Treiber" für ein Touchdisplay geschrieben hast oder eine Maus und so wie du hier schriebst: Du hast beides nicht gemacht!

Sowohl die Maus als auch ein Touchdisplay liefern über eine Schnittstelle gewisse Rohdaten, die man auswerten muss und während man bei einem Touchdisplay relativ einfach die X/Y-Positionen ermitteln kann - also wo jemand Klickt - muss ich bei der Maus sehr wohl beachten, wo ist die Maus gerade und entsprechend die Beschleunigungsvektoren beachten.

Ich will es an der Stelle nicht weiter ausführen, aber Treiber für eine Maus oder ein Touchdisplay, wenn man diese von Grundauf schreibt, sind beide nicht trivial, sondern man muss einiges beachten.

Nur ist Treiberentwicklung für eine Touchsteuerung ebensowenig Thema dieses Beitrages wie es die Treiberentwicklung für die Maussteuerung ist. Eingaben werden in Windows, Linux als auch MacOS, iPadOS und iOS über eine API an die entsprechenden Programme weitergeben und übermittelt.

MarkInTosh schrieb:
Sorry, aber: Beide Aussagen sind aus Sicht der Ergonomie schlicht falsch. Nicht umsonst beschäftigen Apple und Microsoft hunderte Spezialisten im Bereich Human Interfaces - und scheitern doch hin und wieder an ihren eigenen Konzepten.
Welche Aussagen sind denn schlicht falsch? Es ist immer wieder lustig, wie gewisse Leute zwar jemanden eine falsche Aussage unterstellen, dann aber keine wirklichen Argumente bringen, sondern sich auf Pseudoargumente - hier dann die hunderte Spezialisten im Bereich Human Interfaces und dass diese scheitern.

Das ist nicht nur schlechter Stil, sondern einfach nur billig. Dabei gibt es an meiner Aussage durchaus etwas zu kritisieren, weil ich selbst an der Stelle zu einer drastischen Vereinfachung neigte, die durchaus dazu führt, dass eine der beiden Aussagen in der Form wirklich als Falsch bezeichnen kann, die andere Aussage wiederum ist nicht schlicht falsch, sondern DER entscheidende Punkt, wo die Hauptprobleme vernüftiger User-Interfaces liegen und damit kann ich - jetzt noch mal populistisch - meine Aussage wiederholen: Das Problem bei der Interface-Entwicklung ist nicht Maus+Tastatur gegen Touch, das Problem liegt in der Displaygröße und damit verbunden, wie viel Platz man hat. Für die Entwickler eines Programmes ist es vollkommen egal ob die Eingabe über eine Maus erfolgt oder über einen Touch auf dem Display.

Und jetzt werden wir etwas genauer und etwas differenzierter: Natürlich hat Touch und Maus durchaus auch eine Auswirkung auf die Interface-Gestaltung, dass habe ich sogar - wen auch überspitzt und stark vereinfacht - angedeutet. Mit einer Maus kann ich wesentlich feinere Icons nutzen, kann kleidere Taskleisten und Co verwenden und kann damit auch auf kleineren Displays mehr einblenden, als wenn ich wirklich auf Touch setze.

Und natürlich gibt es auch durch die Gestensteuerung bestimmte Aspekte in der UI, die ich anders lösen muss als mit der Maus und der Tastatur, aber da kommen wir halt wieder zu Teilen in der Treiberentwicklung und was der Treiber ermöglicht. Für mich als Entwicklerin ist es am Ende aber vollkommen unerheblich, ob der Nutzer nun per Maus und Tastatur oder per Touchdisplay mein Programm bedient: In Aqua - iOS greife ich auf UIEvent zurück in JavaScript nutze ich die entsprechenden Events für Tastatur, Maus und Co um bestimmte Aktionen abzuhandeln.

Das hat natürlich gewisse Fallstricke und man muss sich als Entwickler*in klar darüber sein, dass ich nicht jedes "Touch"-Event auch auf ein Mausevent und Co umwälzen kann, aber es gibt durchaus Synergien zwischen Maus und Touch und damit auch verbunden Aspekte die man gleich behandeln kann. Ich habe bereits Apps für iOS, iPadOS und MacOS entwicklet, ebenso habe ich WebApps entwickelt, die von SmartPhone über Tablett bishin zu großen Monitoren skalieren müssen und damit habe ich mich antürlich auch mit Responsive-Webdesign beschäftigt.

Und natürlich gibt es da dann Sachen die man beachten muss, aber und jetzt kommt der wichtige Punkt - und das habe ich auch bereits angedeutet - die Probleme beim Entwurf eines Interfaces für eine App oder für eine WebApp war seltenst der Unterschied zwischen Maus + Tastatur gegen Touch-Display, sondern die primären Probleme sind immer wegen der Größe des Displays entstanden.

Auf einem kleinen Smartphone-Display muss ich eine UI anders strukturieren, weil ich viel weniger Platz habe um Elemente anzuordnen. Ich muss mich auf die wichtigen Kerninformationen beschränken, während ich andere Informationen hinter "Icons" und "Gesten" verstecken muss, damit es nicht zu klein wird. Auf einem Tablett habe ich dann mehr Möglichkeiten, kann bereits Zusatzinformationen einblenden, gewisse Arbeitsschritte schon anders gestalten und auf einem Desktop-PC mit 27" kann ich ein Interface noch mal ganz anders aufbauen und noch viel mehr Informationen direkt zugänglich machen, statt sie irgendwo zu verstecken!

Und da kommen wir nun zu dem entscheidenden Punkt und ich könnte es jetzt mit Screenshots demonstrieren, wenn ich mein Arbeitslaptop nicht vergessen hätte:

Ich habe hier gerade ein ActivePanel mit 80" Touch und da läuft Windows 10 ohne jegliche Anpassung an "Touch". Ich kann darauf sehr gut arbeiten und kann alleine wegen der schieren größe. Touchanpassungen braucht da die Windows UI als auch die Software UI keine. Problem ist hier nur beim Programmieren die "Breite" und "Höhe", damit ich viel Text sehe, muss ich entsprechend die ganzen Zusatzfenster einklappen.

Auf meinem 4K-Monitor kann ich mit Maus und Tastatur fast weitgehend alles offen lassen, was ich an Informationen habe, es ist genug Platz da! Gehe ich jetzt auf den FullHD-Monitor daneben und würde da arbeiten, müsste ich so einige Zusatzinformationen bereits einklappen wieder, wie am ActivePanel. Am 13" MacBook muss ich noch mehr einklappen und in Alternative-Desktops verlegen, mit der selben Aufteilung im Editor kann ich aber auch auf meinem 13" iPad Pro arbeiten, einziger Unterschied: Die Elemente zum Klicken muss ich etwas größere stellen wegen den Fingern.

Auf dem SmartPhone geht das alles so nicht, da ist nur das Textfenster offen, der rest ist hinter Icons versteckt, die dann sich einblenden. Schade, dass ich jetzt keine Screenshots machen kann, die das verdeutlichen.

Aber ich bleibe damit bei meiner grundlegenden Aussage: Das Hauptproblem für eine vernüftige UI ist nicht unbedingt Maus vs. Touch, sonder eher bei der Displaygröße zu lokalisieren.
 
  • Gefällt mir
Reaktionen: MountWalker, 4nanai, dev/random und eine weitere Person
Zurück
Oben