News KDE und Gnome auf dem Mac: Apple M2 beschleunigt Linux-Desktop mit der 10-Kern-GPU

Photon schrieb:
aber das Ausführen dauert ja trotzdem länger, als bei einer kompilierten Binärdatei, oder?
Wie gesagt, kann, muss aber nicht. Gibt durch aus Szenarien wo Interpretersprachen sogar schneller sein können.
 
Tenferenzu schrieb:
Die 2 Aussagen Widersprechen sich. Support kostet nunmal Geld und sei es noch so wenig.
Wenn ein Mädel das innerhalb von 1.5 PT richten kann, dann muss man keine 100 Geräte mehr an Entwickler verkaufen um das Geld wieder drin zu haben.

BalthasarBux schrieb:
Mittlerweile nicht mehr. Schließlich wird das OS aktuell zugekleistert mit Abos und Werbung dafür.
g4rb4g3 schrieb:
Da wäre ich mir nicht so sicher... Vielleicht greift der neue MacOS Kunde dann nächstes Mal zu eine iPhone? Mit Linux wird die Motivation dazu sicher nicht erhöht.
Bei Linux sehe ich den größten Use-Case halt tatsächlich bei der Entwicklung, und Entwickler sind software/hardware-affin und haben ihre Entscheidungen schon getroffen. Gleichzeitig ist mit ARM ne fette Baustelle dazu gekommen, weil viele Sachen schlicht noch nicht sauber laufen. Zu sagen "Hey, aber du kannst dein Linux drauf installieren und läuft sauber" wäre ein reichlich gutes Argument um dicke Konfigurationen an den Mann zu bringen. Und machen wir uns nicht vor: Auch bei Hardware hat Apple eine mehr als üppige Marge.

Wäre imo ein easy Win, weil Leute wie ich, die die ganzen Apple-OS' wie die Pest hassen, jetzt plötzlich Interesse haben.
 
  • Gefällt mir
Reaktionen: tuxnice
Meine Notebook AMD GPU von ~2015 läuft bis heute noch nicht. Gibt maximal Ubuntu LTS Treiber... Habs mit acpi_call deaktiviert. Das Ding läuft im Hintergrund halb mit und zieht den Akku runter. Wer sich wundert warum er nur 2-3 Stunden Akku hat, sollte es mal testen, danach sinds 6-8
 
dh9 schrieb:
Wieso soll das ein Schlag ins Gesicht sein?

Rant: Mal wieder ein super Beispiel, warum diese beknackte anti-zitate-politik - und erst Recht die total verhunzte automatische Umsetzung - hier im Forum einfach nur maximaler Schwachsinn ist:
Ist das jetzt wirklich in irgendeiner Form übersichtlicher, wenn ein paar Posts weiter eine Antwort ohne Zitat völlig aus dem Kontext gerissen erscheint? Ja wohl kaum...und über die Glocke wird man auch nicht über die Antwort informiert. Habt ihr super hingekriegt, wirklich!

Btt: naja, der freie nvidia nouveau Treiber hat für so einen Erfolg sicher wesentlich länger gebraucht und hinkt whh. heute noch hinter der ualität von diesem Projekt hinterher. Kann mir kaum vorstellen, dass für Apple gpus Treiber zu entwickeln einfacher ist als für Nvidia. Außerdem dürfte das nouveau Team deutlich größer sein. Man hat also mit mehr manpower, mehr Zeit bei gleichen Rahmenbedingungen weniger erreicht. Es hieß immer nur "Nvidia böse!"(stimmt ja auch). Aber trotzdem: Apple ist mindestens genauso "böse" und trotzdem ging hier innerhalb kurzer Zeit mit dem kleinen Team ne gewaltige Menge voran. Von daher: peinlich fürs nouveau-team.
 
  • Gefällt mir
Reaktionen: TouchGameplay und Piktogramm
Mickey Cohen schrieb:
Mal wieder ein super Beispiel, warum diese beknackte anti-zitate-politik
Was für eine Anti-Zitate-Politik?

Mickey Cohen schrieb:
und erst Recht die total verhunzte automatische Umsetzung - hier im Forum einfach nur maximaler Schwachsinn ist:
Die Umsetzung der Zitate ist so viel besser als früher, wo man noch die Hälfte der Zeit damit verbracht hat irgendwelche BBCodes zu suchen und zu kopieren.

Mickey Cohen schrieb:
Ist das jetzt wirklich in irgendeiner Form übersichtlicher, wenn ein paar Posts weiter eine Antwort ohne Zitat völlig aus dem Kontext gerissen erscheint?
Wenn dh9 dich weder zitiert noch per @ markiert, dann ist das sein Bier, nicht das des Forums.

Mickey Cohen schrieb:
Von daher: peinlich fürs nouveau-team.
Werden die denn dafür bezahlt? Bzw. nehmen die Geld für ihren Treiber? Wenn nicht, dann ist ihrer Arbeit mit Dankbarkeit zu begegnen, und nicht mit Häme, weil es jemand auf einer anderen Plattform in einem anderen Kontext fixer geschafft hat. :stacheln:
 
  • Gefällt mir
Reaktionen: CMDCake, jotecklen, JustAnotherTux und 2 andere
Bright0001 schrieb:
Was für eine Anti-Zitate-Politik?


Die Umsetzung der Zitate ist so viel besser als früher, wo man noch die Hälfte der Zeit damit verbracht hat irgendwelche BBCodes zu suchen und zu kopieren.

Wenn dh9 dich weder zitiert noch per @ markiert, dann ist das sein Bier, nicht das des Forums.

Nö, eben nicht, weil die Forensoftware das Zitat automatisch rauslöscht, wenn man den unmittelbar vorangehenden Beitrag zitiert.*
Es geht nicht um irgendwelche bbcodes.

Edit: ui, das ging aber schnell, dass ihr das geändert habt, danke :)

*Jedenfalls war das seit einigen Wochen/Monaten der Fall.
 
  • Gefällt mir
Reaktionen: TouchGameplay, mojitomay und Bright0001
Ich finde es absolut beeindruckend mit welchem Thema das Asahiprojekt sich entwickelt. Und mit Rust hat das ganze auch sein Alleinstellungsmerkmal, mir ist zumindest keine Treiberentwicklung in der Größenordnung in Rust bekannt. Außerdem schau ich gern die Livestreams von der Entwicklerin AsahiLina :D

Mickey Cohen schrieb:
Habt ihr super hingekriegt, wirklich!
Poste dein Feedback doch bitte (gerne konstruktiv) im Feedbackforum, anstatt unter einer beliebigen News in den Kommentaren.
 
  • Gefällt mir
Reaktionen: sedot, jotecklen, lasbo und 4 andere
Photon schrieb:
Heißt es nicht, Interpretersprachen sind in der Ausführung viel langsamer als Compilersprachen?
Gefährliches Halbwissen. Ich kann C und C++ Code in einer VM ausführen, ich kann Java und Kotlin zu native Binarys kompilieren.
Auf vielen großen Webservern läuft heutzutage JavaScript mit der V8 Engine. Wenn’s sooo langsam wäre, würde das niemand einsetzen.
Ist Bytecode bereits kompiliert genug, dass er nicht mehr als Interpretersprache durchgeht?

Sprachen haben nichts(!) damit zu tun wie und wo sie ausgeführt werden oder wohin sie kompiliert werden.
 
  • Gefällt mir
Reaktionen: peru3232, Wesir, Mickey Cohen und 2 andere
Linus Torvalds nutzt momentan auch ein MBAir mit M2. Werde die Distro mal bei meinem M1 Air installieren. Mom fehlt aber Zeit für solche Spielereien.
 
Mal eben in ein paar Monaten nen kompletten GPU-Treiber in Rust geschrieben, allein und per reverse engineering. Ich würde ja lachen, wenn damit auch Vulkan auf der M1/2 Grafik läuft.

Und in der Zwischenzeit bei Intel ARC: ......
Mordenkainen schrieb:
mir ist zumindest keine Treiberentwicklung in der Größenordnung in Rust bekannt.
Da ist einiges am brodeln, auf Phoronix gibts dazu immer mehr News in letzter Zeit.
https://www.phoronix.com/news/Intel-e1000-Rust-Driver-WIP
https://www.phoronix.com/news/Rusticl-Outperformed-ROCm

Rust wird auch mit Hochdruck im Kernel integriert. Ich denke auf lange Sicht wird es C ablösen.
https://www.phoronix.com/news/More-Rust-Upstream-Prep-Linux
Tenferenzu schrieb:
Wie ist die Leistung von den M-Geräten unter Linux? Besser oder schlechter als unter MacOS?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sader1994, |Moppel|, schneeland und 8 andere
1669484930767.png

Ich wäre bereit für eine lautlose hackinlinux-machine mit M2-APU🖤inside,
gerne als Fertiggerät.
 
  • Gefällt mir
Reaktionen: Unnu
Bright0001 schrieb:
Irgendwie unsmart von Apple, den Bumms nicht von Haus aus selbst zu liefern; Am Ende ist es doch Latte, ob da einer ein Gerät für MacOS oder Linux kauft, das Geld bleibt ja das gleiche.
App-Store.

Bei den großen IT-Konzernen geht es immer darum die Nutzer abhängig zu machen. Damit ständig Geld nachgeschossen werden muss. Alle zwei Jahre ein iPhone, alle fünf Jahre ein Mac.

Windows ebenso, hier ist das Mittel Legacykompatibiltät. Der App-Store ist gescheitert, dafür werden jetzt die Nutzerdaten in die Cloud geladen.

Bei den ThinkPads ist es anders, deren Verkaufsargument ist guter Support von Linux, Windows und Wartungshandbücher. Auch eine Kundenbindung, aber eine erfreulichere, basierend auf Gegenseitigkeit.

Abgesehen von der schlechten Tastatur, fehlendem TrackPoint und bestenfalls inoffiziellem Support von Linux ist ein Mac keine gute Wahl für Linuxanwender. Am Ende kommt Apple mit einem Firmwareupdate und dann ist die Trauer groß. Und man hat einen „unfreundlichen“ Konzern finanziell gestärkt.

Ich sage jetzt nicht das Apple kaufen böse ist. Aber als Linuxanwender wirklich nicht sinnvoll. Den Hype hatten wir ja schonmal.


Apple verkauft prinzipiell Haushaltsgeräte, keine Allzweckcomputer wie einen IBM-PC. Deren Denke ist umgekehrt zu der von IBM und der heutigen PC-Industrie in Nachfolge. So lange man als Linuxanwender nicht Geld in den App-Store steckt ist man für Apple höchstens „geduldet“.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AssembIer, Unnu, peru3232 und 2 andere
ghecko schrieb:

"The M1 Mac Mini starts at 699$ which is a little more expensive" - (als der Rasberry Pi). Sehr geil. :D

Aber sonst sehr interessant.
 
  • Gefällt mir
Reaktionen: Unnu
benneq schrieb:
Ich kann C und C++ Code in einer VM ausführen, ich kann Java und Kotlin zu native Binarys kompilieren.
Java und Kotlin sind aber grundsätzlich keine Interpretersprachen, sondern immer kompiliert; Die hat er nicht angesprochen.

Zudem laufen native Builds von Java ja trotzdem in einer VM aka Graal oder was auch immer, ne native .exe ohne VM wirst du ja nicht erzeugen können; Ist auch eine Frage, wenn du mehr weist, dann teile gern.

benneq schrieb:
Sprachen haben nichts(!) damit zu tun wie und wo sie ausgeführt werden oder wohin sie kompiliert werden.
Doch, sogar ziemlich viel. Für Java war es doch das Argument, dass das Zeug in nem JVM überall lauffähig ist.

Zudem entwickelt man in einem C(++) anders als in einem Java oder späterem. Beim einen fange ich so basic wie möglich an, und abstrahiere nach oben wenn notwendig, beim anderen lege ich direkt mit Collections los, und gehe nach unten, wenn Speicher oder Performance nicht passt. Zugegeben kein "Feature" der Sprache, aber durchaus eine Eigenheit. Und das ist auch gut so: Wenn ich für eine REST-API Code schreibe, dann habe ich keine Lust an Allokation, Pointer und Garbage-Collection zu denken, weil das dem Nutzer exakt nichts bringt und mich nur Zeit und Nerven Kostet.

flaphoschi schrieb:
Und was kaufe ich dann über den App-Store? JetBrains nimmt das Geld direkt, Adobe nimmt das Geld direkt und alles andere - Überraschung - nimmt auch das Geld direkt. Welcher Entwickler geht in den App-Store, um sich etwas zu kaufen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lasbo, Unnu, MiG-35 und eine weitere Person
Bright0001 schrieb:
Und was kaufe ich dann über den App-Store? JetBrains nimmt das Geld direkt, Adobe nimmt das Geld direkt und alles andere - Überraschung - nimmt auch das Geld direkt. Welcher ##Anwender## geht in den App-Store, um sich etwas zu kaufen?

Ich habe „Entwickler“ durch „Anwender“ ersetzt. Schon ergibt das Sinn, für Apple.

Und Apple ist auch der einzige Konzern der 100 Euro Pauschale von wem einzieht? Entwicklern! Für iOS und MacOS App Bundles.

Anders sieht es bei Homebrew und Konsorten aus. Ohne die kann man einen Mac auch kaum als Entwickler außerhalb von XCode nutzen.

PS: Microsoft zieht über die CAs und deren Entwicklerzertifikate auch Geld ein. Also „der einzige“ nicht ganz fair. Bei Linux und BSD steht man mit seiner persönlichen Reputation (Git bzw. GPG-Signatur) gerade. Wobei Microsoft und die CAs sogar noch ein „Pay to Win on Win“ Modell haben. Ihr kennt die typischen Warnmeldungen bei signierter Software? Je öfter eine Anwendung installiert wurde, um so weniger panikartig fallen die aus. Das niedrigere Level kann man sich tatsächlich mit teuren Zertifikaten erkaufen.

https://sectigostore.com/page/windows-code-signing-certificate/

https://sectigostore.com/page/what-is-a-microsoft-ev-code-signing-certificate/

Und ja. Die Anzahl der Warnmeldungen ist beim Kontakt mit normalen Nutzer ein ernstes Kriterium.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu und MiG-35
flaphoschi schrieb:
##[Ich habe diese Nachricht nach Gutdünken bearbeitet, damit sie zu dem passt, was ich sage]## Du hast super Recht!
Danke!

flaphoschi schrieb:
Und Apple ist auch der einzige Konzern der 100 Euro Pauschale von wem einzieht? Entwicklern! Für iOS und MacOS App Bundles.
Was sind diese App Bundles? Was ist da drin? Warum muss man die bezahlen? Ist das ein Terminal-DLC oder wie kann man sich das vorstellen?

flaphoschi schrieb:
Anders sieht es bei Homebrew und Konsorten aus. Ohne die kann man einen Mac auch kaum als Entwickler außerhalb von XCode nutzen.
Neue Kollegen hatten deftige Probleme, weil sie mit ARM-Macs ausgestattet wurden; Unabhängig davon laufen durchaus einige mit denen durch die Gegend und entwickeln wie alle anderen. Oder anders: Das Unternehmen lässt einen zwischen Mac und Windows wählen, und de facto sind damit fast alle auf Mac oder Linux unterwegs, +/- ein paar Linux VMs auf Windows.

flaphoschi schrieb:
Die ganzen Apple-OS' sind nicht so nutzerfreundlich wie alle immer predigen, Windows ist schlimmer als die CIA und knappst durchgehend Features weg oder verschlimmbessert funktionierende Sachen, und Linux braucht teils Stunden Bugfixing weil (gedacht) elementare Sachen dann doch nicht so elementar sind, wie man sie unter Windows gewohnt ist.

Alles nicht perfekt; Man braucht aber auch keine Lanze brechen, nur weil man eine Seite kritisiert.
 
Bright0001 schrieb:
Java und Kotlin sind aber grundsätzlich keine Interpretersprachen, sondern immer kompiliert;
Ab wann gilt eine Sprache denn als interpretiert und wann als kompiliert? Dank LLVM und GraalVM sind die Grenzen da absolut fließend.

Wurde bereits kompiliert, wenn der Parser den AST erstellt hat? Dadurch wurde der Code ja bereits in eine andere Form gebracht.

Wenn man den Wortlaut der JVM docs nimmt, dann wird der kompilierte Java ByteCode von der JVM erst mal interpretiert (interpreter mode), und wenn ein Hotspot entdeckt wurde, wird der bereits kompilierte Byte Code vom JIT Compiler noch mal in eine optimiertere Form kompiliert.

Zählt JShell als Interpreter oder Compiler, weil da dynamisch on the fly der User Input ausgeführt wird?

Wenn du dich am ByteCode störst, nimm JavaScript und V8. Ein Interpreter und JIT Compiler in einem.

Bright0001 schrieb:
Zudem laufen native Builds von Java ja trotzdem in einer VM aka Graal oder was auch immer, ne native .exe ohne VM wirst du ja nicht erzeugen können
Doch, genau das ist mit GraalVM möglich für alle JVM Sprachen. Es heißt nicht grundlos "native".
 
Photon schrieb:
@dh9 Weil ein Entwickler im Alleingang in relativ kurzer Zeit einen Grafiktreiber für die M2-GPU geschrieben hat, während das noveau-Team seit Jahren nur rudimentäre Unterstützung von nVidia-GPUs zustande bringt?
Es sind mehrere Teile die entwickelt werden und es gibt MASSIVE Unterschiede bei der Situation zwischen Nvidia und Apple. Naja und sind ein paar mehr Entwickler·innen.
Zu aller erst ist Apples GPU immer noch sehr stark mit PowerVR verwandt und für PowerVR gab es vor nicht all zu langer Zeit das Komplettpaket FOSS Treiber, nachdem PowerVR lange Zeit noch zugenagelter war als Nvidia[1]. Zudem ist der ganze Mesa-Stack mittlerweile einfach gut, es muss sich "nur noch"[2] um Anpassungen und Abstraktion gekümmert werden. Was zudem auch extrem wichtig ist, Vieles was Treiber normalerweise machen, steckt bei Apple in der Firmware. Diese Firmware kann Asahi aus dem existierendem MacOS Image extrahieren und nutzen. Bei Nvidia ist die Firmware für die meisten Karten außer Reichweite.

[1] Das war mein Eindruck.
[2] Das ist immer noch richtig viel, anspruchsvolle Arbeit. Es ist aber eben auch nicht mehr so, dass man da zehntausende Arbeitsstunden drin versenken muss.

umask007 schrieb:
Also interessant finde ich, dass der Treiber in Python geschrieben ist. Hätte eher etwas Hardwarenahes wie C erwartet. Von dem Python Code habe ich keine Zeile verstanden :confused_alt:
Ziemlich cool auch wenn ich persönlich keine Hardware von Apple verwende.
Der Proof of Concept (PoC) Treiber für den Kernelspace ist in Python "fix" runtergehackt. Der richtige Kerneltreiber wird in Rust geschrieben und ist einer der aller ersten in Rust geschriebenen Kernelkomponenten. Der PoC ist extrem langsam und läuft über ein extrem merkwürdiges Konstrukt auf einem anderen Rechner, der via seriellem Interface über USB irgendwie die API auf dem eigentlichem Apple SI Rechner zur Verfügung stellt.
Ein übler Hack, der seine Gründe hat und unglaublich schnelles Prototyping erlaubte. Das Ding wurde von Hector Martin angefangen und in dessen Livestreams habe ich mich für richtig dämlich gehalten.


Tenferenzu schrieb:
Wie ist die Leistung von den M-Geräten unter Linux? Besser oder schlechter als unter MacOS? Ich würde lachen, wenn Linux um einiges besser läuft als MacOS.
Die GPU-Treiber brauchen noch Arbeit, da sind einige niedrig hängende Früchte, um die Leistung zu optimieren. Entsprechend ist an der Stelle MacOS noch deutlich schneller.
Die USB3-3Treiber für AppleSi erlauben unter Linux bereits jetzt bessere Durchsatzraten als unter MacOS. Was aber hauptsächlich damit zu tun hat, dass MacOS wohl den "alternative Mode" immer aktiv hat und Linux dies nicht tut. Das Apple dies so tut hat aber auch Gründe.
Quelle:
https://social.treehouse.systems/@sven/109387061451424724

PS: Mastodon hat auf einigen Instanzen ein recht kuschliges Nerdlevel erreicht ;)

ghecko schrieb:
Mal eben in ein paar Monaten nen kompletten GPU-Treiber in Rust geschrieben, allein und per reverse engineering. Ich würde ja lachen, wenn damit auch Vulkan auf der M1/2 Grafik läuft.
Alyssa Rosenzweig -> Mesa Stack
Hector Martin, später "Lina" -> Kerneltreiber

Reverseengineering mit der dicken Hilfe von Foss PowerVR Treibern!


ghecko schrieb:
Und in der Zwischenzeit bei Intel ARC: ......
Für Intel fällt an: DirectX in mehreren Versionen, OpenGL mit vielen Erweiterungen, Metal, OpenCL, OneApi, numa Speichermodell, + Firmware und noch viel mehr

Das Intel GPU-Ökosystem unterstützt eine ganze Menge mehr als der aktuelle Stand der FOSS AppleSi-Treiber und ohne die Entwicklung des Mesa Stacks (da hat Intel auch kräftig geholfen), wäre Asahi auch lange nicht so weit. Da sollte man fair bleiben, auch wenn die Entwickler·innen um Asahi selbstverständlich richtig rocken!

Edit: Und was ich in dem Post auch schon erwähnt habe. Die Firmware der GPU macht bei Apple viel, was sonst Treiber machen. Die Firmware wird von Asahi mit genutzt. Die Zuarbeit erfolgt also quasi auch durch Apple und deren Entwickler.
 
  • Gefällt mir
Reaktionen: sedot, Innensechskant, schneeland und 6 andere
Zurück
Oben