News Software Freedom Conservancy: Ubuntu verletzt mit ZFS Linux-Lizenzen

Könnte ZFS von Sun dual-lizenziert werden oder so? Woran hängts? Was sind mögliche Lösungen?
 
Soweit ich weiß haben ein externe Firmen dort Copyright-Ansprüche, was eine Umlizenzierung sehr schwierig oder sogar unmöglich macht.
 
Pat schrieb:
Könnte ZFS von Sun dual-lizenziert werden oder so? Woran hängts? Was sind mögliche Lösungen?
Heute gehört ZFS zu Oracle, die bisher eine Umlizensierung immer abgelehnt haben. Von da ist vermutlich keine Lösung zu erwarten.
 
Dies ist leider ein sehr schlechter Artikel.
Es wird gebetsmühlenartig wiederholt: ZFS im Kernel verletzt dessen Lizenz, Person X sagt zfs verletzt die Linux Kernel Lizenz, zfs im Kernel verletzt die GPL, Ubuntu verletzt die GPL, ad infinitum.

Wie wäre es eine Wiederholung zu streichen und mal in einem kurzen Absatz zu erklären warum die Lizenz verletzt wird? Welche Passagen genau strittig sind, warum die Ubuntu Anwälte hingegen kein Problem sehen. Aber zuvorderst eben die Interpretation des SFC Berichts wie genau Ubuntu die Kernel Lizenz auf welche Weise verletzt.
 
Stimmt, da muss ich @HominiLupus Recht geben, man sollte eher erklären wie genau die GPL verletzt wird, das wird hier nicht wirklich schlüssig außer man kennt die ZFS Lizenz genauer.
 
L0g4n schrieb:
Stimmt, da muss ich @HominiLupus Recht geben, man sollte eher erklären wie genau die GPL verletzt wird, das wird hier nicht wirklich schlüssig außer man kennt die ZFS Lizenz genauer.
Man kann es nicht allen recht machen. Geht man zu sehr in die Tiefe, heißt es, das will keiner wissen und versteht keiner. Verlinkt man dagegen tiefergehende Fakten, ist es auch verkehrt. Für ein Linux-Only-Medium hätte ich das bestimmt vertieft.
 
hab den text auch nicht verstanden und was das nun bedeutet.. wenn man schon ne news bringt, dann sollte sie auch verständlich dargestellt werden.
 
Wie sieht es eigentlich mit btrfs aus? Ich hörte, das soll viele Vorteile von ZFS auch mitbringen. Und btrfs dürfte auch nicht mehr so weit weg sein.
 
Verletzt wird die GPL, genauer gesagt der Passus, der besagt dass GPL-Code keinen weiteren Einschränkungen unterworfen werden darf, ferner muss Code der von der GPL abgeleitet ist, ebenfalls unter der GPL lizenziert sein.
Die CDDL von Solaris macht solche Einschränkungen und daher ist sie nicht zur GPL kompatibel.

Lösungen:
  1. Kernel-Lizenz wird geändert zu einer die CDDL-kompatibel ist, oder
  2. ZFS-Lizenz wird geändert zu einer die GPL-Kompatibel ist, oder
  3. beide ändern ihre Lizenzen (z.B. Kernel nach GPL v3, ZFS nach Apache 2.0), oder
  4. man sitzt das Problem aus nach dem Motto: wo kein Kläger, da kein Richter
Canonical scheint momentan auf letzteres zu setzen.

Es ist übrigens keinesfalls ausgeschlossen, dass der Kernel seine Lizenz ändert. Zwar müssten alle Copyrightinhaber (bzw. deren Erben) zustimmen, und die Teile für die man keine Zustimmung bekommt neu geschrieben werden. Aber da mit jedem Kernel-Release sowieso erhebliche Teile neu geschrieben werden ist das im Bereich des Möglichen.
 
Mr.Smith schrieb:
hab den text auch nicht verstanden und was das nun bedeutet.. wenn man schon ne news bringt, dann sollte sie auch verständlich dargestellt werden.
Was hast Du nicht verstanden?
Ergänzung ()

longwalk schrieb:
Wie sieht es eigentlich mit btrfs aus? Ich hörte, das soll viele Vorteile von ZFS auch mitbringen. Und btrfs dürfte auch nicht mehr so weit weg sein.
OpenSuse setzt Btrfs bereits seit geraumer Zeit für / ein. In Zusammenhang mit Snapper finde ich das recht interessant, was Snapshots angeht.
 
longwalk schrieb:
Wie sieht es eigentlich mit btrfs aus? Ich hörte, das soll viele Vorteile von ZFS auch mitbringen. Und btrfs dürfte auch nicht mehr so weit weg sein.

hier einige infos zu beiden, ich fand es sehr aufschlussreich, auch hier steht etwas zu den lizenzen von oracle.

BTRFS vs. ZFS comparison

http://marc.merlins.org/linux/talks/Btrfs-LinuxCon2014/Btrfs.pdf

edit: ich betreibe btrfs schon seit einigen jahren auf mehreren rechnern, da war es noch unstable und ich hatte noch nie datenverlust oder andere probleme, klar einige features sind noch nicht fertig, dennoch gilt es seit kurzer zeit als stable.
 
Zuletzt bearbeitet:
btrfs ist zu zfs aehnlich, hat aber ein paar andere designentscheidungen und eingie vor und einige nachteile.

btrfs ist zum Beispiel soweit ich weiss nicht so speicherhungrig wie zfs, 4gb sind fuer zfs fast das untere Minimum. Es geht mit weniger auch, aber darunter leidet der Speed massiv, btrfs ist da nicht so waehlerisch.

zfs wurde halt in erster linie fuer monsterserver entwickelt. Auch wenn ich das richtig verstehe verwendet btrfs die wortlaenge wie viel bit dein prozessor direkt verarbeiten kann, zfs benutzt aber 128bit wortlaenge, was vorteile in grossen installationen bringt, bei normalen desktop installationen aer nicht.

Letztlich ist fuer Desktop PCs btrfs bessser geeignet als zfs zumindest vom konzept her, btrfs hat aber noch einige Kinderkrankheiten, nichts was deine Daten auf frisst, aber halt kleinere Probleme. Neben eingien fehlenden features wie das fehlen von bestimmten raid levels oder aehnlichem, kann wenn dir die festplatte voll leuft nur noch recherge und das eintippen von sehr vielen (5 6) sehr esoterisch anmutenden fs spezifischen kommandos weiter helfen, und du bist von X aus gesperrt so lange unter umstaenden.

Loeschen von ein paar grossen dateien hilft z.B. nicht, gut das koennte mit zfs auch passieren da kenn ich mich nicht genug aus.

Auch nutzen die wenigsten Distries automatisch vorteile der Oses, hatte mal btrfs-apt-blabla installiert gehabt, das hat dann bei jeder kleinen aenderunge 1 snapshot gemacht und hatte dann 5000 snapshots und irgendwann wurde das system so lahm das fast nix mehr ging.

Es fehlen irgendwelche selfhealing tools oder automatische mechanismen meiner Meinung nach, man muss quasi ein Sysadmin sein um die systeme (zumindest btrfs) zu nutzen, ext4 oder xfs kann jeder der noch nie vom Internet gehoert hat oder von manpages oder aehnlichem bedienen.

Auch ist vieles noch sehr wirr meiner Meinung nach. letztlich sollen die 2 fse ALLES ersetzen was neben den FS bisher genutzt wurde, lvm, partitionen, raid... selbst backupmechanismen sind integrierter. Die Distros wollen entweder aber nicht oder sind noch nicht so weit, das konzept zu zelebrieren.

Hatte glaub bei nem umzug mein fedora auf ne btrfs platte kopiert und zum laufen gebracht. es macht fuer mich keinen sinn eine btrfs partition an zu legen oder lvm zu benutzen um zu partitionen wenn btrfs das alles im grunde selber kann. daher hab ich direkt /dev/sda mit btrfs formatiert.

wenn ich manuell grub-install drauf laufen lasse laeuft alles wunderbar. Aber irgend ein Muellscript von Redhat crashed oder bricht ab wenn ein neuer kernel als update kommt. und ich muss jedesmal hinterher manuell grub2-mkconfig laufen lassen.

Hab den "bug" gemeldet der zustaendige Mensch sieht das aber als richtig so an, ich glaub dieeses verkorkste tool heisst grubbby.

Naja mit zfs gibts sicher aehnliche probleme wenn man nicht die installer benutzt die 1000 workarounds automatisch richtig einrichtet.

Auch sind viele der Vorteile (z.B. bitrodschutz) NUR dann verfuegbar wenn man es fuer Raid benutzt. Typischerweise sind desktopsysteme aber keine Raidsysteme, daher nutzt einem das fs schnell wenig bis gar nichts mehr.

Viele der Features hoeren sich besser an als sie sind, so klingt filesystem compression toll, aber mit ssds und laptop prozessoren sind cpu cycles oft teurer was akku lautstaerke und weiteres an geht wie ein paar mehr bytes die man von der platte ziehen muss dauert. Zumal 99% der Daten auf Platten eh binaerdaten sind die man gar nicht sinnvoll komprimieren kann. man kann quasi nur textdateien sinnvoll komprimieren.
 
Zuletzt bearbeitet:
Wie "bedient" man den ext4? Bin kein Spezialist für Dateisysteme. Da würde ich mir wirklich mal einen tiefergehenden Artikel wünschen....Gerade bei Linux hat man ja mehr Auswahl, als zB Windows mit "nur" NTFS...
 
4gb sind fuer zfs fast das untere Minimum. Es geht mit weniger auch, aber darunter leidet der Speed massiv, btrfs ist da nicht so waehlerisch.
Das stimmt doch gar nicht. ZFS nutzt den Ram halt als Cache, daher profitiert es eben von viel Ram. Wenn wenig Ram vorhanden ist so fällt der Speed eben auf das Tempo der Platten zurück.

Sprich durch mehr Ram kann man ZFS "tunen", aber wirklich brauchen tut man den Ram nicht, es ist dann eben nur nicht ganz so schnell. Sollte aber dann auf dem Niveau von btrfs liegen eigentlich.

Bei ZFS wird auch vieles gern durcheinander geworfen, wie zB dedup, was optional ist, und welches einen enormen RAM-Bedarf hat, das brauch aber sogut wie eh kein Anwender, daher lässt man es besser aus.

4GB reichen vollkommen für ZFS, es kommt drauf an was man genau vorhat.Wenn 32GB drin sind werden halt auch 32GB fürs Caching benutzt.

Haste nen dicken Medienserver und streamst Filme nutzt dir der Cache aber so oder so nix, außer du guckst dir immer die gleichen Stellen der Filme ständig an. Daher wäre es in so einem Fall ganz egal ob 4GB drin sind oder 64GB.

Haste nen NAS kann es aber ganz praktisch sein wenn eben viele Dinge direkt aus dem RAM gelesen werden können.
Aber auch btrfs kann kein Ram nutzen, der nicht da ist. Zaubern kann ZFS halt auch nicht;) Dass der Speed leidet ist daher in meinen Augen ne ungünstige Formulierung.

Auch sind viele der Vorteile (z.B. bitrodschutz) NUR dann verfuegbar wenn man es fuer Raid benutzt. Typischerweise sind desktopsysteme aber keine Raidsysteme, daher nutzt einem das fs schnell wenig bis gar nichts mehr.

Sorry aber kannst du mir mal verraten wie du Daten wiederherstellen willst ohne Kopie? Siehst du das als Nachteil jetzt an weil ZFS sich die verlorenen Daten nicht aus den Fingern saugen kann? Ich schätze du würdest den Nobel Preis dafür bekommen wenn du einen Algo erfindest der sowas kann;)
Obendrein hast du nicht ganz recht. Bei einer HDD kann ZFS dir zumindest sehr wohl anzeigen dass die Daten beschädigt sind. Noch dazu existieren auch bei einer Platte zumindest Kopien der Metadaten welche wieder hergestellt werden können. Wenn du noch mehr willst setze halt copies auf 2. Dann werden auch deine Dokumente 2mal auf der selben Platte abgelegt und können somit auch wiederhergestellt werden. Im Rahmen dessen was physikalisch möglich ist! Informationen aus dem Nichts heraus kannst du nicht wiederherstellen.

Was obendrein ein tolles Feature wäre wenn ich eine große Festplatte verbaut habe aber nur wenig Daten habe zum drauf speichern. So kann ich den Platz dennoch für mich sinnvoll nutzen, weil meine Daten doppelt vorhanden sind und kann die eine Kopie nicht gelesen werden, wird eben die andere Kopie gelesen.
 
Zuletzt bearbeitet:
4GB reichen vollkommen für ZFS, es kommt drauf an was man genau vorhat.

Trotzdem würde ich es nur mit ECC nutzen. Mal sehen wie die Erfahrungen des durchschnittlichen Ubuntu Users mit ZFS so wrden.
 
fethomm schrieb:
Man kann es nicht allen recht machen. Geht man zu sehr in die Tiefe, heißt es, das will keiner wissen und versteht keiner. Verlinkt man dagegen tiefergehende Fakten, ist es auch verkehrt. Für ein Linux-Only-Medium hätte ich das bestimmt vertieft.
Die gewählte Überschrift lässt darauf schließen, dass es im Artikel darum geht, dass ZFS Linux Lizenzen verletzt, daher sollte gerade dies im Artikel erklärt werden, anderes kann gerne verlinkt werden.
 
Trotzdem würde ich es nur mit ECC nutzen. Mal sehen wie die Erfahrungen des durchschnittlichen Ubuntu Users mit ZFS so wrden.
Naja aber die Diskussion drehte sich doch grade um die Menge des Rams, und nicht um ECC oder nicht. Obendrein würde ich bei NAS und Server generell ECC verbauen, egal ob ZFS oder nicht ZFS. Soviel teurer ist der jetzt auch nicht.
Zählt für mich schon fast zu einen der Punkte wo man händeringend ein Argument gegen ZFS sucht.
In der Theorie heißt es ohne ECC kann man alle Daten verlieren. Nichts desto trotz hab ich noch von keinem User gehört der Daten mit ZFS verloren hat und es dort nachweislich an fehlendem ECC wirklich lag.
 
Zuletzt bearbeitet:
Es ging doch im Wesentlichen um Ubuntu Desktop. Was hat das mit NAS und Server zu tun?

Sollte man, gegeben Ubuntu wählt nun ZFS, auf EEC Ram setzen und wenn ja, warum? Fragen über Fragen....
 
Paar Features können auch für Desktops interesant sein wie der ARC, die möglichkeit mehrere Kopien auf einer Platte zu speichern. Der Schutz vor allen möglichen Fehlern bei der Übertragung der Daten auf die Platte durch die Prüfsummen
 

Ähnliche Themen

Antworten
15
Aufrufe
5.023
Zurück
Oben