News Software Freedom Conservancy: Ubuntu verletzt mit ZFS Linux-Lizenzen

Eine Artikel Serie über Linux Dateisysteme fände ich interessant und auch die gröbsten Kommandos wären sicherlich für den Einstieg auch ganz gut.



etwas Offtopic als damals Oracle SUN gekauft hatte war das für die OpenSource Welt schon ein sehr harter Schlag, man sieht es ja auch an den ganzen Forks die daraus entstanden sind....
 
@konkretor

Grundlegende Befehle gibt es in massig Tutorials und Wikis (ubuntuusers.de, archwiki (de und en), gentoowiki) sowie in wirklich Einsteigerfreundlich rund um den raspberryPi. Da muss Cbase keine Arbeit rein stecken. Zudem der Thread dazu in 1.000 Seiten Klugscheißerei + 5.000 Seiten Linuxbashing (Terminal gefrickel braucht keiner, Windows ist besser, <foo>) ausarten würde.


Was Dateisysteme angeht, Wikipedia + Quellenangabe sind da sehr hilfreich. Bei einem Cbase Artikel würden auch nur wieder alle rumheulen, weil es Einigen zu hardcore wird und die andere Hälfte mault, weil es zu stark vereinfacht wurde.


Ansonsten einfach die Linuxecke des Forums nutzen.
 
@fethomm, , Vomit, blackiwid und andere,
Danke für die Antworten. Was mich bei der Sache stutzig macht (Canonical integriert ZFS) ist, dass wenn btrfs es in Zukunft schaffen soll eine Alternative für ZFS zu bieten, warum riskiert Canonical dann diese Lizenz-Verkomplikationen, anstatt (siehe OpenSuse) btrfs weiter voran zu bringen?
 
HominiLupus schrieb:
Trotzdem würde ich es nur mit ECC nutzen. Mal sehen wie die Erfahrungen des durchschnittlichen Ubuntu Users mit ZFS so wrden.

Seit 2008 habe ich einen Pool laufen, der über mehrere Schritte bis heute migriert wurde. Ganz ohne ECC und mit mehreren Erweiterungen so das der Pool nun 14TB groß ist. Bis jetzt sind alle Daten voll lesbar, so viel zu ECC braucht man dringend.

Was man hier immer vergisst, besonders unserer Verfechter von ECC+ZFS Holt ist das alle Clients die auf den ECC Pool zu greifen und schreiben ebenfalls ECC benötigen. Da reicht es nicht das tolle NAS mit ECC auszurüsten und dann von Clients Schreibzugriffe zu erzeugen die Daten in ihrem eigenen RAM manipulieren aber kein ECC einsetzen. Das schließt schon einmal alle Smartphones und co. aus. Notebooks mit ECC findet man auch selten. So viel mit ECC im NAS..

Ilsan schrieb:
Naja aber die Diskussion drehte sich doch grade um die Menge des Rams, und nicht um ECC oder nicht. Obendrein würde ich bei NAS und Server generell ECC verbauen, egal ob ZFS oder nicht ZFS. Soviel teurer ist der jetzt auch nicht.

Dann aber nicht vergessen alle Clients die auf das NAS schreiben zugreifen auch mit ECC auszustatten. Sonst bringt technisch gesehen ECC überhaupt nichts, wenn die Fehler schon am Client entstehen.
 
Zuletzt bearbeitet:
Bruddelsupp schrieb:
Was bedeutet es für die Anwender, wenn Canonnical eine Rechtstreit dazu verliert? Ist es ein Risiko, das FS einzusetzen?
Für die Anwender hat das keine Folgen. Die haben nämlich "Freedom 0", dürfen also alles mit dem Code machen, was sie wollen. Dies steht leider im CB-Artikel irreführend.
Nicht die Integration von ZFS und Linux-Kernel verletzt die GPL, sondern die Weiterverbreitung (engl. redistribution) dieser Verbindung. In der Quelle steht es korrekt:
Conservancy and the Linux copyright holders in the GPL Compliance Project for Linux Developers believe that distribution of ZFS binaries is a GPL violation and infringes Linux's copyright.

tek9 schrieb:
Damit wiederholtst du nur mit anderen Worten das was in dem Artikel steht. Warum das ein Problem sein soll wenn beide Produkte auf unterschiedliche Lizenzen aufsetzen wissen wir immer noch nicht
Ich habe genau den Passus beschrieben, der verletzt wurde. Der CB-Artikel tat das nicht. Soll ich auch noch die Nummer des GPL-Artikels nennen? Es ist Artikel 6, bitteschön.
Ergänzung ()

strex schrieb:
Seit 2008 habe ich einen Pool laufen, der über mehrere Schritte bis heute migriert wurde. Ganz ohne ECC und mit mehreren Erweiterungen so das der Pool nun 14TB groß ist. Bis jetzt sind alle Daten voll lesbar, so viel zu ECC braucht man dringend.
Lesbar, aber kannst du überhaupt feststellen, wenn da ein Bit kippt?

Ich zitiere hier mal einen älteren Beitrag von mir:
chithanh schrieb:
Hier eine Studie von Google aus dem Jahr 2009:
http://research.google.com/pubs/pub35162.html

Die Fehlerrate (korrigierbare und nicht korrigierbare Fehler) lag bei über 8% pro DIMM und Jahr. Das Alter der DIMMs spielte auch eine wesentliche Rolle.

Wenn ein solcher Fehler auftritt, kann es zu Programmabstürzen, Fehlern im Dateisystem oder silent data corruption kommen. Daher sollten Dateiserver unbedingt ECC verwenden. Für alle anderen Rechner ist es zumindest eine gute Idee.

Überflüssig ist ECC höchstens bei reinen Anzeige- und Medienkonsumgeräten.

Edit:
Hier ein Bericht von 2006 aus dem CERN:
http://indico.cern.ch/getFile.py/ac...ionId=0&resId=1&materialId=paper&confId=13797
Dort wurden in 1300 Rechenknoten über einem Zeitraum von 3 Monaten 44 ECC-Fehler entdeckt, das entspricht 0,135 Fehlern pro Rechenknoten und Jahr.

Und hier ist Amazons (EC2 usw.) Meinung:
In this case, a fleet of tens of thousands of servers was instrumented to monitor how frequently the DRAM ECC was correcting. Over the course of several months, the result was somewhere between amazing and frightening. ECC is firing constantly.

The immediate lesson is you absolutely do need ECC in server application and it is just about crazy to even contemplate running valuable applications without it.
http://perspectives.mvdirona.com/20...rrors-corrections-trust-of-dependent-systems/
 
Zuletzt bearbeitet:
@chithanh

Ja klar, ist ein Selbstversuch seit Solaris 10 wo das Thema schon einmal kam. Läuft regelmäßig ein Script und prüft die Prüfsummen der Dateien aus einer Datenbank.

Dir bringt aber wie angemerkt ECC überhaupt nichts, wenn nicht die gesamte Kette geschützt ist. Wo ist das der Fall, wenn überhaupt im Enterprise, daheim noch lange nicht. Solange du nur einem Client ohne ECC schreibend auf die Daten Zugriff gewährst ist ECC am Server ab absurdum geführt. Denn das erkennt und/oder behebt keine Fehler im RAM des Clients und akzeptiert diese Daten stillschweigend. Da bringt die Studie nämlich überhaupt nichts.

Entweder ganz oder gar nicht, aber keine Pseudolösungen wie der Server zwar mit ECC geschützt ist der Rest aber nicht. Und das wird hier häufig empfohlen. Da hier aber meist die Daten von Clients stammen oder geändert werden, die über kein ECC verfügen bringt ECC am Server so
gut wie nichts. Wer sagt denn das bei de Änderungen oder Erzeugung durch den Client nicht schon fehlerhaft sind. Dann haben wir zwar die Sicherheit das unsere fehlerhaften Daten des Clients sicher auf dem Server gespeichert wurden.

Dann gibt es noch ein paar andere Geschichten, etwa das die meist Daten per TCP/UDP übertragen werden. Viele NICs bieten dazu Checksum Offloading auf der NIC an. Die ist aber im Semi-Profi Bereich selten per ECC geschützt. Nächste Fehlerquelle die ein NAS mit ECC erheblich mindert. Da kann man fast beliebig weitermachen..
 
Zuletzt bearbeitet:
longwalk schrieb:
@fethomm, , Vomit, blackiwid und andere,
Danke für die Antworten. Was mich bei der Sache stutzig macht (Canonical integriert ZFS) ist, dass wenn btrfs es in Zukunft schaffen soll eine Alternative für ZFS zu bieten, warum riskiert Canonical dann diese Lizenz-Verkomplikationen, anstatt (siehe OpenSuse) btrfs weiter voran zu bringen?
Das ist eine berechtigte Frage. Warum entwickelt Canonical Mir anstatt bei Wayland mitzuarbeiten? Alleingänge sind bei Canonical leider gang und gäbe, ohne dass dabei ein zwingender Grund ersichtlich ist.
 
blackiwid schrieb:
btrfs ist zu zfs aehnlich, hat aber ein paar andere designentscheidungen und eingie vor und einige nachteile.

btrfs ist zum Beispiel soweit ich weiss nicht so speicherhungrig wie zfs, 4gb sind fuer zfs fast das untere Minimum. Es geht mit weniger auch, aber darunter leidet der Speed massiv, btrfs ist da nicht so waehlerisch.

zfs wurde halt in erster linie fuer monsterserver entwickelt. Auch wenn ich das richtig verstehe verwendet btrfs die wortlaenge wie viel bit dein prozessor direkt verarbeiten kann, zfs benutzt aber 128bit wortlaenge, was vorteile in grossen installationen bringt, bei normalen desktop installationen aer nicht.

ZFS ist für 64Bit Hardware (CPU)

Das mit den 128Bit stimmt auch, allerdings kenne ich mich zu wenig mit BtrFS aus, obwohl ich es gerade benutze :)

ZFS *Zwischspeichert*, und schiebt es dann in Stücken auf den Datenträger, wie genau es schreibt ist wieder tieferes Wissen was nicht grad von Belangen ist ...

Die Frage stellt sich, ob Ubuntu auch Entwickler an dem BtrFS Projekt am arbeiten hat ?

20.6. ZFS Advanced Topics Prev
Chapter 20. The Z File System (ZFS)
http://www.allanjude.com/bsd/zfs-advanced.html
ZFS v5000 (Funktionsumpfang)
ZFS on /Root für FreeBSD Installer & PC-BSD
@AllanJude
Wer ist Allan Jude ?
1. TechSNAP Sendung JB
http://www.twitch.tv/jupiterbroadcasting/v/46702629

Chapter 19. The Z File System (ZFS) Part III. System Administration
https://www.freebsd.org/doc/en_US.ISO8859-1/books/handbook/zfs.html

BSDNowTV #130
http://www.bsdnow.tv/episodes/2016_02_24-store_all_the_things
ZFS is for Containers in Ubuntu 16.04
https://www.youtube.com/watch?v=-wy2xdiBqxQ&t=1h38m24s
 
Zuletzt bearbeitet:
@strex
Das man es noch besser machen kann, wenn man zusätzlich auch noch die Clients mit ECC ausstattet bestreitet keiner. Aber wie die Amazon-Leute sagen, ein Fehler im Client ist in abstürzendes Programm oder ein korruptes Datenelement.
Im Server hingegen hat das potenziell viel weitreichendere Folgen, besonders wenn das Dateisystem betroffen ist. Ein kaputter Client kann nicht das Dateisystem des Servers schrotten.

Dass bei Clients ohne ECC der Server auch ruhig ohne ECC betrieben werden kann, das halte ich für einen gefährlichen Irrglauben.
 
Piktogramm schrieb:
(Terminal gefrickel braucht keiner, Windows ist besser, <foo>) ausarten würde.

Es scheint schon sehr schwierig zu sein für viele, sich ein paar Befehle zu merken ...

$
Code:
zfs list
$
Code:
zpool status
 
@chithanh

Das würde ich nicht sagen, eine fehlerhafte Transaktion etwa in einer DB, kann sehr wohl viele Daten betreffen die aber von EINEM Client stammt. Wenn Daten von einem Client ohne ECC kommen oder sogar von allen, muss man davon ausgehen das sie nicht korrekt sind. Dann bringt mir ECC überhaupt nichts, ich schütze nur fehlerhafte Daten.

Wo sollte ein einzelnes kippendes Bit im ZFS das gesamte Dateisystem beschädigen? Steile These, gibt es dafür auch ein technische Begründung oder nur eine Behauptung? Dazu ist der Einfluss eines einzelnen Bits zu gering. Es kann eine Datei treffen, bei schreibenden Zugriffen aus dem RAM, oder einen Pointer verschieben. Die Regel zeigt hier aber, dass das Dateisystem trotzdem noch lesbar ist, eben mit ein paar defekten Dateien. Anderes Gegenteil wäre es wenn der gesamte RAM nur noch Müll liefert, extreme Strahleneinwirkung etwa, da kann das ECC aber auch nicht mehr korrigieren und die Kiste verabschiedet sich, besonders wenn man hier immer Boards empfiehlt die von Advanced ECC noch nie was gehört haben.

Möglich ist viel, was ich aber nicht mag ist hier Leute ein NAS zu empfehlen und dann die Clients komplett zu vergessen. Denn da wird einem Nutzer die tolle Sicherheit versprochen, die aber dann nur ein voller Blender ist, wenn dann alle Clients zugreifen und kein ECC besitzen. Denn dann können die Dateien doch schneller defekt sein und ECC hat dem Nutzer rein gar nichts gebracht.

--

Bezüglich Thema: Diese Lizenzstreitereien bei Open Source werden schon fast schlimmer als bei Patenten und beschädigt irgendwie den Sinn von Open Source. Wenn man etwas Open Source stellt, dann komplett ohne irgendeine Lizenz die XY einschränkt oder wenn einem das nicht gefällt eben gar nicht. Aber diese Kombination von Open Source und zig Lizenzen bringt einem überhaupt nichts, weil man die Teile nicht mehr zusammen bekommt.

Bezüglich ZoL: Auch wenn sie das als stable bezeichnen, wie auf btrfs, ist es das noch nicht. Da braucht man nur mal ein Blick in die Commits und Issues auf Guthub schauen. Stable sollte etwas anderes aussehen. Wenn dann schon ZFS nativ auf Solaris oder Abwandlungen davon.
 
Zuletzt bearbeitet:
Diese Urheberrechtsstreitigkeiten welche alle aus Profitgier geführt werden, behindern meiner Meinung nach jeglichen Fortschritt! Wo würden wir heute wohl stehen wenn es einen unantastbaren Grundsatz geben würde das jegliches geistiges Eigentum der Allgemeinheit zum Eigentum dieser zugeführt werden würde???

- Wären wir heute unserer Zeit Jahrzehnte voraus, oder nicht?

Wie war nochmal der Grundgedanke von Open-Source ??? warum frei zugängliche Quellen wenn diese niemand nutzen darf?
 
strex schrieb:
@chithanhDas würde ich nicht sagen, eine fehlerhafte Transaktion etwa in einer DB, kann sehr wohl viele Daten betreffen die aber von EINEM Client stammt. Wenn Daten von einem Client ohne ECC kommen oder sogar von allen, muss man davon ausgehen das sie nicht korrekt sind. Dann bringt mir ECC überhaupt nichts, ich schütze nur fehlerhafte Daten.
Dann gibt es eine kaputte Transaktion in der Datenbank, und nicht die gesamte Datenbank ist hin, was passieren könnte wenn im Server selbt ein Fehler auftritt. Das Risiko (= Schadenswahrscheinlichkeit * Schadenshöhe) liegt in einer ganz anderen Größenordnung.

strex schrieb:
Wo sollte ein einzelnes kippendes Bit im ZFS das gesamte Dateisystem beschädigen? Steile These, gibt es dafür auch ein technische Begründung oder nur eine Behauptung? Dazu ist der Einfluss eines einzelnen Bits zu gering. Es kann eine Datei treffen, bei schreibenden Zugriffen aus dem RAM, einen Pointer verschieben. Die Regel zeigt hier aber, dass das Dateisystem trotzdem noch lesbar ist, eben mit ein paar defekten Dateien.
Dateisysteme haben eine Baumstruktur. Je näher der Pointer an der Wurzel ist, desto mehr Daten sind potenziell von einem Fehler betroffen.
Außerdem ist es möglich, dass der Fehler nicht sofort bemerkt wird. Wenn er etwa vor der Prüfsummenberechnung durch ZFS entsteht und auf die Platte geschrieben wird. Darauffolgende Schreibzugriffe könnten dann andere Daten überschreiben.

EDIT: Nach etwas nachdenken - der Super-GAU wäre wohl, wenn der Bit-Flip das dirty bit im Cache betrifft. Im schlimmsten Fall könnte das dazu führen, dass alle folgenden Schreibzugriffe ins Leere laufen bis der entsprechende Eintrag aus dem Cache verdrängt wurde.

strex schrieb:
Möglich ist viel, was ich aber nicht mag ist hier Leute ein NAS zu empfehlen und dann die Clients komplett zu vergessen. Denn da wird einem Nutzer die tolle Sicherheit versprochen, die aber dann nur ein voller Blender ist, wenn dann alle Clients zugreifen und kein ECC besitzen. Denn können die Dateien doch schnell defekt sein und ECC hat rein gar nichts gebracht.
Wie gesagt, die Clients mit ECC auszustatten ist eine gute Idee und ich gehe da voll mit der Ansicht von Amazon konform.
Aber während beim Client der mögliche Schaden begrenzt ist auf das was er gerade bearbeitet, gibt es beim Server eine viel größere Gefahr. Dateisystem geht kaputt, entweder mit einem großen Knall oder schlimmer, einem fortschreitenden schleichenden Datenverlust (wohl dem, dessen Backups dann noch so lange zurück reichen).

ECC: Für Clients wünschenswert, für Server absolut notwendig.
 
Zuletzt bearbeitet:
Auch scheint zfs nicht nur zu cachen es haelt auch immer viele daten im speicher die gar nicht dort sein muessten, soweit ich das verstanden habe, mags gruende geben fuer enterprise umgebungen ist ram billiger da verbraet man dann halt mal 1 2 gb ram zum Spass wenn dadurch 1% mehr speed raus kommt, das muss dann aber eben nicht fuer alle einsatzzwecke ideal sein.
Woran machst du fest dass die Dateien da nicht sein müssten? Lies dir halt durch wie der ARC arbeitet. Blöcke, nicht Dateien genauergesagt, werden im Ram gehalten um diese Daten schneller liefern zu können. Dabei wird der Ram benutzt der halt da ist.

Ist weniger Ram da, kann halt nicht soviel gecached werden, logisch, dann müssen die Blöcke eben von den Platten gelesen werden. Müssten sie bei einem anderen Dateisystem aber genauso. Mit wenig Ram fällt nur dieser Turbo weg. Man kann da doch nicht mit "ausbremsen" argumentieren, dass ist ein Vergleich von Äpfel mit Birnen.

Nen Benchmark werde ich jetzt nicht liefern, weil ich da jetzt einfach zu faul für bin, du kannst mir glauben oder es sein lassen, aber mein NAS/Server mit 4GB ist nunmal leicht schneller als der mit 9GB. In meinen Augen liegt das an der CPU und weil dort mehrere HDDs verbaut sind. Wie gesagt glauben musst du es nicht.
Caching also der ARC bei Mediadateien macht auch nicht viel Sinn da dort die Blöcke nur einmal gelesen werden, außer man guckt sich immer wieder und wieder dasselbe an. Daher ist mehr Ram auch hier gar nicht sinnvoll weil nicht sinnvoll nutzbar, das ist einfache Logik.

Du gingst auch nicht auf die 128bit ein ist doch logisch das umso mehr bit etwa verarbeiten muss es um so verschwenderischer mit resourcen um gehen muss.
Ist doch irrelevant. Wichtiger ist was am Ende bei raus kommt an Leistung. Ob es da irgendeinen theoretischen Nachteil gibt interesiert doch nicht, wenn dieser in der Praxis nicht wirklich relevant ist.

Die jetzigen implementierungen sind eh nur 64bit und die restlichen 64bit sind aufgefüllt mit Nullen um später einfach auf 128bit umzustellen. Warscheinlich werden die also eh weitesgehend ignoriert in der Datenverarbeitung solange bis man 128bit wirklich benötigt.


Sollte das eine falschinformation sein, das zfs sehr viel speicher braucht um halbwegs vernuenftig zu laufen, ist das auch incht mein problem, dann haben die entwickler und alle extrem schlechtes Marketing gemacht, und dieses "Geruecht" oft selbst in umlauf gebracht, du kennst vielleicht jupiterbroadcasting und da gabs oder gibts ja auch bsd now show oder so ahenlich, dort kamen auch immer wieder zuschauerfragen, und dort wurde immer von 4 bisser 8 geredet.
In meinen Augen ruht das daher dass ZFS eben in Rechenzentren etc eingesetzt wird und nicht auf einfachen kleinen Rechnern zuhause und es dort eben sowieso "tonnenweise" Ram gibt, welcher dort auch sinnvoll genutzt werden kann weil dort zig User gleichzeitig zugreifen. Und grade da profitiert man davon wenn Blöcke nicht von der HDD sondern direkt aus dem Ram gelesen werden können.
Daraus ist vielleicht irgendwann entstanden dass man für ZFS umbedingt viel Ram benötigt weil man sich da auf irgendwelche "Faustformeln" für Server in Rechenzentren berufen hat, weil man ansonsten einfach nicht viel andere Informationen hatte. Das da "oben" von wegen 1GB für 1TB Speicher ist doch auch Humbug. Für was soll das gelten? Was ist wenn du das ganze als Coldstorage einsetzt mit sagen wir mal 100TB, brauchste da jetzt umbedingt auch 100GB Ram damit es gut läuft? Genauso wenig brauch ich bei 10TB umbedingt 10GB Ram. Es kann Sinn machen, muss es aber nicht, und nicht immer. Es "kommt drauf an"

Meine Erfahrung ist die es läuft mit 4GB gut, und eine Aufrüstung auf 8GB bringt manchmal sogar gar nichts, je nach Anwendungsfall. Beziehe es auf die Verwendung zuhause wie schon gesagt im privaten Umfeld.

Haste mehr User macht mehr Ram also schon Sinn. Oder greifst immer wieder auf dieselben Blöcke hinzu.
 
Zuletzt bearbeitet:
Ein grund fuer btrfs neben den schon genannten ist wohl auch das man den pool leichter erweitern kann sprich soweit ich das verstanden habe (vieleicht ist das auch veraltet?) kann man bei zfs nicht so einfach wenn man vorher 3x 1tb benutzt hat eine 1tb durch ne 3tb festplatte ersetzen in dem sinne das man das mehr an platz auch irgendwie nutzt.

man sollte dann alle 3 ersetzen. So aehnlich hab ich das verstanden, das waere dann einer der gruende. wo zfs staerker sein soll ist wenn dir eine platte ab raucht und du eine ersetzt oder so... da ja alle metadaten und alles im ram ssind, kanns halt schneller (sofern man so viel ram hat) sschneller wieder syncen die neue platte.

Kurz gesagt btrfs ist ein kraut und rueben FS das mit nem bunch aus alten unterschiedlich grossen platten wunderbar laeuft und recht random hardware. Und zfs ist eher ein profiwerkzeug wo man idealerweise 10mio gb ram und 10x gleich grosse platten kauft und benutzt.

Das ist sicher zu pausschal und man kann beide mehr oder weniger gut auch fuer das jeh andere benutzen, aber das ist deren hauptausrichtung wenn man so will oder dort sind sie jeweils staerker als der andere.

zfs weils stabiler/aelter ist... hat da seine vorteile, und btrfs weils wie gesagt flexibler ist.
 
Zuletzt bearbeitet:
Ein grund fuer btrfs neben den schon genannten ist wohl auch das man den pool leichter erweitern kann sprich soweit ich das verstanden habe (vieleicht ist das auch veraltet?) kann man bei zfs nicht so einfach wenn man vorher 3x 1tb benutzt hat eine 1tb durch ne 3tb festplatte ersetzen in dem sinne das man das mehr an platz auch irgendwie nutzt.
Kommt drauf an. Was nicht geht sind vdevs zu erweitern. Sprich aus nem RaidZ1 mit 3 Platten kannste kein RaidZ1 mit 4 Platten machen ohne den Pool zu zerstören. Du kannst aber zB nen weiteres vdev dranhängen als mirror. Dann besteht dann Pool aus dem RaidZ1 + Mirror.

Ist einer der Nachteile wenn man so will. Hintergrund der Entwickler war aber dass man sowas in Rechenzentren wohl nicht macht, sondern eher die Platten durch größere tauscht, was problemlos geht.

wo zfs staerker sein soll ist wenn dir eine platte ab raucht und du eine ersetzt oder so...
Das geht ja. Ist einfach nur replace. Du sagst ZFS welche Platte es durch welche neue Platte ersetzen soll und es kopiert dann die Dateien auf die neue Platte um.
Nur die Anzahl der Platten eines vdevs ist nicht änderbar. Und ersetzen durch kleinere Platten als vorher geht auch nicht.
 
Zuletzt bearbeitet:
Ilsan schrieb:
Das geht ja. Ist einfach nur replace. Du sagst ZFS welche Platte es durch welche neue Platte ersetzen soll und es kopiert dann die Dateien auf die neue Platte um.
Nur die Anzahl der Platten eines vdevs ist nicht änderbar. Und ersetzen durch kleinere Platten als vorher geht auch nicht.
mein Punkt war, das es schneller syncronisiert... wie vermutlich auch zfs oder andere systeme. natuerilch kann das auch jedes andere raid system, zfs sei da aber wohl schneller, aber das ist jetzt auch nur was ich gelesen habe.
Ergänzung ()

Ilsan schrieb:
Kommt drauf an. Was nicht geht sind vdevs zu erweitern. Sprich aus nem RaidZ1 mit 3 Platten kannste kein RaidZ1 mit 4 Platten machen ohne den Pool zu zerstören. Du kannst aber zB nen weiteres vdev dranhängen als mirror. Dann besteht dann Pool aus dem RaidZ1 + Mirror.

Ist einer der Nachteile wenn man so will. Hintergrund der Entwickler war aber dass man sowas in Rechenzentren wohl nicht macht, sondern eher die Platten durch größere tauscht, was problemlos geht.

Und das ist eben ein Nachteil, da nicht jeder normalo ein Rechenzentrum hat, und da die Anforderungen nicht zwingend identisch sind, in Rechenzentren sind auch 8 oder zur not auch 64gb ram eben kein probblem den normalo stellt das aber vor zumindest kostenproblemen.

Gerade festplatten kauf ich ungern haufenweise und meist in jahren abstand und in unterschiedlichen groessen.

Andererseits macht fuer mich da raid auch nicht so viel sinn hatte mal swraid 5, und auch schon 1 2 raid 1, aber backup ersetzt eh nicht, wenn der speed einer platte eh reicht, muss man ganz schoen viel geld investieren fuer backup UND raid, daher hab ich mich im zweifel fuer backup entschieden.

Das einzige argument ist, dann vielleicht wenn man EINEN grossen speicher haben will, und nicht 2 3 extra mountpoints... weiss nicht wie die filesysteme das handhabben aber im zweifel multipliziert sich bei raid0 artigen systemen dann das ausfallrisiko, da wenn eine platte aus faellt sofern man keine redundanz hat, im zweifel die daten aller 3 weg sind, bzw man aufs backup zurueck greifen muss. Aber wahrscheinlich koennen die 2 filesysteme das doch irgendwie ohne das man alle daten wieder herstellen muss?

warte auch noch auf gute autamitssche backuptools... sowas wie rbackup mit ner einfachen linie fuer nen btrfs volume ueber btrfs send und receice oder so...

naja da waeren wir bei den snapshots theoretisch klingt das nice aber die faelle wo ich denke das waere jetzt aber super toll wenn ichs jetzt haette, ergeben sich fuer mich noch nicht.

benutz btrfs als rootfs schoen und gut aber bis auf kompression nutz ich quasi keine der zusatzfeatures wuerde quasi kein unterschied machen wenn ich ext4 benutzen wuerde.
 
Zuletzt bearbeitet:
Zurück
Oben