Dann schau dir mal SnapRAID an, das dürfte für deinen Einsatzzweck sehr gut geeignet sein und es gibt sogar ein Plugin für OpenMediaVault.PongLenis schrieb:Hoffentlich findet sich das bald auch in anderen Distributionen, wie z.B. debian. Würde gern unter openmediavault ZFS nutzen.
Aber bei dem Thema habe ich mal eine Frage. Ich hab ein RAID5 mit 4 mal 3 TB HDDs. Also netto knapp 9 TB als ext4 Partition.
Das möchte ich demnächst erweitern, da der Server aber nur noch 1 Port und auch Slot frei hat, muss ich mir da irgendwas anderes überlegen.
Gibt es eine Möglichkeit zu dem oben genannten Volume eine einzelne Festplatte hinzuzufügen, sodass ich praktisch in den bestehenden Freigaben einfach mehr Daten speichern kann? Es ist mir klar, dass ich dann für die Daten auf der neuen HDD keine Redundanz mehr habe, deswegen sollten einzelne Dateien schon zu gänze auf der einzelnen neuen HDD oder dem bestehenden RAID 5 gespeichert werden.
Ergänzung ()
Ich könnte zwar zu dem RAID5 einfach noch eine HDD dazu packen, aber dann hätte ich max. 3 TB mehr und das dabei nötige Rebuild ist ja nun auch nicht gerade unriskant.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Dateisystem: Ubuntu 16.04 kommt mit Dateisystem ZFS
- Ersteller fethomm
- Erstellt am
- Zur News: Dateisystem: Ubuntu 16.04 kommt mit Dateisystem ZFS
Marco^^
Lt. Commander
- Registriert
- Aug. 2012
- Beiträge
- 1.797
DiedMatrix schrieb:Als ich mich das letzte mal mit ZFS FreeNAS beschäftigt habe, war mMn die absolute Empfehlung bzw fakt, dass ZFS ohne ECC RAM nahezu gefährlich wäre, weil wenn bei der Berechnung für die Parität ein Fehler im nicht-ECC RAM auftritt, wird auch später die Wiederherstellung fehlschlagen?!
EDIT:
exoterrist hats ja auch gerade gepostet: Es droht sogar ein kompletter Datenverlust!
Ist doch Unsinn, AllanJude hat mal gesagt, es ist besser ZFS zu benutzten als kein ZFS, egal bei welchem RAM !
DiedMatrix schrieb:Heißt das nun, dass ich ZFS also garnicht wirklich fürs normale Dateisysstem nutzen können werde, oder was?
Den Satz verstehe ich nicht ...
Hinzu kommt noch, das es sich um eine Version von OpenZFS handelt, die der Version von FreeBSD noch hinterherhinkt v5000.
Allan Jude hat auch ZFS on Root gemacht, damit man eine FreeBSD ZFS Installation auf nur einem Datenträger (wegen PC-BSD) installieren kann.
Ich kenne jetzt nur einen der ZoL benutzt hat und auf YT was davon gezeigt hat ...
Our New NAS: 40 TB, 64 GB ECC RAM, SSD Caching, 10 Bay Case
https://www.youtube.com/watch?v=GrUs2QMF1ns
Adventure in ZFS Data Recovery
https://www.youtube.com/watch?v=y7gQwypNMdk
... muss man nicht ganz so ernst nehmen was man da sieht !
Die meisten Sachen passieren eh im Hintergrund von ZFS, wenn man denn eine gespiegelte Festplatte noch zur verfügung hat.
Die Nahmensbezeichnungen von den Datenträgern zeigen schon das es Linux ist, und nicht FreeBSD .
SSD caching ist nur bis zu 16GB möglich, mehr braucht man nicht.
https://www.computerbase.de/forum/t...sendung-erklaert.1377844/page-2#post-18136083
AllanJude hat zig Vorträge gehalten über Raid, und ZFS usw
http://www.jupiterbroadcasting.com/?s=ZFS
RAID: Obsolete? New Tech BTRFS/ZFS and "traditional" RAID
https://www.youtube.com/watch?v=yAuEgepZG_8
Zuletzt bearbeitet:
DiedMatrix schrieb:Soweit ich mich erinnere kam das aber von einem der Entwickler von FreeNAS, woher stammen deine Infos? Bei NTFS verliere ich nicht ALLE Daten soweit ich weiß?!?
WS bedeutet was?
WS=Workstation.
Das ist Bullshit, wenn ein ("wichtiges") Bit kippt im Dateisystem, kann dir das auch NTFS zerserblen.
ECC ist auch bei alten Dateisystemen wichtig, wenn dir deine Daten wichtig sind, dann aber bitte auch auf der Workstation.
was du ansprichst ist die Prüfsummenberechnung und die hat absolut nichts mit der Parität zu tun,
diese kannst du aber in ZFS auch abschalten, wenn dir das "Risiko" zu gross ist und hast immer noch viele Vorteile von ZFS.
Ich empfehle dir, dich dringend mal in Dateisysteme einzulesen.
Dateiverlust kann ja sowieso praktisch gar nicht auftreten, denn man hat ja immer ein Backup.
Von wo ich die Infos habe? Berufspraxis
Marco^^
Lt. Commander
- Registriert
- Aug. 2012
- Beiträge
- 1.797
DiedMatrix schrieb:Bei NTFS verliere ich nicht ALLE Daten soweit ich weiß?!?
Wie konnte ich nur so etwas überlesen ? *BSD Hörner*
Versuch das mal hier im Raid mit NTFS !
ZFS is Smashing Baby (UNIX)
https://www.youtube.com/watch?v=CN6iDzesEs0
ZFS Feature Overview (FreeBSD v5000)
https://www.youtube.com/watch?v=R9EMgi_XOoo
Zuletzt bearbeitet:
Marco^^
Lt. Commander
- Registriert
- Aug. 2012
- Beiträge
- 1.797
zivilist schrieb:Ich würde da nicht so viel herum experimentieren.
Ich benutze schon seit einigen Monaten BtrFS in /root & /home + discard auf einer 128GB Intel SSD, man muss nur aufpassen das man die SSD NICHT vollschreibt.
Sensei21
Commander
- Registriert
- März 2002
- Beiträge
- 2.756
@zivilist:
Les dir mal die Btrfs-Mailing Liste durch,
so einen negativen Trackrecord hat ZFS im Vergleich dazu nicht
Ich setze zwar Btrfs auch für root und /usr/portage ein, kritische Daten landen aber nurmehr auf ZFS-Partitionen (bzw. Pools),
wobei ich zugeben muss, dass ich Datenverlust großtenteils nur auf der Systempartition bis jetzt hatte (mehrmals, 2-mal bis vor ein paar Monaten noch System zerschossen nachdem dieses Suspend-to-Ram durchgeführt hatte, 1-2-Mal nach hardlock kein Zugriff mehr wg. fehlerhaftem Treiber (nicht Btrfs)),
Backup-Partitionen: mind. 1-2-Mal kein Zugriff auf die Platte mehr auf die Platte - von jetzt auf nachher (ging noch - am nächsten Tag bzw. paar Stunden später: nicht mehr erkannt).
Das alles insgesamt innerhalb der letzten 2 Jahre (!)
Mit ZFS ist bis jetzt Vergleichbares noch nicht aufgetreten ...
Les dir mal die Btrfs-Mailing Liste durch,
so einen negativen Trackrecord hat ZFS im Vergleich dazu nicht
Ich setze zwar Btrfs auch für root und /usr/portage ein, kritische Daten landen aber nurmehr auf ZFS-Partitionen (bzw. Pools),
wobei ich zugeben muss, dass ich Datenverlust großtenteils nur auf der Systempartition bis jetzt hatte (mehrmals, 2-mal bis vor ein paar Monaten noch System zerschossen nachdem dieses Suspend-to-Ram durchgeführt hatte, 1-2-Mal nach hardlock kein Zugriff mehr wg. fehlerhaftem Treiber (nicht Btrfs)),
Backup-Partitionen: mind. 1-2-Mal kein Zugriff auf die Platte mehr auf die Platte - von jetzt auf nachher (ging noch - am nächsten Tag bzw. paar Stunden später: nicht mehr erkannt).
Das alles insgesamt innerhalb der letzten 2 Jahre (!)
Mit ZFS ist bis jetzt Vergleichbares noch nicht aufgetreten ...
R
Rumo
Gast
Ich bin altmodisch und halte nicht viel von diesen hoffnungslos hochgedonnerten Dateisystemen. Wenn jedes künftige Dateisystem das Rad neu erfindet (LVM, RAID, ...) steigt die Komplexität ungemein, da bleibe ich lieber bei Dateisysteme die sich aufs wesentliche konzentriere und mache den Rest mit den langjährig erprobten Lösungen.
KurzGedacht
Lt. Commander
- Registriert
- Mai 2013
- Beiträge
- 1.766
PongLenis schrieb:Faustregel ist bei ZFS min. 1 GB RAM pro TB Speicherplatz.
Was bisweilen völliger Unfug ist.
Hab ein Backup NAS mit 4 GB Ram und 12 TB Speicherplatz laufen und das geht völlig problemlos.
Die 1 GB RAM pro TB gelten bei vor allem bei Deduplizierung.
Richtig ist aber auch: Wenn viele Nutzer gleichzeitig zugreifen, profitiert ZFS schon extrem von viel RAM
Rumo schrieb:Ich bin altmodisch und halte nicht viel von diesen hoffnungslos hochgedonnerten Dateisystemen. Wenn jedes künftige Dateisystem das Rad neu erfindet (LVM, RAID, ...) steigt die Komplexität ungemein, da bleibe ich lieber bei Dateisysteme die sich aufs wesentliche konzentriere und mache den Rest mit den langjährig erprobten Lösungen.
Ich halte nichts von LVM und Raidcontroller, nur zusätzliche Fehlerquellen und zusätzliche Abstraktionsschichten.
Dazu noch das Theater, wenn der Raid-Controller das Zeitliche segnet.
KurzGedacht schrieb:Was bisweilen völliger Unfug ist.
Hab ein Backup NAS mit 4 GB Ram und 12 TB Speicherplatz laufen und das geht völlig problemlos.
Die 1 GB RAM pro TB gelten bei vor allem bei Deduplizierung.
Richtig ist aber auch: Wenn viele Nutzer gleichzeitig zugreifen, profitiert ZFS schon extrem von viel RAM
Auch für die Writes sind viel RAM unabdingbar, aber den L2ARC gibt es ja auch noch.
@AAS "Ich halte nichts von LVM und Raidcontroller, nur zusätzliche Fehlerquellen und zusätzliche Abstraktionsschichten.
Dazu noch das Theater, wenn der Raid-Controller das Zeitliche segnet."
DANKE! Genauso sehe ich das auch. Warum dieser ganze Mist drum herum wenn das FS alles selber kann und das auch noch sehr sehr einfach.
Dazu noch das Theater, wenn der Raid-Controller das Zeitliche segnet."
DANKE! Genauso sehe ich das auch. Warum dieser ganze Mist drum herum wenn das FS alles selber kann und das auch noch sehr sehr einfach.
btrfs im RAID 1 Modus ist stabil.
RAID 5/6 hat wohl noch Probleme und wird nicht empfohlen.
Aber auch normales RAID 5/6 scheint auch nicht gerade eine Empfehlung zu sein.
Sehr schwer zu handhaben wenn da mal was daneben geht.
Ubuntu mit ZFS wendet sich wohl eher an die Klientel welche ZFS schon im größeren Stil im Einsatz hat
Google admin empfiehlt btrfs für den Produktiv-Einsatz in kommerziellen Anwendungen.
Wer ein neues System aufsetzt dürfte mit btrfs wesentlich besser bedient sein.
RAID 5/6 hat wohl noch Probleme und wird nicht empfohlen.
Aber auch normales RAID 5/6 scheint auch nicht gerade eine Empfehlung zu sein.
Sehr schwer zu handhaben wenn da mal was daneben geht.
Ubuntu mit ZFS wendet sich wohl eher an die Klientel welche ZFS schon im größeren Stil im Einsatz hat
Google admin empfiehlt btrfs für den Produktiv-Einsatz in kommerziellen Anwendungen.
Wer ein neues System aufsetzt dürfte mit btrfs wesentlich besser bedient sein.
Marco^^
Lt. Commander
- Registriert
- Aug. 2012
- Beiträge
- 1.797
Fred_EM schrieb:btrfs im RAID 1 Modus ist stabil.
https://btrfs.wiki.kernel.org/index.php/Main_Page#Stability_status
How much space do I get with unequal devices in RAID-1 mode?
https://btrfs.wiki.kernel.org/index..._I_get_with_unequal_devices_in_RAID-1_mode.3F
Ich hatte erst vor einigen Tagen ein uptate von btrfs-progs bei openSUSE42.1
#
Code:
:zypper info btrfsmaintenance
-----------------------------------------
Repository: OSS
Name: btrfsmaintenance
Version: 0.1.1-10.2
Arch: noarch
Vendor: openSUSE
Installed: Yes
Status: up-to-date
Installed Size: 27.7 KiB
Summary: Scripts for btrfs periodic maintenance tasks
Description:
Scripts for btrfs maintenance tasks like periodic scrub, balance, trim or defrag
on selected mountpoints or directories.
#
Code:
:zypper info btrfsprogs
-----------------------------------
Repository: Update
Name: btrfsprogs
Version: 4.1.2-10.1
Arch: x86_64
Vendor: openSUSE
Installed: Yes
Status: up-to-date
Installed Size: 2.8 MiB
Summary: Utilities for the Btrfs filesystem
Description:
Utilities needed to create and maintain btrfs file systems under Linux.
$
Code:
uname -a
Zuletzt bearbeitet:
fethomm schrieb:Btrfs im Desktop-Einsatz hat noch einige Probleme, wie etwa, das des öfteren ein volles Dateisysten ohne weiteren Platz angezeigt wird, obwohl dies nicht den Tatsachen entspricht.
Dieses Problem existiert doch schon seit einer gefühlten Ewigkeit. Gibt es einen Grund warum man das bisher noch nicht behoben hat?
Zuletzt bearbeitet:
roidal schrieb:Dieses Problem existiert doch schon seit einer gefühlten Ewigkeit. Gibt es einen Grund warum man das bisher noch nicht behoben hat?
Das war bei mir eine komische Geschichte. Ich hatte aus Doofheit bei Bleachbit Überschreiben des Speichers mit aktiviert und das hat mir die ganze freie SSD ausgenullt - fast. Ich hatte kurz vor Schluss, auch weil die SSD immer langsamer wurde, den Prozess abgewürgt. Dadurch war die betreffende "Löschdatei" mit einem furchtbar langen Namen noch da und ich habe die von Hand gelöscht. Danach habe ich dann nach einem Kommando für btrfs gesucht und das hat mir irgend etwas mit ca. 100GB angezeigt. Mir ging die Muffe, aber ich war zu faul, genau die man-Pages zu lesen und zu verstehen. btrfs scrub dauert nach wie vor nur 19 Sekunden und zeigt etwa 5GB an und clonezilla analog. Da von 128GB nur ca. 5GB benutzt sind, ist mir TRIM egal, weil die Garbage Collection der SSD das auch so schafft.
Nachtrag: Vielleicht gibt es noch so ein paar DAUs wie mich, die einfach einen hohen Wert falsch interpretieren?
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 12
- Aufrufe
- 1.367
- Antworten
- 12
- Aufrufe
- 1.968
- Antworten
- 7
- Aufrufe
- 2.364