Ubuntu Server 20.04.1 LTS - RAID5

B

Blokkmonsta93

Gast
Hey, kann mir jemand erklären, wie ich bei der Installation mit drei Festplatten RAID5 einrichte ohne LVM zu verwenden und ohne das Ganze nachträglich zu machen?

Bei meinem ersten Versuch waren alle Festplatten unbrauchbar und ich musste diese ausbauen, an meinem Windows-PC anschließen und dort nochmal formatieren...
 
Das ist jetzt so Semi-Passend zu Frage, aber ich wuerde an deienr stelle ein ZFS Raid-Z1 statt RAID5 nutzen, ist quasi ein Raid5, nur mit vielen Vorteilen von ZFS. Zum erstellen reicht ein Befehl (Nachdem die ZFS userspace tools installiert wurden):

zpool create pool-name raidz1 /dev/sdx /dev/sdy /dev/sdz

Wird danach automatisch gemountet nach /pool-name
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Arc Angeling und konkretor
Blokkmonsta93 schrieb:
Bei meinem ersten Versuch waren alle Festplatten unbrauchbar und ich musste diese ausbauen, an meinem Windows-PC anschließen und dort nochmal formatieren...
Das hätte mit nem Livelinux genauso funktioniert (oder sogar mit dem Livewindows) und hätte sich bei der Installation eines Linux auch geraderücken lassen. Aber wer gerne bastelt... ;)

Blokkmonsta93 schrieb:
wie ich bei der Installation mit drei Festplatten RAID5 einrichte
Ohne Wissen über das konkrete System sage ich jetzt einfach, geh beim Starten ins BIOS deines Hardware-Raid-Controllers und richte das Raid da ein. Dein Linux sieht dann nur das fertig eingerichtete Raid5-Volume.

Falls dein Linux ZFS kann (und auch davon booten kann) und du keinen Hardware-Raidcontroller hast, benutz ZFS, wie @NJay schreibt. Einfach mal die Suchmaschine deines Vertrauens bemühen.
 
KillerCow schrieb:
Falls dein Linux ZFS kann (und auch davon booten kann) und du keinen Hardware-Raidcontroller hast, benutz ZFS, wie @NJay schreibt. Einfach mal die Suchmaschine deines Vertrauens bemühen.

Ich bin jetzt mal davon ausgegangen, dass das OS auf einer anderen SSD oder so installiert ist, nur ein Raid5 zu nutzen ist ja eher unueblich mittlerweile, das OS gehoert auf ne SSD.

Ubuntu kann ZFS auf jeden Fall, habe es selbst gestern erst eingerichtet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KillerCow
Tatsächlich ist es die Vorgabe, dass wir ein System mit einer alten CPU und nur 4 GB DDR3-RAM verwenden sollen. Wir dürfen kein LVM verwenden, es nicht im BIOS machen und nicht nachträglich. ZFS ist bei uns auch keine Option. Kann man denn RAID5 überhaupt bei der Installation unter diesen Vorgaben einrichten?
 
Was heisst ihr "duerft" das nicht machen?
 
Projekt-Arbeit, aber wir kommen ums Verrecken nicht mehr weiter. Alles was wir dazu finden ist verboten. Wir bekommen aber auch keine Unterlagen. Ich sehe einfach nicht den Sinn dahinter, dass wir ein anscheinend komplett ausgedientes Verfahren benutzen müssen. Niemand hat bisher eine Lösung gefunden und wir haben schon bei anderen Informatikern aus dem Freundes- und Bekanntenkreis nachgefragt.
 
Projektarbeit fuer was? Uni? Warum sollten manche vorgehen verboten sein?
Und sollt ihr Ubuntu AUF einem Raid5 installieren, oder ist es installiert und ihr habt drei weitere Festplatten, die zu einem Raid 5 verbunden werden sollen?
Ergänzung ()

Grundsaetzlich kann man Software raids unter Linux mit mdadm erstellen. Hab ich auch schon mal gemacht, aber ZFS ist einfach besser.
 
Da steht jetzt nichts davon, dass ZFS verboten waere. Da kannst du einfach den von mir oben verlinkten befehl nehmen und anpassen.
 
Natuerlich. Nur eifnach mit dem Befehl ist es ja nicht getan. Du musst vorher noch die ZFS User Utils installieren und im Befehl die Platzhalter fuer deine Festplatten ersetzen. Die Benennung deiner Festplatten findest du z.B. mit lsblk heraus.
 
Okay, dann erstmal vielen Dank an dieser Stelle. Ich werde morgen mal in Erfahrung bringen, ob das zulässig ist. :)
 
Ansonsten halt ein klassisches md raid (mdadm). Google einfach mal danach :)
ZFS wäre auch meine Wahl, aber nicht bei 4GB Ram... jedenfalls nicht bei großen Filesystemen.
 
foo_1337 schrieb:
ZFS wäre auch meine Wahl, aber nicht bei 4GB Ram... jedenfalls nicht bei großen Filesystemen.

Solange man kein dedup oder andere extrem RAM Fressende Features aktiviert ist die benoetigte Menge an RAM bei ZFS ein irrglaube. ZFS kann davon profitieren, viel RAM zu haben, fuer die meisten Use-Cases ist es aber nicht notwendig.

ZFS mit wenig RAM ist zwar langsamer als ZFS mit viel RAM, aber nicht langsamer als andere Filesysteme wie ext4 oder NTFS.
 
Du willst vermutlich auf die dämliche 1GB pro 1TB „Regel“ hinaus. Das ist quatsch, ja. Die für mich typischen Use Cases benötigen jedoch deutlich mehr als 4GB, aber auch nicht mehr als 64GB Ram. ARC ist einfach wichtig. Und für slog halt schnelle nvme. Klar, für ne Kiste zuhause reichen sicher auch 2G :)
Wie du darauf kommst, dass zfs grundsätzlich besser performed als ext4 erschließt sich mir nicht. Denn das Gegenteil ist der Fall, auch nach den Improvements seit Linux 5.3. Wenn mir meine Daten jedoch wichtig sind, nehme ich zfs.
 
foo_1337 schrieb:
Du willst vermutlich auf die dämliche 1GB pro 1TB „Regel“ hinaus.
Wieso sollte das dämlich sein? Hast du schon mal einen 400TB ZPOOL erstellt und 500 User gleichzeitig per Samba verbunden? Ich kann dir sagen RAM ist der Booster schlechthin. Es kommt halt immer noch drauf an, was die Maschine sonst noch macht.

Ansonsten ist "mdadm" ein Tool welches die RAID5 erstellen kann:
Code:
~% mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 /dev/sda /dev/sdb /dev/sdc
~% cat /proc/mdstat
 
  • Gefällt mir
Reaktionen: Blokkmonsta93
Ich sprach ausschließlich von RAM für zfs. Dass andere Applikationen auf der Kiste noch RAM benötigen, sollte klar sein. Wenn die 1GB pro 1TB Regel stimmen würde, bräuchte ich auf diversen Kisten hier über 1TB Ram... ;) Viel wichtiger ist, dass man nicht über 80% Usage kommt.
 
foo_1337 schrieb:
Wie du darauf kommst, dass zfs grundsätzlich besser performed als ext4 erschließt sich mir nicht. Denn das Gegenteil ist der Fall, auch nach den Improvements seit Linux 5.3. Wenn mir meine Daten jedoch wichtig sind, nehme ich zfs.

arstechnica hat dazu dazu vor nem halben Jahr mal einen Test gemacht. Sie haben dieses Geruecht nachgestellt und ext4 gegen ZFS gebencht, auch mit wenig RAM. Mal war ZFS schneller, mal ext4, es hat aber keinen grossen Unterschied gemacht. Ich kann den Link gerne nochmal raussuchen, wenns dich interessiert.

Da es sich hier eh nur um eine Aufgabe handelt, ist es aber komplett zu vernachlaessigen. Hier werden eh keine 500 user per SMB darauf zugreifen. Sondern 0 User. :D
 
Phoronix ebenfalls und da hat IIRC ext4 in den meisten Fällen gewonnen. Aber müsste ich nochmals nachschauen, ich verlasse mich da eher auf meine eigenen Tests auf der dafür verwendeten HW ;) Zumal halt auch die Frage ist: Was genau wird gebencht? Das reine FS oder auch das "Softraid"? Wenn letzteres miteinbezogen wird, dürfte zfs an Punkten gewinnen. Wenn es rein um Filesystem auf einer nackten Platte geht, dürfte ext4 in fast allen use-cases die Nase vorn haben.
Wobei ich bisher auch noch nicht Linux produktiv für zfs genutzt habe, sondern nur Solaris und in den letzten Jahren ausschließlich FreeBSD. Das wird sich aber dank der Fortschritte in zfsonlinux nächstes Jahr ändern.
Am Ende ist es halt wie immer: Der Use-Case entscheidet.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben