Raid Controller Karte für Ubuntu 20.04

@Muarl
1592345535482.png


Gescheite ECC Hardware muss nicht sonderlich teuer sein.
Es fehlen 2 Kerne und SMT, aber selbst 4 Kerne ohne SMT sind für ein NAS welches 2GBe Anschlüsse hat mehr als genug. Selbst die 32GB Ram sind viel, das könnte weniger sein, wenn es keine entsprechende Anwendungen gibt. Deduplication wäre so ein Feature, aber Anwendungsfälle, die von Dedup sind bei privaten Systemen eher selten.
Vorteil, das Board hat direkt 8x Sata und genügend Platz für einen weiteren Sata Adapter und eine Netzwerkkarte (falls 10GBe kommen soll).
 
Danke für den Vorschlag - allerdings bin ich auf Mini-ITX beschränkt durch das Gehäuse. Des weiteren brauch ich für meinen Anwendungszweck umbedingt eine Intel CPU mit integrierter Grafikeinheit.
Ich verwende den "Server"als Plex Lösung und nutze einige Docker Container darauf.

Im Speziellen ist für mich die Hardwarebeschleunigung von Plex von großer Bedeutung, deswegen auch die iGPU.
 
manche werfen hier mit ihrem gefährlichen ZFS Halbwissen um sich, das ist ja nicht mehr feierlich...

Physikalische Laufwerke (devices) werden zu VDEVs zusammen gefasst und bilden die Redundanz ab.
Aus einem oder mehreren VDEVs besteht ein Pool. Innerhalb des Pools lassen sich mehrere "Dateisysteme" anlegen, die Datasets sowie weitere Blockdevices, genannt ZVOLs, die man z.B. benötigt wenn man iSCSI verwenden möchte.
VDEVs können nachdem sie angelegt werden nicht mehr verändert werden in Bezug auf Anzahl der HDDs oder in Bezug auf das "Level" (single, mirror, zraid1/2/3).
Zu einem Pool können jederzeit weitere VDEVs hinzugefügt werden werden um den Pool zu vergrößern aber niemals entfernt werden.
Diese weiteren VDEVs können die gleiche Anzahl an Laufwerken und Redundanzen haben wie die bisherigen, müssen es aber nicht. Du kannst also ein vdev mit 4 HDDs und zraid1 und eine vdev mit 2 HDDs als Mirror und eine vdev mit 5 Laufwerken und zraid2 kombinieren. Macht nicht wirklich Sinn aber technisch möglich...

Disclaimer: In der Theorie kann man schon vdevs entfernen, zumindest unter dem guten alten Solaris (möge es in Frieden ruhen) und ggf. auch unter *BSD (Quelle). Linux verwendet jedoch openZFS als Implementierung, da ist removal of single devices and mirrored vdevs auf der Roadmap (Quelle).

Zu deiner Wunschliste aus dem Eingangsbeitrag:
i5 unterstützen afaik kein ECC. Wenn du ECC + iGPU willst dann bleiben in den günstigeren Preisklassen Celeron, Pentium oder i3...

Zu den HBAs: Neue wurden ja schon empfohlen, unter *BSD ist/war der IBM M1015 ein mehr oder weniger offen bekannter Geheimtipp. Bekommst in der Bucht und gebraucht für um die 100€ oder mal etwas weniger mit etwas Glück. Bietet Anschlüsse für bis 8 SATA Laufwerke und die Firmware lässt sich in den "IT-Mode" flashen und dann kannst die Laufwerke einzeln ansprechen. 4TB Laufwerke laufen auf jeden Fall dran, bei ggf. größeren müsstest mal selbst kurz recherchieren wie das aktuell ist.
 
Alle Ryzen ohne iGPU unterstuetzen auch ECC. Auf der Arbeit haben wir so guenstig ein NAS mit Ryzen 1200 und 16GB ECC RAM gebastelt.
 
snaxilian schrieb:
Das ist toll für dich/euch aber wie genau hilft das jetzt dem TE, denn:

Ist es denn verboten Alternativen zu nennen?

Man koennte auch eine kleine GPU dazustecken, fuer die Hardwaredecodierung.
 
Damit die Alternative einen Sinn machen würde müsste der TE sich ein anderes Gehäuse und anderes Mainboard aussuchen.
Das gewünschte Case erlaubt maximal mini-ITX Boards und er sucht jetzt eine PCIe Karte als HBA. Wie genau soll da jetzt noch eine extra GPU hinzu kommen? Mir wäre kein einziges Mainboard mit mini-ITX bekannt, dass 2x PCIe Steckplätze bietet...

Damit eine zweite Karte passen würde, müsste der TE auf ein anderes/größeres Gehäuse wechseln, z.B. vom DS380 auf das CS380 und dann ein anderes Mainboard. Gehäuse liegen preislich grob in einem Bereich aber ein größeres Board mit den Fähigkeiten des mini-ITX (ecc, wifi, 2x gbit lan, 6x SATA, 1x M.2 PCIe und dann jetzt ja 2x PCIe) kostet 30 oder gleich 80€+ mehr. Gut im Gegenzug würde man bei der CPU zwischen 5 und ~60€ sparen je nachdem welche man nehmen würde.

Hinzu kommen die Kosten für eine GPU von 120€ aufwärts, der TE will ja offenbar plex transcoding verwenden und wenn die Karte h265 als auch transcoding unterstützen soll und wenig Energie verbrauchen, sprich kein extra Stromanschluss, dann geht es afaik ab einer 1050 los, sprich die eben erwähnten 120€.

Deine Alternative würde also eine Umplanung des halben Servers bedeuten, der mehr Stellfläche benötigt und im Stromverbrauch über der bisherigen Lösung des TEs liegen. So ganz sehe ich den Vorteil dieses Vorschlags noch nicht aber vielleicht übersehe ich ja auch etwas entscheidendes...

Hängt auch Ende davon ab ob sich der TE dafür interessiert oder wie der Titel es andeutet, er nur einen passenden HBA sucht.
 
danke @snaxilian da hat sich jemand den thread sinnerfassend durchgelesen. :)
Ich wollte bei einem relativen kleinem Gehäuse bleiben und mir waren die Einschränkungen durchaus bewusst, im Speziellen mit einer Controllerkarte (HBA) oder halt dezidierter GPU.

Das ich bei der Konfig nicht gleich ECC Ram genommen habe, ist blöd werd ich aber aktuell halt verschmerzen müssen, bis mir eine Komponente eingeht - oder ich das ganze Pack (MB, CPU, RAM) gut verkaufen kann.

Die Informationen im Bezug auf ZFS nehm ich gerne an - stehen aber soweit ich das bereits im Thread mitbekommen habe halbwegs gut hier aufgelistet: ZFS without Tears

Vl. kann mir noch einer ganz genau die Problematik im Bezug auf ZFS und EEC kurz beschreiben - kann man das so zusammenfassen, dass ZFS aufgrund seiner Eigenschaften (Memory usage) korrupte Dateien schreibt wenn mal Blöd gesagt "ein Bit umfällt"?
 
Zum Thema ZFS ohne ECC steht ja bereits was im verlinkten Artikel. Ansonsten das was du beschreibst ist eine der Möglichkeiten.

Zu schreibende Daten werden auf dem System erzeugt (oder kommen von außen irgendwie dahin), wandern immer in den RAM und werden ans StorageSubSystem (HBAs/Controller und dann an die jeweiligen Laufwerke) weiter gegeben. Das ist aber keine Besonderheit von ZFS sondern so ziemlich überall wenn man von klassischem Storage spricht. Bei HPC Lösungen mit Infiniband und RDMA oder NVMeoF ist das etwas anders aber damit werden die allerwenigsten hier jemals auch nur ansatzweise in Betracht kommen.

Eine 2009 vorgestellte Studie untersuchte die Fehlerraten in allen damals weltweit vorhandenen Datacenter von Google und kam (stark verkürzt) zum Ergebnis, dass ~8% aller DIMMs pro Jahr Fehler aufwiesen (Quelle).
Im absoluten Worst Case kann das dann bei den eigenen Fotos und Erinnerungen so aussehen: https://arstechnica.com/information...nd-atomic-cows-inside-next-gen-filesystems/3/ und ans Ende scrollen. Hier im letzten Absatz vom Abschnitt Research ist auch ein Beispiel mit Excel. Aber wie gesagt: Worst Case Szenarien.
Wenn du beispielsweise ausschließlich Dateiformate verwendest die eigene Checksummen mitbringen dann bräuchte die Welt weder ZFS noch BTRFS etc. Aber das kostet Speicherplatz und ist doof für die Kompression, ergo sind wir wieder bei ZFS etc.
Gleiches gilt natürlich wenn die Daten schon Fehler aufweisen bevor diese in die Obhut von ZFS gegeben werden. Ein prominentes Beispiel von vielen war Xerox vor fast 10 Jahren: https://media.ccc.de/v/31c3_-_6558_...u_nicht_selbst_gefalscht_hast_-_david_kriesel
Alternativ kannst du natürlich auch selbst mittels sha256 von allen deinen Daten die Checksummen erstellen und abspeichern und regelmäßig vergleichen inklusive der Daten im Backup und wenn es irgendwo eine Abweichung geben sollte, kannst es ja versuchen manuell wiederherzustellen oder greifst aufs Backup zurück aber wozu das Leben verkomplizieren?^^

Ein fehlerkorrigierendes Dateisystem zu verwenden ist also angebracht wenn man seine Daten mag. Warum sollte man dann auf der anderen Seite seine Daten gefährden durch RAM, der keine Fehler bemerkt? Das muss ja nicht nur beim initialen erstellen/abladen der Dateien sein. Reicht ja auch wenn ich auf dem System eine Datei bearbeite und abspeichere. Dann sollen natürlich auch nur meine eigenen Änderungen gespeichert werden und nicht "Änderungen" durch ein zufälliges Bit-Flip.
Wenn man dann natürlich die Daten vom NAS auf den Laptop kopiert, da verändert und wieder speichert und am Laptop treten Bitfehler auf, kann ZFS im NAS natürlich nix dafür und würde dies auch nicht erkennen können, woher auch? Da müsste man dann schon im Laptop ECC verwenden und auch die Übertragungswege absichern wobei das heutzutage bei so ziemlich jeder Art der verschlüsselten Übertragung der Fall ist.

Der vermeintlich hohe RAM-Verbrauch von ZFS kommt von der Nutzung des RAMs als ARC, also Lese-Cache. Ansonsten wird der "nur" verwendet wenn der hoffentlich regelmäßig eingerichtete Scrub läuft, da werden die eigentlichen Nutzdaten sowie deren Checksums von ZFS komplett eingelesen und verglichen und sollte ein fehlerhafter Sektor auf einer der HDDs vorliegen dann kann dies korrigiert werden. Die Checksummen der Daten nicht verwechseln mit den Paritätsdaten in den VDEVs (mirrored, raidz1/2/3), die dienen v.a. zur Wiederherstellung bei Ausfall einer kompletten HDD.

Bit-Flips passieren ja nicht nur im Ram sondern auch auf HDDs. Wie wahrscheinlich diese sind erkennt man rein statistisch im Datenblatt an der URE oder UBER. Aber das ist ein ganz anderes Minenfeld und dank der Eigenschaften von ZFS nicht ganz so schlimm ggü. "klassischen" Dateisystemen und für den Fall der Fälle hat man ja natürlich immer aktuelle Backups oder akzeptiert dann den Datenverlust nach ein wenig mimimi. Aber ich schweife schon wieder ab und hoffe, ich konnte die Fragen bzw. Vor- & Nachteile ECC halbwegs gut erklären.
 
  • Gefällt mir
Reaktionen: lokon
@Muarl i3 CPUs (bis 4Kerne, ohne SMT) gibt es auch mit iGPU genauso wie die Intel Xeons für 1151v2 Sockel. Auch gibt es Boards mit C246 Chipsatz (notwendig, damit die iGPU genutzt werden kann) im mITX Format. Die sind dann leider teurer.

NJay schrieb:
Alle Ryzen ohne iGPU unterstuetzen auch ECC. Auf der Arbeit haben wir so guenstig ein NAS mit Ryzen 1200 und 16GB ECC RAM gebastelt.
Glückwunsch zum Gefrickel, AMD CPUs können zwar Fehlerkorrektur aber kein Reporting. Wenn der Speicher anfängt Fehler zu fabrizieren fliegt ihr damit blind anstatt gegensteuern zu können.
https://forum.level1techs.com/t/asrock-rack-x470d4u2-2t/147588/69
 
  • Gefällt mir
Reaktionen: snaxilian
snaxilian schrieb:
Der vermeintlich hohe RAM-Verbrauch von ZFS kommt von der Nutzung des RAMs als ARC, also Lese-Cache.
Die Veröffentlichung von Aaron Toponce ist inzwischen zwar schon etwas älter, aber immer noch sehr gut, wenn es um das Thema ZFS geht: Deduplizierung kostet sehr viel, im Gegensatz zur Komprimierung.
Ergänzung ()

Piktogramm schrieb:
Glückwunsch zum Gefrickel, AMD CPUs können zwar Fehlerkorrektur aber kein Reporting.
Einerseits ist es natürlich "Gefrickel", aber das ist am Ende auch eine Geschäftsentscheidung. Meine Daten sind bei AWS besser aufgehoben?
Ich habe mir den Thread über AMD und ECC angesehen, und zitiere dich hier mal.
Mir persönlich reicht es aus, wenn bei einem 2Bit-Fehler das System stehen bleibt. Die einfacheren Fehler werden vom ECC RAM kommentarlos beseitigt. - Das ist für mich im privaten Umfeld schon großer Luxus.
Wenn hingegen eine Enterpriseanwendung insgesamt mehrere Millionen Euro kostet, dann fällt die Hardware kaum mehr ins Gewicht. - Und damit meine ich nicht so einen Mist.
 
Zuletzt bearbeitet:
Von AWS habe ich gar nichts geschrieben...
Für kleine Server die ECC inkl. Reporting und IPMI können sollten, ist Intel gerade besser aufgestellt. die Mehrkosten sind verkraftbar wenn es Selbstbau sein soll.

Wenn du mich schon "zitierst", ich schreibe ja schon. Dass so ein Systemhalt ohne Logeintrag ganz schön beschissen wäre, eben weil die Ursache nicht zu erkennen wäre. Zudem der Systemhalt auch nur kommt, wenn Fehler im Kernelspace auftreten. Im Userspace werden Programme einfach hart abgeschossen und neugestartet. Je nach Anwendung ist das ebenfalls ungünstig.
 
Piktogramm schrieb:
Glückwunsch zum Gefrickel, AMD CPUs können zwar Fehlerkorrektur aber kein Reporting. Wenn der Speicher anfängt Fehler zu fabrizieren fliegt ihr damit blind anstatt gegensteuern zu können.
https://forum.level1techs.com/t/asrock-rack-x470d4u2-2t/147588/69

Nun lass mal die Kirche im Dorf, die Fehler gehen lediglich nicht über den Managementport raus sondern schlagen via MCE (syslog/mcelogd/rasd) beim OS auf. Gefrickel ist was anderes.
Ergänzung ()

Piktogramm schrieb:
Wenn du mich schon "zitierst", ich schreibe ja schon. Dass so ein Systemhalt ohne Logeintrag ganz schön beschissen wäre, eben weil die Ursache nicht zu erkennen wäre. Zudem der Systemhalt auch nur kommt, wenn Fehler im Kernelspace auftreten..

Selbst sogenannte Enterprise-HW legt sich gerne mal auf die Fresse ohne einen Logeintrag im Management, und dann beginnen die Diskussionen und die Techniker Wanderung. Und normalerweise kündigen sich RAM-Probleme mit korrigierbaren Fehlern an.

Piktogramm schrieb:
Im Userspace werden Programme einfach hart abgeschossen und neugestartet. Je nach Anwendung ist das ebenfalls ungünstig.

Dann braucht man ein bessere Anwendungsarchitektur. Oder man nutzt Weltraumtechnik mit mehr Redundanz die ist aber wesentlich langsamer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lokon
mea culpa
AWS ist mein Stichwort. - Auch dort ist nicht alles Gold was glänzt...
Reporting von dem Fehler ist mir als Privatmensch nicht wichtig. Wenn das System einen Halt einlegt, dann ist das deutlich genug. In einer Enterpriseumgebung ist das etwas anderes.
Einen ausgewachsenen Server von einem Markenhersteller mit einem Selbstzusammenbau mit Ryzen zu vergleichen, das ist einfach unfair.
Wünsche und Ansprüche bzw. Notwendigkeiten sind nun einmal unterschiedlich. Wichtig ist am Ende nur eine bewusste Entscheidung zu treffen. Egal ob ich privat 1.000 EUR oder geschäftlich deutlich mehr ausgebe.
 
  • Gefällt mir
Reaktionen: Piktogramm
foofoobar schrieb:
Nun lass mal die Kirche im Dorf, die Fehler gehen lediglich nicht über den Managementport raus sondern schlagen via MCE (syslog/mcelogd/rasd) beim OS auf. Gefrickel ist was anderes.
Ergänzung ()

Es beschränkt sich nicht nur auf das Management, ob dem Betriebssystem ein korrigierter Fehler gemeldet wird scheint nach div. Diskussionen stark von der Firmware des verwendeten Motherboards abzuhängen.
Ich bleibe bei Gefrickel, Systeme die entsprechende Fehler garantiert ordentlich behandeln gibt es für wenige hundert Euro mehr..

Ansonsten, ja nur weil irgendwo "Enterprise" dran steht, heißt das noch nicht, dass es kein sehr Teurer Müll ist.
 
10 Jahre habe ich gewartet bis endlich die "native" Verschlüsslung kam, dann diese Kernel Geschichte. Also vielleicht in 10 Jahren?
 
Zurück
Oben