• ComputerBase erhält eine Provision für Käufe über eBay-Links.

Raid 5 mit 3 x 8TB Platten

Klar daher hab ich ja auch RAID 6 jetzt, aber auch da ist die Ausfallwahrscheinlichkeit ja wohl ähnlich hoch wie bei 5, nur dass bei einem zweiten Ausfall halt die Integrität gewahrt bleibt. Hab btw erst auf 6 gewechselt als ich mehr als 8 Platten im Verbund hatte, und zwar on the fly.
 
puri schrieb:
Das Problem bei vielen Adaptecs ist nur, dass sie nur passiv gekühlt sind und bei intensiven Aufgaben (Build/Rebuild/Stundenlange Kopierjobs) die CPU sehr heiß wird, dass die ganze Kiste mir sogar deswegen abgeschmiert ist. Am besten einen Gehäuselüfter darauf richten, dann ist alles gut.
Das Stimmt - allerdings sind die auch weniger für den Heimgebrauch gedacht, sondern mehr für den einbau in 2-4HE Server wo durch die Turbinen eh genug Luft dran vorbei gedrückt wird.

Bei meinen 2 5805 ist aber auhch n Lüfter dran :))
 
xamoel schrieb:
Klar daher hab ich ja auch RAID 6 jetzt, aber auch da ist die Ausfallwahrscheinlichkeit ja wohl ähnlich hoch wie bei 5, nur dass bei einem zweiten Ausfall halt die Integrität gewahrt bleibt.

Hängt ein wenig davon ab, worauf man die Ausfallwahrscheinlichkeit bezieht. Die Wahrscheinlichkeit für eine Störung (also Ausfall einer Platte um die man sich schleunigst kümmern sollte) steigt eher mit der Anzahl der Platten und weniger mit dem RAID Modus, insofern wäre sie ähnlich.
Die Ausfallwahrscheinlichkeit eines gesamten RAID 6 ist aber durch die zusätzliche Parität-Platte bedeutend niedriger als bei RAID 5 und das ist für mich der entscheidende Punkt, denn ich kümmere mich natürlich immer sofort um Ersatz einer defekten Platte und warte nicht erst bis zwei tot sind bevor ich sie ersetze, habe immer eine auf Lager (Coldspare sozusagen).
Habe bei meinem RAID 6 auch bereits einen Ausfall einer Platte gehabt und konnte so gleich einen erfolgreichen Rebuild durchführen.
 
Warum seid ihr alle so sicher, dass bei einem Raid5 Rebuild eine zweite Platte abschmieren wird?
Sterben Festplatten wie die fliegen weg oder was ist da los?

Was für eine Alternative habe ich denn sonst, ohne einen neuen Server zu kaufen? Mein Server hat aktuell 4 Slots für Festplatten (im Gehäuse) und ich dachte mir, wenn ich da am Ende 4*8TB drin habe und 3*8TB nutzen kann, dann ist es okay.

Ne wirkliche Alternative gibt es da ja nicht, außer z.B. RAID 1 zu verwenden, was in meinen Augen eine riesen Speicherverschwendung ist.
RAID6 lohnt sich in meinen Augen bei 4 Festplatten nicht (falls das überhaupt funktionieren würde),
RAID10 (siehe RAID1).


In erster Linie wird der Server übrigens als Mediaserver verwendet. Da sollen viele Filme und Serien drauf gespeichert werden. Weiterhin benutze ich ein paar andere Serveranwendungen im kleineren Rahmen: teamspeak, gamingserver, nextcloud, etc.
 
Tockra schrieb:
Warum seid ihr alle so sicher, dass bei einem Raid5 Rebuild eine zweite Platte abschmieren wird?
Sterben Festplatten wie die fliegen weg oder was ist da los?
Nein, wie schon gesagt - das ist quatsch.
4x8TB an nem HW Raid biste am entspanntesten mMn.
 
Tockra schrieb:
RAID6 lohnt sich in meinen Augen bei 4 Festplatten nicht (falls das überhaupt funktionieren würde),
RAID10 (siehe RAID1).

RAID6 geht bei 4 Platten, der nutzbare Speicher wäre aber der gleiche wie bei RAID10 ;)

Die Frage ist halt wie wichtig für Dich die Verfügbarkeit ist. Man muss nämlich nicht unbedingt einen RAID nutzen, nur weil man mehrere Platten hat. Die Vorteile von RAID sind eben auch immer mit Nachteilen verbunden, die erst mal durch die Vorteile aufgewogen werden müssen. Ich persönlich sehe in Deiner Konstellation mit Consumerplatten und herkömmlichen Controllern bzw Software-Raid keine Situation in der ich einen RAID nutzen würde. Aber das ist jetzt nur meine Meinung.

KuanYin schrieb:
Nein, wie schon gesagt - das ist quatsch.
Nein es ist kein Quatsch, aber natürlich besteht auch kein Grund zur Panik wenn man ein Backup hat. Ich kann auf 3 Fälle im Bekanntenkreis zurückblicken wo genau das in der Praxis bei RAID 5 passiert ist, ich habe es mit eigenen Augen gesehen. Eine Platte war ausgefallen und alle Platten waren gleich alt. Dann wurde eine neue eingebaut und der Rebuild gestartet. Durch den teilweise bis zu einem Tag dauernden Rebuild waren die Platten einer dauerhaft hohen Last ausgesetzt, höher als davor im Alltagsbetrieb. Da es möglicherweise einen Fehler in der Charge gab oder es schlicht Altersschwäche war, ist dadurch dann immer jeweils eine weitere Platte ausgefallen. Genau aus solchen Gründen wird bei einem Raid auch empfohlen wenn möglich Platten verschiedener Hersteller und Chargen zu mischen um genau dieses Risiko zu minimieren, das Serienfehler zur gleichen Zeit zuschlagen. Wurde da halt jeweils aus Bequemlichkeit nicht gemacht und das war dann die Quittung dafür.
Ein Rebuild ist Dauerstress für die Platten und nicht mit Alltagsbetrieb im NAS oder Server zu vergleichen, gerade wenn die Platten schon ein paar Jahre in Betrieb waren, steigt dieses Risiko an. Bei meinem Arbeitgeber haben wir auch schon während Rebuild weitere Platten verloren, aber durch andere RAID-Modi und -Controller war das glücklicherweise kein Problem.

Die UBER gibt zudem an, das bei einem Wert von 10^14 alle 10^14 gelesenen bits ein unkorrigierbarer Lesefehler auftreten kann. Wenn das bei einem Rebuild passiert, dann kann dieses Bit nicht mehr korrigiert werden und der Rebuild bricht möglicherweise ab (ob das zwingend passieren muss oder nur eine Datei beschädigt ist, weiss ich gerade auch nicht genau). Und genau das kann man dann gar nicht brauchen. Bei 24TB Nutzdaten die auf einmal gelesen werden tritt ein Fehler während des Rebuilds statistisch gesehen sogar mehrfach auf. Man halt also eine defekte Platte, ist während des Rebuilds darauf angewiesen das alle anderen Platten während des Rebuilds nicht den kleinsten Fehler werfen. Statistisch gesehen kann der Rebuild also gar nicht klappen, in der Praxis hat man durchaus auch Glück, daß die Qualität besser war als erwartet und der Sicherheitsspielraum einem den Arsch rettet. Aber ich persönlich wollte mich nicht drauf verlassen, schon gar nicht, wenn ich das in der Planungsphase bereits berücksichtigen kann.

Wie gesagt, man kann den RAID 5 mit 4x 8TB WD Red aufbauen. Es wird grundsätzlich funktionieren und vielleicht hat man auch Glück und es wird nie was passieren. Und wenn man ein Backup hat und es einen nicht stört, es mit ziemlicher Sicherheit im Störungsfall auch benutzen zu müssen und währenddessen den Server auch nicht braucht, dann mag es wirklich das Risiko wert sein. Aber man sollte dann bitte auch niemandem die Ohren vollheulen wenn es dann doch schief läuft, die Warnung war da.

Meine Empfehlung basiert auf Mathematik und persönlichen Erfahrungen (incl. Berufspraxis), Glücksspiel ist nicht meine Sache, das überlasse ich anderen. Aber jeder wie er will, ist ja nicht meine Zeit und Nerven die dann im Zweifelsfall dafür draufgehen, also macht einfach wie ihr meint wenn ihr es besser wisst.

Hier ist noch ein bißchen Lektüre rund um die UBER- und RAID5-Problematik, falls es wen interessiert:
https://www.heise.de/ct/hotline/Welches-RAID-Level-fuer-viele-Terabytes-2056731.html
https://standalone-sysadmin.com/recalculating-odds-of-raid5-ure-failure-b06d9b01ddb3
https://www.zdnet.com/article/why-raid-5-stops-working-in-2009/
 
  • Gefällt mir
Reaktionen: aemonblackfyre und Rego
Tockra schrieb:
Warum seid ihr alle so sicher, dass bei einem Raid5 Rebuild eine zweite Platte abschmieren wird?
Sterben Festplatten wie die fliegen weg oder was ist da los?
Schau dir etwa mal den Heise-Link in Beitrag #26 von Mad an, da wird es ganz verständlich erklärt.
Im Grund geht es schlicht darum, dass es eine deutlich erhöhte Ausfallwahrscheinlichkeit gibt, wenn ein Raid-Rebuild läuft. Die Kombination von HDD-Größe und Lesefehlerwahrscheinlichkeit sind ab 10+ TB eine recht "kritische" Kombination, so dass am Ende das ganze RAID-Kartenhaus beim Rebuild ggf. zusammenbricht.

ABER: Es muss nicht zwangsweise passieren und muss auch nicht der große Datengau sein. Es ist schlicht ein Risiko, was man nicht unbedingt jedem User ans empfehlen möchte. Am Ende heißt es "es wurde aber gesagt man kann es machen" und dazu kommen dann in ganz vielen Fällen auch noch all die anderen Rattenschwänze an Zusatzproblemen, wie kein externes / veraltetes Backup, etc.

Man kann durchaus seine 10+ TB RAID 5 aufbauen. Ein externes Backup braucht man sowieso und im Fall der Fälle, wenn wirklich eine Platte aussteigen sollte, dann hat man zumindest noch die Möglichkeit erst noch kurz die letzten Daten zu "retten", die man in solchen Fällen nicht gesichert hat (etwa die ganz wichtige Datei XY, die man vor 10 Minuten / gestern drauf gespeichert hat). Danach kann man mit einer neuen Platte den Rebuild anstoßen. Im Optimalfall läuft dann alles wieder, aber es kann eben auch sein, dass der Rebuild nicht funktioniert und eine weitere Platte ausfällt. Aber dafür hat man ja noch das Backup. Man sollte einfach wissen, worauf man sich einlässt.

Sind einem die Daten wichtiger, dann investiert man in RAID 6.
 
MADman_One schrieb:
Nein es ist kein Quatsch, aber natürlich besteht auch kein Grund zur Panik wenn man ein Backup hat. Ich kann auf 3 Fälle im Bekanntenkreis zurückblicken wo genau das in der Praxis bei RAID 5 passiert ist, ich habe es mit eigenen Augen gesehen. Eine Platte war ausgefallen und alle Platten waren gleich alt. Dann wurde eine neue eingebaut und der Rebuild gestartet. Durch den teilweise bis zu einem Tag dauernden Rebuild waren die Platten einer dauerhaft hohen Last ausgesetzt, höher als davor im Alltagsbetrieb. Da es möglicherweise einen Fehler in der Charge gab oder es schlicht Altersschwäche war, ist dadurch dann immer jeweils eine weitere Platte ausgefallen. Genau aus solchen Gründen wird bei einem Raid auch empfohlen wenn möglich Platten verschiedener Hersteller und Chargen zu mischen um genau dieses Risiko zu minimieren, das Serienfehler zur gleichen Zeit zuschlagen. Wurde da halt jeweils aus Bequemlichkeit nicht gemacht und das war dann die Quittung dafür.
Ein Rebuild ist Dauerstress für die Platten und nicht mit Alltagsbetrieb im NAS oder Server zu vergleichen, gerade wenn die Platten schon ein paar Jahre in Betrieb waren, steigt dieses Risiko an. Bei meinem Arbeitgeber haben wir auch schon während Rebuild weitere Platten verloren, aber durch andere RAID-Modi und -Controller war das glücklicherweise kein Problem.

Meine Empfehlung basiert auf Mathematik und persönlichen Erfahrungen (incl. Berufspraxis), Glücksspiel ist nicht meine Sache, das überlasse ich anderen.

Also fangen wir mal an - Kontext wäre natürlich schön. (Berufspraxis)
3 Fälle im Bekanntenkreis - klingt nicht danach, das a) HW Karten aus dem Enterprisebereich genutzt wurden. (Wie ich es hier empfohlen habe) b) das 0815 platten ohne 24/7 eingesetzt wurden. c) man kann rebuilds auch als low priority laufen lassen sodass eben nicht die HDD's auf 100% laufen (ich verweise wiederum auf HW-Raid) und schrubben und den Hitzetot sterben, da keiner dran denkt das Schallplatten LÜFTUNG brauchen.

Wo ich dir Recht gebe - man sollte immer seine Platten mischen - zumindest in der FW Version!
Keine Ahnung wie das bei deinem Arbeitgeber aussieht - sollte so nicht passieren und ist mir persönlich auch nie passiert in 20 Jahren.

2005 habe ich mit Dell ein Storagearray als Test bei meinem damaligen Arbeitgeber eingerichtet, (wenn ich Dell sage, meine ich einen der Dell Entwickler aus den Staaten der das System mitentwickelt hat und nicht nen Dienstleister für Dell der gerade mal An/Aus machen kann. 8x 4HE mit PERC vollbestückung).
Da unsere Software damals schon mit highres Grafiken gearbeitet hat galt: Schnell schneller noch schneller. Kurzum: 128x 24/7 HDD sowie 48x SAS Platten als Raidarray. Das Ding stand 18h pro Tag und Volllast (Da über unser MPLS andere Länder auch drauf waren) Da wir u.A. Inexpensive und nicht Independent genutzt haben (Bewusst) hatten wir immer je 5x Coldstorage da - NIE ist uns in nem Rebuild da jemals was passiert.

Auch als in der Anstellung war hatte ich nie ohne Höhere Gewalt Probleme bei HW-Raid. Die ganzen Linuxbüchsen die wir vorgesetzt bekommen haben (Open-E usw) haben mehr Ausfälle und Probleme gemacht als der Rest sodass mehrfach Kroll involviert worden musste. Unser Linuxadmin war Fan von OpenNAS für unsere unkritischen Projekte bis ihm das um die Ohren geflogen ist.

Mein letzter Dienstleistungskunde hat immer noch ein Array von mir laufen mit 16x 6TB 24/7 WD's
musste eine ersetzten als die UPS kaputt ging und den Fileserver mitgenommen hat. Rebuild kein Thema.

Mein Persönliches prod. NAS hat 16 Platten - aller Herkunft - manche nichtmal 24/7 - letztes Raidproblem - meine BBU musste ersetzt werden... Uptime über 2 Jahre.... Ist mir persönlich auch egal wenn das schrottet - Was wichtig ist - hab ich auf Band. (auch die kosten gebraucht nichts mehr)

Mein fast spiegelgleiches Testnas mit 8 Platten - manche z.T noch von 2008 im Einsatz macht auch keine Mucken.

Deswegen sage ich das die Aussage Quatsch ist, wenn Behauptet wird - beim Rebuild wird dir es kaputt gehen!
Die Adaptecs kosten gebraucht 50€ und sind Klasse. Wenn mans machen möchte kann man das Geld ruhig investieren.

Auszug aus dem Heise Link:
Ein nicht korrigierbarer Lesefehler soll laut der Spezifikation herkömmlicher SATA-Laufwerke zwar seltener auftreten als einmal pro 1014 gelesenen Bits. Doch umgerechnet entspricht das einer Datenmenge von 12,5 TByte, weshalb ein solcher Fehler beim kompletten Auslesen sehr großer RAIDs nicht mehr unwahrscheinlich ist.

Bitrot ist bekannt - gibt auch Maßnahmen die greifen.,Enterprise Platten und eben Enterprise Raids und das lassen die sich auch bezahlen, deswegen kosten die Dinger ja auch keine 50€ wie ein Dawicontrol sondern ab 500€.

Ich gehe mal nicht davon aus, das er hochkritische Daten hat, die uns alle vor dem Global Warming retten werden.

LTT hat auch einen schönen Beitrag mal gemacht - Die sind halt hin und haben aus mehreren Raid5 ein Raid5 gemacht - die wollten aber anderes damit erreichen.

@TE
4x8TB an nem 6405 oder 5405 und du bist schon sicherer wie so einige kleine Firmen deren Leben von Ihren Daten abhängt... :)
Ausserdem kannst du dann auch ganz einfach Umziehn: Adapter und Platten in neuen PC. Treiber installieren - alles da
 
Ja, es wurde in den drei Fällen die ich erlebt und beschrieben habe selbstverständlich keine Enterprise Hardware eingesetzt (das waren Privatleute mit SOHO Equippment, da fehlen eben so Funktionen wie Low-Priority Rebuild, hochwertige Controller usw). Darum ging es ja, vielleicht hätte ich das besser deutlich machen sollen. Der Threadersteller sprach von 4x 8TB WD Red an einem Intel Raidcontroller bzw Linux Software Raid. Das ist Consumer Tech für mich. Dieses Szenarion war der Ausgangspunkt für meine Bedenken. Auch die von mir verlinkten Artikel beziehen sich primär auf RAID 5 mit Consumer-Tech.

Wenn man hochwertige Enterprise Hardware einsetzt wie Du es beschreibst, dann habe ich mit RAID 5 auch gar kein Problem, weil diese Controller Bitrot, UBER Problematik, Rebuild-Stress usw. mit zusätzlichen Technologien kontern können. Genau das war ja bei meinem Arbeitgeber der Fall, weswegen wir dort kein Problem mit Störungen während des Rebuilds hatten. Da haben wir immer noch vereinzelt RAID 5 Arrays im Einsatz die keine nennenswerten Probleme machen.

Alle meine Aussagen in diesem Thread bezogen sich daher rein auf das Consumer Tech Szenario. Wenn ein besserer Controller wie von Dir vorgeschlagen zum Einsatz kommt, dann habe ich wenig bis keine Bedenken. Ich wollte aber nicht automatisch davon ausgehen, das der Threadersteller zu dieser zusätzlichen Investition bereit ist und bezog mich daher immer auf das Ausgangsszenario.
 
Also die ganzen Sachen haben mich eigentlich fast schon wieder Abstand von einem Raid5 nehmen lassen und mich über einen Raid10 Software-Raid nachdenken lassen.
Allerdings frag ich mich, ob bei diesem nicht auch die beschriebenen Probleme beim Rebuild auftreten können?

KuanYin schrieb:
4x8TB an nem 6405 oder 5405 und du bist schon sicherer wie so einige kleine Firmen deren Leben von Ihren Daten abhängt...
Sind die Raidcontroller mit beliebiger Hardware kompatibel (also auch mit meinem Dell Poweredge T20) und ist der 5405er noch Zeitgemäß mit seinem 256mb DDR2 Cache? Kann man hier mit gutem Gewissen zuschlagen?
Läuft das ganze dann plug&play ab und wie genau konfiguriere ich den Controller ohne installiertes BS?
Ist die Lesegeschwindigkeit nicht langsamer bei einem Hardwareraid, wenn ich an 2 Ports 4 SATA-Festplatten anschließe und das alles durch einen PCI-Port geht?
MADman_One schrieb:
Threadersteller sprach von 4x 8TB WD Red an einem Intel Raidcontroller bzw Linux Software Raid. Das ist Consumer Tech für mich.
Also Enterprise-Ware sind WD-Red-Platten jetzt nicht, aber laut Hersteller sind die wenigstens für den 24-Stunden-Betrieb ausgelegt, was man über manch andere Platten nicht sagen kann und selbst die leben bei mir bereits seit mehreren Jahren im Dauerbetrieb.
 
Zuletzt bearbeitet:
Du schließt an einem SFF8087 Anschluss 4 Sata Platten an. PCIe1x8 schafft theoretisch 2GB/s. Ein raid 5 als 4 WD Red sollte somit nicht in der Bandbreite limitiert werden. (Das theoretische Maximum beim lesen liegt ja beim dreifachen wert einer einzelnen Festplatte, also so 600MB/s?)

Der Cache sollte auch mehr als ausreichen. Der hilft ja hauptsächlich bei kleinen Dateien, die eine HDD nicht so gut geschrieben bekommt.

Ein raid Controller wird beim starten erkannt und initialisiert, bevor das OS geladen wird.

Zuschlagen kann man da schon. Und wenn es doch nichts ist geht es innerhalb von 30 Tagen zurück oder, bei einem Wert von 10€, eben auch nicht.
 
Tockra schrieb:
Also die ganzen Sachen haben mich eigentlich fast schon wieder Abstand von einem Raid5 nehmen lassen und mich über einen Raid10 Software-Raid nachdenken lassen.
Allerdings frag ich mich, ob bei diesem nicht auch die beschriebenen Probleme beim Rebuild auftreten können?


Sind die Raidcontroller mit beliebiger Hardware kompatibel (also auch mit meinem Dell Poweredge T20) und ist der 5405er noch Zeitgemäß mit seinem 256mb DDR2 Cache? Kann man hier mit gutem Gewissen zuschlagen?
Läuft das ganze dann plug&play ab und wie genau konfiguriere ich den Controller ohne installiertes BS?
Ist die Lesegeschwindigkeit nicht langsamer bei einem Hardwareraid, wenn ich an 2 Ports 4 SATA-Festplatten anschließe und das alles durch einen PCI-Port geht?

Also Enterprise-Ware sind WD-Red-Platten jetzt nicht, aber laut Hersteller sind die wenigstens für den 24-Stunden-Betrieb ausgelegt, was man über manch andere Platten nicht sagen kann und selbst die leben bei mir bereits seit mehreren Jahren im Dauerbetrieb.
Sind pcie Karten. Brauchst nur pcie.
Boot OS empfehle ich dennoch ne ssd oder ssd r1 - wird immer schneller sein als schallplatten.

anbei screenshot von eben - R5 auf R5 - hab mal die BBU abgezogen - Adaptec informiert dich immer wenn was nicht stimmt - auch mit akustischem alarm. Auf dem Nas laufen noch 3 VM's also nicht über 500mb/s möglich z.Zt.
1536999379597.png
 
Tockra schrieb:
Also die ganzen Sachen haben mich eigentlich fast schon wieder Abstand von einem Raid5 nehmen lassen und mich über einen Raid10 Software-Raid nachdenken lassen.
Allerdings frag ich mich, ob bei diesem nicht auch die beschriebenen Probleme beim Rebuild auftreten können?

Was soll das bringen? Wenn eine HDD ausfaellt, ist die andere gespiegelte ohne Redundanz, und muss 1x komplett gelesen werden um zu Rebuilden.
Dann lieber 4 Platten Raid6.


HW Controller sind fuer Leute die noch im Jahr 2000 feststecken.
Selbst wennst 50.000€ Oracle Sparc Server kaufst, verwendest dort SW Raid mit Solaris.
Und bei der aktuellen Implementierung von MD im Linux Kernel, macht das auch unter Linux absolut keinen Sinn mehr.
Es ist gleich schnell, dabei aber flexibler und fehlertoleranter im Disasterfall.
Eine SSD zum cachen kannst genauso einrichten.

3x10TB im Raid5, 80% Fuellgrad:
# sync; date; dd if=/dev/zero of=/daten/testfile.lala bs=1M count=8192; sync; date
Sat Sep 15 10:47:44 CEST 2018
8192+0 records in
8192+0 records out
8589934592 bytes (8.6 GB, 8.0 GiB) copied, 26.8348 s, 320 MB/s
Sat Sep 15 10:48:14 CEST 2018

273MB/s Write - schneller geht die Platten bei dem Fuellgrad nicht mehr.

# hdparm -t /dev/md127 /dev/md127:
Timing buffered disk reads: 1342 MB in 3.01 seconds = 446.48 MB/sec
 
Zuletzt bearbeitet von einem Moderator:
Wie wäre eigentlich der Workflow im Fehlerfall?
Eine Platte fällt aus, ich schiebe eine neue rein, rebuild startet automatisch? Ggf. stell ich vorher irgendwo ein, dass der Rebuild nicht immer mit voller Leistung passieren soll !?

Ich möchte den Raid um eine Platte erweitern, ich schiebe die Platte rein, geh in das StartUp Menü des Controllers und wähle die Funktion zum Raid erweitern?

Der Raidcontroller raucht mir ab... Falls ich dann einen Adaptec 5405 besaß, muss der neue dann auch ein Adaptec5405 sein, oder kann man auch einfach einen 6405 nehmen?

spcqike schrieb:
Ein raid Controller wird beim starten erkannt und initialisiert, bevor das OS geladen wird.
Also einfach Plug&Play?

KuanYin schrieb:
anbei screenshot von eben
Genau solche screenshots hab ich schon öfter gesehen.
Sieht mir sehr stark nach Windows aus. Das ist dann das Windows-Management-Tool von dem Gerät?

Ulukay schrieb:
HW Controller sind fuer Leute die noch im Jahr 2000 feststecken.
Finde das immer wieder interessant wie in jedem Forum immer eine Person um die Ecke kommt, die mir etwas was Vorredner gerade schmackhaft gemacht haben wir ausreden will...
 
Zuletzt bearbeitet:
Tockra schrieb:
Genau solche screenshots hab ich schon öfter gesehen.
Sieht mir sehr stark nach Windows aus. Das ist dann das Windows-Management-Tool von dem Gerät?
Selbe tool gibts für *nix als tool oder webbasierend.
https://storage.microsemi.com/en-us/support/raid/sas_raid/sas-5805/

mir ist einmal privat vor Jahren eine LSI abgeraucht - Karte getauscht, Raid importiert neue Karte eingerichtet fertig - ausfall: ca 10minuten mit Schrauberei und Bios. Adaptec noch nicht aber funzt genauso

Ulukay schrieb:
HW Controller sind fuer Leute die noch im Jahr 2000 feststecken.
Selbst wennst 50.000€ Oracle Sparc Server kaufst, verwendest dort SW Raid mit Solaris.
Und bei der aktuellen Implementierung von MD im Linux Kernel, macht das auch unter Linux absolut keinen Sinn mehr.
Das höre ich von linuxern seit den 90ern :) - ich habe mit HWRC nie probleme gehabt. Das ist halt ne Einstellungssache denk ich mal wie iOS/Android, Mac/PC.
Sehe im Datacenter auch genug *nix Server mit HWRC oder HBA wo ich neidisch werde :)

Ich hab auch nix gegen SW Raids - sage nur ich würd Sie nicht einsetzen und auch nicht empfehlen ausser mit on premise support des Anbieters. Habe nur gesagt das die Behaubtung am Anfang des threads quatsch ist!

Im Windowsumfeld ist SW raid hald scheisse - selbst Intel hat das eingesehen. Mein nächstes Navisionprojekt sind 2x 60k Server mit je 16x SSD Raid und 16x HDD Raid. Hat alles seinen Einsatzzweck! Wobei ich hier auch gespannt bin, was MS an Lizenzkosten generiert bei den Servernlizenzen.
 
Ich würde in so einem Fall (mehrere Platten für nen Fileserver) ohnehin gleich auf ZFS setzen.
Das bringt ein paar nette Zusatzfeatures mit. Und auch so Dinge wie ein Rebuild sind viel unproblematischer, weil nur die Blöcke neu verteilt werden, die auch tatsächlich mit Daten belegt sind.
Auch ein Backup ist mit ZFS dank Snapshots sehr elegant und effizient realisierbar.
 
andy_m4 schrieb:
Auch ein Backup ist mit ZFS dank Snapshots sehr elegant und effizient realisierbar.

Was hat ein Backup mit Snapshots zu tun? Wenn eine Platte defekt ist und ein Rebuild ansteht, nutzt auch ein Snapshot nichts, oder?
 
Ich glaub er meint eher den Prozess des Backups.
Du kannst alle schreibenden Services stoppen, einen Snapshot erstellen (in Sekundenbruchteilen), und alle Services wieder hochfahren.
Und dann kannst du die konsistenten Daten auf dem Snapshot backupen, waehrend alle Services schon wieder produktiv laufen. ;)
 
Ulukay schrieb:
Ich glaub er meint eher den Prozess des Backups.
Du kannst alle schreibenden Services stoppen, einen Snapshot erstellen (in Sekundenbruchteilen), und alle Services wieder hochfahren.
Und dann kannst du die konsistenten Daten auf dem Snapshot backupen, waehrend alle Services schon wieder produktiv laufen. ;)

... und am Ende das Snapshot wieder auflösen. Ja, das leuchtet mir ein. Das betrifft doch aber nur VMs bzw. virtualisierte Dienste.
Wenn ich auf dem RAID aber eine Shared-Folder angelegt ist der größere Dateien vorhält (der TE sprach vom Plexserver, also gehe ich davon aus dass hier Filme/Serien abgelegt werden) ist ein Snapshot irgendwie fehl am Platz :)
 
Naja du kannst ja ein paar woechentliche Snapshots vorhalten.
Damit kannst du komfortabler Dateien wiederherstellen, die irrtuemlich geaendert oder geloescht wurden.
Wenn du das als Datengrab fuer nen Plex Server verwendest, wuerden die Snapshots ja auch kaum Platz verbrauchen.
Wenn dann noch zusaetzlich einige GB eines owncloud/nextcloud Services draufliegen, macht es sogar Sinn.
 
Zurück
Oben