Mr.Seymour Buds
Commodore
- Registriert
- Feb. 2012
- Beiträge
- 4.339
Gibt es doch schon lange. Wenn sie wirklich stark belastet werden, zb sowas.
Geizhals Link zum Preis
Geizhals Link zum Preis
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Mr.Seymour Buds schrieb:Welcher Privatmann/frau nutzt schon mehr als RAID-1? .....
Das kann stimmen, es kann aber auch sein, dass dort Teile mit anderen Spezifikationen verbaut sind und wenn es nur das Öl der Lager ist was besser auf die Anwendung ausgelegt ist.Crowbar schrieb:ich las vor kurzem die these, dass die red lediglich eine "andere firmware" besäße, aber eigentlich jede green mit reds baugleich sei. wenn man nas-marketing und ein jahr zusatzgarantie ignoriert also auch die einige € günstigere greens kaufen kann. ist da was dran?
Das ist dann aber keine 6TB. Da würde ich die UltraStar He6 nehmen, die kostet inzwischen ja auch nur noch 431€.Mr.Seymour Buds schrieb:Gibt es doch schon lange. Wenn sie wirklich stark belastet werden, zb sowas.
Holt schrieb:Das ist dann aber keine 6TB. Da würde ich die UltraStar He6 nehmen, die kostet inzwischen ja auch nur noch 431€.
Ja und deshalb ist die WD Red mit nur 1:10^14 auch Mist, die hätte 1:10^15 haben müssen, damit es Sinn macht.Eggcake schrieb:Also wenn ich das richtig angeschaut habe, so liegt die Wahrscheinlichkeit (laut WD), dass bei einem kompletten Rebuild eines RAIDs ein "unrecoverable read error" auftritt, bei jedem Drive bei rund 50%.
Die kosten ab 142€, 8 Stück also €1136 und da Du dann ein RAID6 nehmen müsstest (wegen Rebuild, s.o.) hast Du 24TB netto, also 47,33€ pro TB. Wenn die Du die HGST Ultrastar He6 6TB nimmst die es ab 431€ gibt, dann kommst Du auf 3448€ für 8 St., aber da die eine UBER von 1:10^15 hat, kannst Du ein RAID 5 bauen und kommst damit auf 42TB netto, also auf 82,10€ pro TB. Die WD Red 6TB ist gerade mit 244€ im Preisvergleich aufgetaucht und damit sind das 1952€, aber wegen der UBER wäre ein RAID 6 anzuraten. Man hat also nur 36TB netto und die kosten dann je 54,22€. Die 6TB Seagate habe ich mal ausgelassen, die Enterprise sind teurer als die HGST und außerdem haben eine recht hohe Leistungsaufnahme, die HGST ist da wegen der He-Füllung deutlich sparsamer.akron1980 schrieb:Welch Ironie, ich stand kurz vor dem Kauf der WD Red 4TB für ein 8Bay NAS
Herdware schrieb:Wirklich relevant werden solche Risikobetrachtungen auch nur dann, wenn es wirklich auf 100% Verfügbarkeit ankommt und z.B. ansonsten eine Fertigungsstraße in der Fabrik steht oder Termine für lebenswichtige Projekte platzen usw. Dann muss man halt vom schlimmsten, theoretischen Fall ausgehen und in entsprechend sichere, höhere RAID-Level investieren.
Holt schrieb:Das sollten sich auch alle ansehen die sehen, dass es HDDs mit 3TB für unter 90€ gibt, also für weniger als 30€ pro TB und die denken, sie könnten dann auch 30TB für 900€ speichern.
Ja das geht mit Ordner Aggregation. Hier ein Link wie das QNAP löst:akron1980 schrieb:Was mich noch stört ist halt das es kein Verfahren gibt (oder ich kenne es nicht), wo die Festplatten lediglich zusammengefaßt dargestellt aber als einzelne Festplatten behandelt werden. Raid 0 oder JBOD = Ausfall einer Platte, alles futsch. Ich hätte nämlich gerne das im Falle eines Ausfalls von einer Platte, andere erreichbar sind nur eben ohne die Dateien von dieser einen Platte. Dann wird nur diese Platte getauscht und neu bespielt. Geht sowas irgendwie?
Herdware schrieb:Ist die Fehlerwahrscheinlichkeit bei so einer "Prosumer"-Festplatte wie den Red wirklich 10x höher als bei einer bei einer Enterprise-Platte? Und wie will man das überhaupt nachprüfen können, ohne hunderte Platten in unzähligen, langwierigen Testdurchläufen zu schrotten?
Solche Produktionsschwankungen sprechen aber auch nicht gerade für sich. Am schlimmsten war es bei einer Mobilen Platte (Scorpio Blue 1TB) die nach 2 Sekunden geparkt hat. Da sie neben einer SSD (im ODD Schacht) betrieben wurde gab es ständig beim Datenzugriff Verzögerungen weil sie wieder anlaufen musste. Dazu kommt dann dass WD eben maximale Park/Anlaufzyklen angibt bezüglich lebensdauer. Hier sollte dem Kunden mehr Freiheit gewährt werden mit entsprechenden Tools. WIDLE3 war mit der Scorpio leider nicht kompatibel und das Abschalten der Energiesparfunktionen ging nur temporär. Mit einem Script hatte ich es sogar geschaft diese bei Systemstart zu deaktivieren, das Script wurde aber nur bei Systemstart ausgeführt und die Einstellungen waren beim Energiesparmopdus (vom Notebook)I wieder dahin. Bei den Greens wollte ich es dann gar nicht erst drauf ankommen lassen und hab mich unter anderem genau deswegen für die Reds entschieden.Holt schrieb:Das ist bei denen inzwischen aber auch anders. Von den 5 3TB Red die ich im November letzten Jahres gekauft habe, war der Time bei 4 deaktiviert, aber bei der mit der höchsten Seriennummer auf 8s eingestellt, genau wie es bei den Green üblich ist. Ich habe den dann mit WDIDLE3 umgestellt, aber es gibt ja nun ein neues Tools dafür für die Red, WDIDLE3 soll man angeblich nicht für die Red nehmen und bei den neueren Green soll es auch nicht mehr funktionieren.
Da war der Soldat neben der Kiste Handgranaten, die laut Hersteller 5s nach Abziehen des Abzug explorieren sollen. Er meint, es dauert länger und setzt sich mit einer Stoppuhr in der einen Hand und einer Granate in der anderen an einen Abgrund um das zu prüfen. Also zieht er den Abzug, startet dabei die Stoppuhr und lässt die Granate nach genau 5s in den Abgrund fallen. Wie lange geht das gut? Na so lange bis er eine erwischt, die wirklich genau nach Herstellerangaben nach 5s explodiert. Würdest Du den Test auch machen wollen? Wohl kaum, also warum willst Du es Deinen Daten zumuten?Herdware schrieb:Ja. Das liegt sicher daran, dass wir hier letztlich nur mit Wahrscheinlichkeiten rechnen.
...
Ist die Fehlerwahrscheinlichkeit bei so einer "Prosumer"-Festplatte wie den Red wirklich 10x höher als bei einer bei einer Enterprise-Platte? Und wie will man das überhaupt nachprüfen können, ohne hunderte Platten in unzähligen, langwierigen Testdurchläufen zu schrotten?
Natürlich sind die Werte nicht 100%ig exakt ermittelt, das verhindert schon die Serienstreuung und die Tatsache, dass man die Werte ja auch einhalten muss. Es wird ja auch immer als <= angegeben, bessere Werte können immer vorkommen, sind dann aber sowohl von den Einsatzbedingungen als auch von dem Alter der Platte abhängig. Je älter eine Platte ist, umso fehleranfällig wird sie naturgemäß auch.Herdware schrieb:Würde mich nicht wundern, wenn sich nicht mal die Festplattenhersteller wirklich die Mühe machen, die Fehlerwahrscheinlichkeiten mit realen Tests zu ermitteln, sondern sich aus irgendwelchen Tabellen mit durch verschiedenen Faktoren beinflussten Näherungswerten bedienen.
Wenn also die Wiederherstellung eines RAID mit privaten Daten ansteht, dann ist es also egal bzw. wird die Platten dann gnädig sein und doch keinen Fehler aufweisen.Herdware schrieb:Wirklich relevant werden solche Risikobetrachtungen auch nur dann, wenn es wirklich auf 100% Verfügbarkeit ankommt und z.B. ansonsten eine Fertigungsstraße in der Fabrik steht oder Termine für lebenswichtige Projekte platzen usw. Dann muss man halt vom schlimmsten, theoretischen Fall ausgehen und in entsprechend sichere, höhere RAID-Level investieren.