WD My Book™, 8 TB ...Probleme

Reflexion

Lieutenant
Registriert
Dez. 2009
Beiträge
639
Ich muss hier mal was loswerden, vlt gibt es Hilfe für meine Daten.

Ich habe einige dieser 8TB Platten und es ist das 2te mal das es jetzt zu Fehlern kam(mit einer weiteren).

Ich nutze die Platte zuvor Formatier in einem separaten HDD Gehäuse, die inzwischen um die 6TB Backup vom Server umfasst/(Backup Platte).

Teile des Inhaltes wollte ich anschließend an einem 2ten PC auf eine weitere Platte kopieren/bearbeiten. der trans-fair funktionierte nur kurz, nachdem ein Teil nicht sauber durchlief meldete ich die Platte ordentlich ab und gab dem PC einen Reboot, nun wird die Platte nur noch im Datenträger Manager erkannt, und man darf sich jetzt zwischen GPT und MBR entschieden, Die Platte wird als leer angesehen, S.M.A.R.T Werte hatte ich mittels CrystalDiskInfo ausgelesen und waren immer top, vorher und nachher..

Western Digital Data Lifeguard Diagnostics 1.31.0 lief durch, alles top /(Quick, weitere Test folgen). Die Platte machte zuvor auch keinerlei Probleme beim befüllen.

Kurzum, für mich stellt sowas den blanken Horror da... gerade als Backup.... da scheint ein RAID-Verband ja noch mehr Sicherheit zu bietet.
Vlt hat jemand einen Hilfe parat oder kennt zumindest das Phänomen.
 
Vielleicht hat ja das separate Gehäuse eine Macke oder ein Problem mit den großen Platten .....
 
  • Gefällt mir
Reaktionen: Reflexion
Zuletzt bearbeitet:
Du kannst die Platte ja mal intern verwenden. Wenn das dort klappt, ist das Gehäuse Schuld.
 
  • Gefällt mir
Reaktionen: Reflexion
  • Gefällt mir
Reaktionen: Reflexion
Moment mal, eine My Book ist ja ein externes Gehäuse inklusive Platte. Was hat dann das gepostete Gehäuse damit zu tun? Dachte, du hast normale SATA Platten in dem Gehäuse genutzt. Die My Book können speziell sein, die MyPassport sind es jedenfalls
 
  • Gefällt mir
Reaktionen: Reflexion
Ich habe das verlinkte Gehäuse 2x gekauft, jetzt habe ich Sie in das 2. gesetzt und eben wieder formatiert...(zum kotzen ist das). Lieben Dank für den Hinweis mit den Pins, aber das tut hier nichts zur Sache und ist auch nicht immer der Fall, zbs bei IDE auf SATA Adaptern oder in meinem 4Bay. Dort laufen die Platte(n) ohne Klebekünste. Es ist einfach nur unverständlich, ich meine man lernt als FiSi in der Ausbildung fein Backups zu machen, aber was bringen denn Backups die zuvor fehlerfrei durchliefen, die Platte einwandfrei funkt laut div. Test und man PC B dann neu eingerichtet werden möchte.... Da ist ja selbst ein RAID 1/5/6 sicherer... Ich kopier jetzt nochmal die 6TB von NAS... aber ganz ehrlich mir dreht sich da der Magen um wenn es um Stunde Null geht. Bei weiteren Vorfällen melde ich mich.

Das WD Gehäuse ist der letze Dreck, billig und klapprig, eben so billig wie es nur geht,. jeder der seine HDD lieb hat gibt der ein besseres Zuhause. Außerdem sitzt da ein Controller Board dazwischen zur feine Verschlüsselung, die macht besonders viel Spaß wenn man Daten retten möchte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pym
Reflexion schrieb:
Außerdem sitzt da ein Controller Board dazwischen zur feine Verschlüsselung, die macht besonders viel Spaß wenn man Daten retten möchte.
Richtig, aber wenn man Backups hat bzw. auf der Platte nur ein Backup steht, sollte man ja gar nicht in diese Verlegenheit kommen.

Aber traust Du wirklich blind den Angaben einer Yottamaster Technology Co.,Ltd. mit Sitz in Shenzhen/China? Ich würde die Platte nach dem Formatieren einmal fast komplett mit h2testw prüfen um zu sehen ob das Gehäuse so große Platten wirklich unterstützt. Wähle aber ein paar GB weniger als vorgeschlagen wird, da die Metadateien des Filesystem bei großen Volumen schneller wachsen als heise es erwartet hat und sonst am Ende der Platz ausgeht, was zu einem Fehler am Ende des Schreibvorgangs führt. Der hat dann auch nichts mit der HW zu tun, den kann man dann daher getrost ignorieren und trotzdem die Daten prüfen lassen, was auch ohne Fehler passieren sollte.
 
  • Gefällt mir
Reaktionen: Reflexion
Mache ich, Platte wird gerade allerdings neu betankt, mal schauen wie lange das Fabrikat diesmal hält. Du meinst also ich soll mit dem Test die Platte einmal voll schreiben lassen ? /(also zu 90%), werde ich, habe ja noch mehr von den WD My Book 8TB irgendwas Platten. Mit dem WD tool gab es allerdings kein Ärger (getestet mit dem Yottamaster case ).
OT;
Ich halte viel von Yottamaster wie von ICY BOX, FANTEC, ORICO, Sharkoon und auch teilweise Lian Li

.. bei den ersten 5 wurde überwiegend bei der Produktion oder Design das Gehirn ausgeschaltet. Oder aber meine Bedürfnisse sind zu hoch. Allerdings gibt es dann noch so Hersteller die auf die glorreiche Idee dann doch kommen und nicht dummes nachbauen.


Zurück zur HDD.
Ich hatte schon einmal das Vergnügen eine Platte wiederherstellen zu müssen /(aus eigener Doofheit, falsche Befehle eingegeben, Platte wurde formatiert) hieß für mich dass ich eine volle 8TB Platte wiederherstellen musste&durfte, das ganze hat fast 3 Tage gedauert, diese WD My Book 8TB sowie das Yottamaster haben durchgehalten :)
 
Zuletzt bearbeitet:
Reflexion schrieb:
habe ja noch mehr von den WD My Book 8TB irgendwas Platten.
Man sollte schon die konkrete Platte in dem konkreten Gehäuse testen, gerade bei den Gehäuse weiß man ja nie ob die wirklich identisch sind und schon eine andere FW Version oder auch nur Einstellung kann reichen um einen Unterschied zu machen. Wenn Du also mit der einen Platte (die eben aus einer MyBook 8TB stammt) in dem Gehäuse nun Probleme hast, dann solltest Du die auch in dem Gehäuse testen. Wenn diese gerade mit einem Backup beschrieben wird, dann teste halt den noch freien Speicher, sofern noch wenigstens etwa die Hälfte frei ist, sollte der Test auch noch ausreichend aussagekräftig sein.
 
Es kam insgesamt mit 2 WD My book 8TB Platten zu 2 Fehlern, einmal durch meine doofe Eingabe im cmd (weil die Platte nicht mehr richtig erkannt wurde, versuchte ich sie zu retten&reparieren) schuld für den Konflikt kam aber aller Wahrscheinlichkeit nach durch das 4 Bay zustande, dem Ganzen werde ich auch noch auf den Grund gehen.

Der 2te Zwischenfall (Defekt) kam dann jetzt nach einem reboot am 2ten case, ich hatte wie geschrieben vom Server Backups auf der Platte angelegt und wollte diese am 2 PC dann kopieren/bearbeiten. Leider aber kam es dann zu dieser These.. Ich hatte diese Platte dann bewusst heute Morgen in das 2te Yottamaster case gepackt/ erneut betankt, um zu schauen ob der Fehler am Controller-Board vlt liegen mag, fällt sie wieder aus, weiß ich dass es wohl eher die Platte ist.. ich werde sie dann aber noch mit deinem vorgeschlagen tool testen, ggf. leiste ich mir mal die Wundertüte "Festplatte Sentinel 5.30 Pro" dessen Version ist ja noch für zuhause bezahlbar.
Vlt kann ich damit Platten (zukünftig) retten, das wird ein Spaß, ich glaube ich setze dann doch für Zuhause eine Parität ein..

Ich hatte "irgendwas" geschrieben weil sich Experten ja regelmäßig die Birne einrammen, Thematik was nun in den WD My Book 8TB verbaut ist, Irgendwas zwischen WD red und HGST Ultrastar He10-8 (vlt heruntergefallenes) dürfte es vlt sein, es bleibt spannend.

Meine 6 Stück a 8TB hatte alle das "WD80EZAZ"-Omen und im Server (NAS ist ja fachlich falsch) läuft sie Prima, noch.
 
Zuletzt bearbeitet:
Dieses Yottamaster Festplattengehäuse sieht interessant aus, wie die Miniversion eines dieser alten Gehäuse vom Apple Mac Pro.^^

Bevor Du eine dieser große Platten mit h2testw prüfst, solltest Du Dir vorher besser genau überlegen, was Du auswählst. Bei einer Kapazität von 8TB würde der Test, trotz ein paar GB weniger als vorgeschlagen, sonst sehr lange dauern.
 
..sind recht teuer, und das Alu naja, die Platten haben halt keinen direkten Kontakt, innen sitzt die Platte selbst an 2 Dämpfer. Insgesamt finde ich die Cases recht teuer. 7k Platten wurde darin recht heiß.. Ja Test dauern leider sehr lange, auch der erweitere vom WD tool.

Mach nicht den selben Fehler wie ich, wenn du mehr als eine Platte unterbringen möchtest dann wäre, vlt diese hier interessant; https://www.amazon.de/eSATA-Dual-Festplattengehäuse-UASP-Festplatten/dp/B00M77UOC8/ref=pd_sbs_147_48?_encoding=UTF8&pd_rd_i=B00M77UOC8&pd_rd_r=849b5f35-93ec-11e8-815a-311feeeff6b5&pd_rd_w=iyLJ4&pd_rd_wg=PEm7J&pf_rd_i=desktop-dp-sims&pf_rd_m=A3JWKAKR8XB7XF&pf_rd_p=1662399603728955198&pf_rd_r=46PHTVXB548EZ1AYXVS0&pf_rd_s=desktop-dp-sims&pf_rd_t=40701&psc=1&refRID=46PHTVXB548EZ1AYXVS0 Oder eben; https://www.amazon.de/dp/B01M4MAFBZ/ref=sspa_dk_detail_15?psc=1&pd_rd_i=B01M4MAFBZ dort kannst du Platten einzeln einschalten und sie bekommen sogar sowas wie einen Air flow ab.
 
Zuletzt bearbeitet:
Glücklicherweise habe ich eine Synology DS für zwei Platten plus Backups und bin zufrieden damit. ;)
 
Reflexion schrieb:
Vlt kann ich damit Platten (zukünftig) retten
Was soll denn eine SW wie retten können? Wenn es einen Defekt gibt, dann kann keine SW der Welt daran was ändern, wenn es schwebende Sektore gibt, also Sektoren deren Daten nicht mehr zur ECC passen die hinter jedem Sektor steht und mit deren Hilfe auch nicht mehr korrigiert werden können, so muss dies noch lange kein Defekt sein, denn die können auch anderen Gründe als defekte Oberflächen haben, z.B. einen Stromausfall während eines Schreibvorgang der dazu führt, dass eben nicht die ganze Daten plus der neuen ECC geschrieben wurden oder wegen eines Stoßes oder Vibrationen ist der Kopf beim Schreiben aus der Spur gekommen und hat Daten auf der Nachbarspur überschrieben. Auch arbeiten HDDs nicht 100%ig und die Hersteller geben die Fehlerhäufigkeit auch in Form der UBER an, wobei eine UBER von 1:10^14 bedeutet, dass je 10^14 gelesener Bits was etwa 12TB gelesener Daten entspricht, ein Lesefehler und damit schwebender Sektor im Rahmen der Erwartungen liegt.

Die Controller merken sich die schwebenden Sektoren und prüfen die Daten nach dem erneuten Schreiben auf diese Sektoren, dann verschwinden diese einfach oder werden eben durch Reservesektoren ersetzt. Mehr kann so eine HDD Tool nicht machen, aber man braucht auch kein teures Tool um diese Sektoren zu überschreiben, die kann selbst ein chkdsk /b erledigen.
Reflexion schrieb:
Thematik was nun in den WD My Book 8TB verbaut ist, Irgendwas zwischen WD red und HGST Ultrastar He10-8
Wer meine eine Ultrastar für viel weniger Geld zu bekommen, bei der dann einfach mal so die Drehzahl gesenkt wurde, der hat von HDDs keine Ahnung. Um mit einer anderen Drehzahl zu arbeiten sind einige Anpassungen nötig, Materialien und auch die Fertigungstoleranzen sind auch nicht bei allen Modelle gleich, auch wenn sie von außen gleich aussehen. Die ergibt neben den Unterschieden bei den Kosten und damit beim Preis auch solche bei den Eigenschaften.
Audi2000 schrieb:
Bei einer Kapazität von 8TB würde der Test, trotz ein paar GB weniger als vorgeschlagen, sonst sehr lange dauern.
Ein paar GB weniger ändern nicht viel an der Zeit, aber wie ich schon schrieb sollte man dies trotzdem machen, um zu vermeiden das sonst am Ende der Platz ausgeht und h2testw deswegen einen Fehler meldet. Zu wenig zu testen bringt aber auch nichts, sonst würde man ggf. vorhandene Adressierungsfehler jenseits einer bestimmten Adresse dann doch nicht finden.
 
  • Gefällt mir
Reaktionen: Reflexion
Danke für die Erläuterung. Nur kam es eben zu der Werkseinstellungen nachdem vernünftigen Anmelden der Platte und reboot des PC B. Selbst bei einer Fehlerhäufigkeit 10^14 dürfte ja nicht gleich 6TB An Daten die zuvor einwandfrei sich kopieren ließen und am PC A nicht auf ein Schlag Korrupt geworden sein. Das Mainbaord kam aus der Reparatur, vlt kann es damit ja in irgendeiner A&W zusammenhängen. Die Platte selbst habe ich natürlich auch nicht bewegt während der Kopie/reboot. Klar haben die HGST mehr U/min haben, nur lässt sich sowas nicht im nachhinein softwareseitig einstellen? Schlussendlich sind HDDs auch kleine Rechner und da die WD My book oft ausgebaut und als alternative zur red gesehen wird, das WD Team bestimmt auch lesen kann, werden sie wohl eher Softwareseitig etwas anpassen als jetzt zum langsamen SSD Umschwung rine weitere Produktionsserie fahren.
 
Test doch endlich mal mit h2testw, dann weißt Du schon einmal ob das Gehäuse mit der Platte wirklich umgehen kann, denn wenn auf einmal 6TB korrupt sind, dann wird es kaum an der Platte liegen. Es könnte auch am RAM des Rechners liegen, entweder von dem auf dem das Backup erstellt wird oder von dem mit dem die Daten hinterher geprüft werden. Bei beiden mal das RAM mit Memtest86 zu prüfen, so wie es derzeit läuft, wäre also auch nicht schlecht und ist spätestens dann zu empfehlen, wenn h2testw einzelne Fehler meldet, denn RAM Fehler können auch bei h2testw zu Fehlermeldungen führen.
 
Holt, das werde ich versprochen! Nur ist die Platte jetzt schon seit über 48St am tanken. Als ich die Platte an Rechner B setze waren die Dateien auch einwandfrei zu einziffern, gab keine Probleme. Vlt macht USB 3.1 gen 2 da Probleme, oder kann es daran habe ich die Platte gesetzt. Memtest86 kann ich auch mal testen, bislang gab es aber beim konvertieren von Filmen/Serien in x265 keine Probleme und das hat über Stunden mein Ryzen 7 1700 (stock) 100% ausgelastet @ HandBrake.
 
Zuletzt bearbeitet:
Also ich hatte schon einen Fall in dem offenbar der USB Host Controller (vermutlich dessen Puffer) die Daten verfälscht hatte, denn die Platte war in Ordnung und Memtest86 zeigte auch keine RAM Fehler. Inzwischen habe ich hier aber auch gelesen, dass dies bei RYZEN nicht wirklich viel aussagt und es auch möglich ist, dass die RAM Fehler erst unter Windows auftreten, nicht aber bei Memtest86. Vielleicht hängt es mit Änderungen der Einstellungen unter Windows zu zusammen oder generell mit der höheren CPU Last und den Laständerungen unter Windows, denn Memtest86 belastet das System ja nur wenig und vor allem sehr gleichmäßig. Vergiss nicht, dass DDR4-3200 bei einem R5-1600 RAM OC ist, da die CPU und damit der RAM Controller nicht für so hohe RAM Frequenzen spezifiziert sind, sondern je nach RAM Typ und Bestückung nur maximal bis 2666. Da bei RYZEN auch der Takt der IF am RAM Takt hängt (weshalb das RAM OC bei dem so viel bringt), kann die Fehlerquelle natürlich auch dort liegen.
 
  • Gefällt mir
Reaktionen: Reflexion
Zurück
Oben