Externes Gehäuse für 8TB Festplatte

Dich meinte ich nicht im speziellen, sondern eher allgemein jeder der meint es könnte ja kein Problem geben, wenn es mit anderen HDDs mit 4 oder 6TB auch keines gibt. Die Archive sind halt speziell und wann sich das wo und wie auswirkt, kann man eben schwer vorhersagen und wegen des OnDisk Caches auch nur schwer testen, die meisten Schreibzugriffe machen die Teile für eine HDD ja sogar extrem schnell, sofern der OnDisk Cache eben noch nicht voll ist.
 
jo, aber du meinst wohl 212ms, nicht Sekunden. Und immerhin - der Helfer meint, es gäbe doch technische Andersartigkeit.
 
Nicht ms, sondern wirklich Sekunden! Den Review hatte ich doch verlinkt, da kann man es doch nachlesen: "Moving the max latency, the Seagate Archive posted max read and write latency at 212,065ms and 5,088ms respectively." Und im Diagramm darunter steht über dem Balken: 212,065.0 und wenn man jetzt noch weiß, dass in den amerikanischen Zahlenangaben Punkt und Komma genau umgekehrt wie in Deutschland verwendet werden, dann sieht man das es eben 212065ms bzw. 212s sind. Selbst wenn man das nicht weiß, so müsste man bei der Annahme es wäre dann auch nur 5ms maximal Leselatenz schon stutzig werden, weil das ja weniger als die mittlere Zugriffszeit einer HDD ist.
 
Hm ja speziell sind die SMR Platten schon. Aber da diese Platten der abwärtskompatibilität wegen ihre Eigenart nach außen hin verbergen und das SMR selbst managen hält sich das arg in Grenzen. Da bleibt dann wirklich nur die mitunter lange Antwortzeit übrig. Vom SMR dieser Platten kriegt weder der Controller, Bridge-Chip, oder Betriebssystem etwas mit. Daher könnte im ungünstigst möglichen Fall wirklich der einzige Fallstrick eine zu lange Antwortzeit sein.

Dazu bräuchte aber man dann auch noch mehr Infos über den physikalischen Aufbau der Platte, die auch ich nicht habe. Denn im Optimalfall würde man die Platte physikalisch ja so designen, daß praktisch der letzte Bereich des Ondisk-Caches, acuh der letzte Bereich ist der überhaupt beschrieben wird. Werden dann Daten gelöscht, kann dieser von der Platte eigenständig wieder leergeräumt werden.

Bei mir ist die erste der 8 TB Archives inzwischen ziemlich gut gefüllt (noch 131 GB frei). Der Großteil der darauf befindlichen Dateien würde einmal geschrieben, es sind jedoch auch nicht ganz unerheblich welche drauf, die sich geändert haben, sprich bei Synchronisierung neu geschrieben und die alte Fassung gelöscht wurden. Hier hat sich bei mir herausgestellt, daß die Platte dadurch praktisch so gut wie gar nicht langsamer wird. Auch nicht wenn sie jetzt schon fast voll ist. Allerdings werden pro Synchronisierungsvorgang maximal zwischen 15 und 75 GB in einem Rutsch neu geschrieben. Am langsamsten war die Platte bei den letzten Synchronisierungen mit ca. 1,5 Minuten "Pause" zwischen zwei Dateien. Das dürfte aber nicht reine Antwortzeit am Bus sein, das ist halt die Pause die Freefilysync zwischen zwei Dateien einlegt (warten bis Datei aus dem Cache auf die Platte geschrieben ist) - und der steigt situationsbedingt bei herkömmlichen Platten auch deutlich an. So ein Wert ist aber bist jetzt absolut einmalig aufgetreten, vorher und auch danach bis jetzt maximal mal 30 s.

Das interne SMR-Management der Platte scheint auch recht effizient zu funktionieren. Dafür daß ich durchaus etliche Dateien (mit größeren Versionen) ersetzt habe ist sie erstaunlich wenig fragmentiert. Natürlich würde ich eine Datenplatte eh nicht defragmentieren, und bei SMR wohl erst recht nicht. Aber ich habe mir das interessehalber mal angesehen.

Jedenfalls sind die Archive-Platten genau dafür gedacht, daß die Hardware und Software außerhalb der Platte nichts vom SMR mitkriegt und sich nicht drum "kümmern" muß. Eben weil Hard- und Software die SMR-aware ist praktisch noch nicht erhältlich ist, zumindest im Consumer-Bereich. Das schließt natürlich nicht aus, das Controller Probleme mit diesen Latenzen haben können. Es heißt aber auch nicht, daß es generell nicht geht. Meine Docking Station war zwar glaub ich für 8 TB bereits freigegeben, aber von SMR stand da in den Angaben auch nichts. Denn die Frage wäre dann nicht, welche Gehäuse mit 8 TB keine Probleme haben, sondern welche Gehäuse mit SMR keine Probleme haben. Da sich die Platte aber nach außen hin wie eine PMR Platte verhält, sind Probleme maximal von den Seiteneffekten zu erwarten (Latenzen).

Und da kommt es dann eben auch wieder auf das Einsatzszenario an. Latenzen von 212s werde ich z. B. nie erreichen, wenn ich da einfach mit Freefilesync meine Dateien raufschaufel, und sich sonst auf dieser Platte grad nichts abspielt. Da sind wir eigentlich eher wieder in Bereichen, für die diese Platte auch nicht gedacht ist.

Da sind wir aber dann genau so weit, wie mit jeder anderen beliebeigen Hardware. Es gibt Standards. Und es gibt Hersteller, die Standards dehnen, oder Treiber schlampig programmieren. Und da nie alle möglichen Hardware- und/oder Treiberkombinationen miteinander getestet werden können kann es einem immer passieren, daß man mal an zwei Stücke Hardware gerät die einfach nicht vernünftig miteinander im selben Rechner zum Laufen zu kriegen sind. Das wird einem nie jemand garantieren können und wollen.

Ich habe jedenfalls inzwischen insgesamt vier von den 8 TB Archives in Betrieb genommen. Zwei bei mir via USB Docking-Station, und zwei bei meinem Bruder in einer Synology DS216 als JBOD. Beides Szenarien die man von den Gegebenheiten als etwas unsicher bezeichnen könnte. Sharkoon äußert sich in Dolumentationen nicht zu SMR in der Docking Station, Synology hat die Archive aus bekannten Gründen sowieso nicht in der Liste der freigegebenen kompatiblen Platten. Jedoch erschloss sich mir kein (grundsätzliches) Hindernis, warum diese Platte in der Docking Station nicht funktionieren sollte. Ebenso wenig warum zwei dieser Platten in der Diskstation als Einzelplatte bzw. wie hier JBOD nicht funktionieren sollten. Sharkoon wird nicht einfach sagen daß es geht, genau so wenig wird das Synology wegen mir (oder jemand anderem) tun. Bleibt also nur selbst ausprobieren. Ich käme aber nicht auf die Idee, auf dieses NAS nun z. B. mehrere Dutzend Benutzer loszulassen. Es ist halt bei dem Teil wirklich eine Frage der Einsatzbedingungen.
 
Zuletzt bearbeitet:
NobodysFool schrieb:
Vom SMR dieser Platten kriegt weder der Controller, Bridge-Chip, oder Betriebssystem etwas mit. Daher könnte im ungünstigst möglichen Fall wirklich der einzige Fallstrick eine zu lange Antwortzeit sein.
Das ist richtig, aber ein Fallstrick reicht schon und dann weiß man auch nie genau, welche SW oder FW am Ende erkennt das es eine SMR Platten ist und versucht mit irgendwelche Tricks was zu optimieren und dabei dann Fehler macht.

NobodysFool schrieb:
Dazu bräuchte aber man dann auch noch mehr Infos über den physikalischen Aufbau der Platte, die auch ich nicht habe.
Die können aber über entsprechende Befehle ausgelesen werden, damit die Zugriffe darauf optimiert werden können, wenn das Filesystem denn SMR-Aware ist.
NobodysFool schrieb:
Denn im Optimalfall würde man die Platte physikalisch ja so designen, daß praktisch der letzte Bereich des Ondisk-Caches, acuh der letzte Bereich ist der überhaupt beschrieben wird.
Soweit ich das sehe ist der OnDisk Cache ein ganz eigenständiger Bereich zusätzlich zu den 8TB Nutzkapazität. Das ist wohl die diese festen Pseudo-SLC Bereiche die bei TLC SSDs als Schreibcache genutzt werden. Die sind also nach einiger Zeit im Idle immer leer und können daher unabhängig vom Füllstand der Platte immer schnell beschrieben werden.

Deswegen klappte es bei Deiner auch immer mit dem schnellen Schreiben beim Synchronisieren, obwohl die Platte so voll ist.
NobodysFool schrieb:
Das interne SMR-Management der Platte scheint auch recht effizient zu funktionieren. Dafür daß ich durchaus etliche Dateien (mit größeren Versionen) ersetzt habe ist sie erstaunlich wenig fragmentiert.
Die Fragmentierung ist alleine eine Sache des Filesystems, nur das teilt den logischen Adressraum auf und hat gar nicht mit der drunterliegenden Platte zu tun. Die Fragmentierung geschieht also unabhängig davon ob es eine HDD mit PMR oder SMR oder eine SSD ist.
NobodysFool schrieb:
Das schließt natürlich nicht aus, das Controller Probleme mit diesen Latenzen haben können. Es heißt aber auch nicht, daß es generell nicht geht.
Das Risiko ist ja, dass diese Latenzen zwar auftreten können, aber bei dem normalen Betrieb so eigentlich nie auftreten. Selbst wenn der Controller also z.B. nach 30s sagen würde, "Stopp die Platte antwortet nicht und muss kaputt sein, ich melde mich mal ab", dann wird man das vermutlich nie erleben. Nur wenn doch, dann ist eben Ka*ke am dampfen und keiner versteht wieso es plötzlich ein Problem gab.
NobodysFool schrieb:
Meine Docking Station war zwar glaub ich für 8 TB bereits freigegeben, aber von SMR stand da in den Angaben auch nichts.
Die Archive v2 waren ja die ersten gut verfügbaren und vor allem der erschwinglich 8TB Platten, die von HGST sind ja sehr teure Enterprise HDDs.
NobodysFool schrieb:
Und da kommt es dann eben auch wieder auf das Einsatzszenario an. Latenzen von 212s werde ich z. B. nie erreichen, wenn ich da einfach mit Freefilesync meine Dateien raufschaufel, und sich sonst auf dieser Platte grad nichts abspielt. Da sind wir eigentlich eher wieder in Bereichen, für die diese Platte auch nicht gedacht ist.
Das ist klar, aber stell Dir vor eine Einstellung Deiner Windows wurde verändert und nun wird die Last Access Time der Dateien immer aktualisiert oder es werden plötzlich Thumbmails gespeichert. Dann schreibt also Freefilysync gleich zu Beginn eine dicke Datei mit 100GB rauf, womit der OnDisk-Cache voll ist und irgend so eine Änderung wird nun für jede Datei beim Abgleich etwas in den Metadaten angepasst oder eben so eine kleine Datei wie die thumbmails geschrieben. Wenn das Gehäuse dann noch UASP unterstützt, könnten dabei schon einige zufällige Schreibzugriffe entstehen und damit auch hohe Latenzen bei den Antworten.

Das ist dann eben das Risiko, man erwartet nicht das sowas passiert und man kann es oft auch nur schwer testen, kann es aber eben auch nicht zu 100% ausschließen und genau dann weiß man eben nicht, was passieren wird.
NobodysFool schrieb:
Da sind wir aber dann genau so weit, wie mit jeder anderen beliebeigen Hardware. Es gibt Standards.
Was heißt Standards? Die meisten HDDs antworten einfach nach einer bestimmten Zeit, die Red haben ab Werk meines Wissen 7s also Timeout und gegen dann im Zweifel einen Fehler aus, die Green 14s. Die meisten Desktopplatten dürften ähnliche Werte haben und HW RAID Controller warten üblicherweise auch nur 8s, die versuchen aber dann ggf. auch diese Timeout selbst bei der Platte entsprechend einzustellen, nur geht das eben bei der Archive nicht, da die dieses Feature nicht unterstützt und so kurze Timeouts auch unter bestimmten Umständen gar nicht einhalten könnte.
 
Bei meinem Absatz mit den Standards wollte ich im Prinzip darauf raus, daß man eben oft kaum oder keine konkreten Angaben von den Herstellern hat. Nicht nur speziell auf Festplatten bezogen. Man hat nie eine Garantie von irgendwem, daß bestimmte Hardware mit beliebiger anderer Hardware einwandfrei kann. Dazu ist "der PC" einfach ein viel zu offenes Baukastensystem. Was auf der einen Seite der Vorteil ist, ist eben auf der anderen Seite auch ein Nachteil. Nicht umsonst laufen Apple Computer ausgesprochen stabil, weil eben die Hardwareauswahl (wenn man bei Originalprodukten bleibt) praktisch handverlesen ist.

So ist es eben auch in diesem Fall, und da gebe ich Dir ganz und gar Recht, daß man nicht alles vorhersagen kann. Da hier die Hilfestellung seitens der Hersteller aber auch teilweise mehr als dürftig ist, bleibt eben für wagemutige manchmal nur es einfach zu probieren. Ich mach das auch nur, wenn ich weiß daß das Geld das ich ausgebe, auf keinen Fall in den Wind geschossen ist. Sowohl Docking Station als auch 8 TB Platte hätten auch getrennt voneinander Verwendung bei mir gefunden. Aber das Risiko erschien mir in dem Fall recht gering. Auch ich hab mich vorher schlau gegoogelt, und das Ergebnis war "sicher ist nichts", mit deutlich überwiegender Tendenz zu "es funktioniert" bei denen dies probiert haben.
 
Das gilt ja nicht nur für Apple, auch bei Server-HW ist man extrem eingeschränkt was die Auswahl angeht. Die Anbieter der Systeme geben keinen Support wenn man sich nicht an die vorgegebenen Konfigurationsmöglichkeiten hält und die FW von Controller verhindert sogar zuweilen einfach andere Geräte dort anzuschließen, nur weil sie nicht den richtigen "Stallgeruch" hat. Das wird ja nicht als Schikane gemacht, sondern eben weil man nur so eine bestimmte Betriebssicherheit erzielen kann.

Bei der Archive und SMR HDDs allgemein ist aber weniger der Standard bzw. dessen Nichteinhaltung das Problem, sondern einfach die Tatsache das es eben eine neue Technologie mit besonderen Eigenheiten ist. Dafür gibt es ja die SMR Erweiterungen im ATA Befehlssatz und wäre deren Nutzung zwingend, würden SMR HDDs kaum irgendwo einsetzbar sein. Um das zu vermeiden hat man eben mit Maßnahmen wie dem OnDisk Cache soweit möglich versucht die Platten wie normale HDDs nutzen zu können, aber auch das hat eben Grenzen.
 
Zurück
Oben