Welche Festplatte/Controller/ Externe/Wechselrahmen sollte ich kaufen? (Teil II)

Status
Für weitere Antworten geschlossen.
Eine SSHD hat nur nen kleinen SSD Cache. Da werden oft genutzte Daten reingepackt. Beim Betriebssystem funktioniert das super da man das dauernd nutzt und bei jedem Start das gleiche geladen wird. Spielst du ein Spiel nur ab und an landen die Daten nicht im Cache. Sind die oft genutzten Daten beim Map laden etc. zu groß landen sie nicht im Cache oder "vertreiben" andere die dann wieder langsam laden. Für nen Office Rechner waren SSHDs super da man SSD ähnliche Leistung mit viel Speicherplatz für wenig Geld bekommen hat. Heute bekommst du SSDs mit genug Platz hinterher geworfen, oft verbaue ich gar keine HDDs mehr.
 
Dazu kommt noch das Problem, das heutige Spiele deutlich über 8-16 GB laden müssen und damit hast du einfach kein Vorteil einer SSHD.

SSHDs waren Sinvoll als SSDs noch 2000 € gekostet haben. Heute taugen sie effektiv nichts mehr.
 
Holt schrieb:
Das kannst und solltest Du aber vorher testen indem Du eine große Partition anlegst und diese einmal komplett mit h2testw testest, also beschreibt und prüfst.

Gibt es dafür evtl. eine schnellere Alternative? Mehr als neun Stunden allein fürs beschreiben ist etwas arg.
 
9 Stunden? Für die Archive v2 hat es bei mit 24h30m fürs Schreiben und noch mal 17h20m bzw. 18h10m (bei der anderen) fürs Prüfen (das ist sehr wichtig, nicht das Prüfen vergessen!) gedauert!

Betrachte es gleich als einen Burn-In Test, den mache ich bei neuen HW sowieso und vor allem bei neuen Platten, da diese schon wegen des Risikos von Transportschäden besonders ausfallgefährdet sind! Wenn Du aber darauf verzichten und nur auf Fehladressierung prüfen willst, könntest Du einen Low-Level Benchmark wie HD Tune nehmen, aber nicht die alten 2.55er Freewareversion, die unterstützt nur maximal 2TiB (da steht dann auch oben 2199GB) und taugt dafür gar nicht, das Tool taugt aber sowieso wenig. Da musst Du dann die typische abfallende Kurve der Leseraten von etwa 200 auf 100MB/s sehen könenn, wenn nicht und es gibt ein Sägezahnmuster, dann gibt es eine Fehladressierung.
 
Zuletzt bearbeitet:
Holt schrieb:
Da musst Du dann die typische abfallende Kurve der Leseraten von etwa 200 auf 100MB/s sehen könenn, wenn nicht und es gibt ein Sägezahnmuster, dann gibt es eine Fehladressierung.

Nach der Beschreibung haut es mit der Platte also nicht so hin wie es soll? Oder sehe ich das Sägezahnmuster zu eng? Dieser Riesenspike nach unten sieht auch nicht gerade vertrauenerweckend aus.

1.JPG
 
Ich habe jetzt eine Seagate NAS HDD 3TB bestellt, danke für euere Hilfe.

Habe ich das ein paar Beiträge weiter oben gelesen, dass ich mit h2testw die neue Platte testen kann ? Gibts da irgendwas spezielles zu beachten oder einfach einmal nach dem formatieren drüberlaufen lassen ? Für 3TB werde ich mit GPT partitionieren müssen oder ?
 
Das sieht Du zu eng, die Kurve fällt ja doch von 200 auf 100MB/s ab un der typischen Form wie es bei HDDs üblich ist. Das sie etwas "zackig" ausfällt ist normal, das sollte man nicht überbewerten und ebenso die Einbrüche, die meist entstehen wenn nebenbei andere Zugriffe auf die Platte erfolgen. Schau im Zweifel noch mal auf die S.M.A.R.T. Werte und wiederhole die Messung um zu sehen, ob die Einbrüche wieder genau an der gleichen Stelle auftreten, wenn nicht sind sie klar durch Fremdeinwirkung (eben andere Zugriffe auf die Platte während es Benchmarks) entstanden.

Von dern Sicherheit her das es keine Probleme wegen der Kapazität der Platte in dem Gehäuse gibt, würde ich aber einen Test mit h2testw also noch etwas sicherer ansehen, auch wenn die Kurve und auch diese "aufsteigende Wolke" der gelben Punkte der Zugriffszeiten schon zumindest eine Fehladressierung ausschließen.
Ergänzung ()

Depp_vom_Dienst schrieb:
Gibts da irgendwas spezielles zu beachten oder einfach einmal nach dem formatieren drüberlaufen lassen ?
h2testw ist recht alt und war für USB Stick und Speicherkarten konzipiert, die hatten keine sehr hohe Kapazität. Bei HDD mit viele TB sollte man ein paar Hunder MB und wenige GB weniger wähle als vorgeschlagen wird, da die Metadateien des NTFS Filesystem bei großen Volumen schneller wachsen und größer werden als heise es damals erwartet hat und sonst am Ende der Platz ausgeht, was zu einem Schreibfehler führt. Diese Fehler ist also kein Fehler der Platte, sondern im Grunde ein Bug von h2testw, der eben dessen Alter und Ausrichtung auf kleine Volumen geschuldet ist, sowie der Tatsache, dass bei NTFS die Metadateien eben Spare angelegt sind und mit der Nutzung dynamsich wachsen, man also vorher sowieso nie genau bestimmen kann, wie viel Platz hinter noch für Nutzdaten frei sein wird.
Depp_vom_Dienst schrieb:
Für 3TB werde ich mit GPT partitionieren müssen oder ?
Bei internem Einbau auf jeden Fall, bei Einbau in ein USB Gehäuse nur dann, wenn dieses keine 4k Sektoremulation hat.
 
Holt schrieb:
Schau im Zweifel noch mal auf die S.M.A.R.T. Werte und wiederhole die Messung um zu sehen, ob die Einbrüche wieder genau an der gleichen Stelle auftreten, wenn nicht sind sie klar durch Fremdeinwirkung (eben andere Zugriffe auf die Platte während es Benchmarks) entstanden.

Bei einem zweiten Durchlauf direkt nach dem ersten war der Spike auch da, an der gleichen Stelle, allerdings etwas schmaler. Bei einem dritten und vierten Durchgang gerade eben war er dann weg, die Kurve verlief gleichmäßig nach unten.

Smartwerte sehen so aus:

3.JPG

Scheint zu passen?


Holt schrieb:
auch wenn die Kurve und auch diese "aufsteigende Wolke" der gelben Punkte der Zugriffszeiten schon zumindest eine Fehladressierung ausschließen.

Was könnte denn noch auftreten?
 
Die Werte sehen gut aus, die hat ja wenigstens schon ein paar Daten geschrieben und gelesen.

Was noch auftreten könnte? Schwer zu sagen, aber wenn es einen Bug in der FW des USB-SATA Bridgechips gibt, könnte es eben doch passieren, dass Daten irgendwoanders hin geschrieben werden als gedacht und damit Datenverlust auftreten. HD Tune liest ja in der Standardeinstellung nur alle paar MB mal 64k, da ist die Chance sowas zu erkennen eben eingeschränkt, wenn es nur einen kleinen Adressbereich betrifft, während mit h2testw praktisch alle Adressen beschrieben und gelesen werden, die Chance sowas zu erkennen ist damit halt ungleich höher. Das solll nicht bedeutet, dass ich von so einem Bug wüsste oder ihn für wahrscheinlich halte, sondern nur erklären warum ich die Prüfung mit h2testw bevorzugen.
 
Holt schrieb:
Die Werte sehen gut aus, die hat ja wenigstens schon ein paar Daten geschrieben und gelesen.

Ja, ich hatte gestern Abend knapp 1TB mit h2testw geschrieben und dann abgebrochen weil ich ins Bett wollte. Die geschriebenen Daten hab ich dann heute prüfen lassen.
 
Lass den Rechner doch nachts durchlaufen oder kannst Du dann nicht schlafen?
 
Der H2wtest ist fehlerfrei durchgelaufen (bis auf 10GB die ich nicht getestet habe). Ist es normal, dass die Platte schon von Anfang and Such- und Lesefehler hat ?

Unbenannt.JPG

Und noch eine kurze Frage aus reinem Interesse, was hat es damit auf sich, dass ihr die Rohwerte immer in HEX haben wollt ?
 

Anhänge

  • Unbenannt.JPG
    Unbenannt.JPG
    138,3 KB · Aufrufe: 437
Wir wollen die Werte nicht in HEX haben sondern die Werte sind in HEX ;)

Bsp.:

ID. 09 = 12 HEX

Du siehst aber oben 18 Stunden Dec.

Liegt daran weil 12 HEX = 18 Dec ist :)
 
Hey Leuts,

da ich mehr Speicherplatz brauche und meine 256 GB System SSD und 500 GB Externe zu klein sind wollte ich mal aufstocken ;)

Drauf sollte alles mögliche Ablage Spiele etc. Sicherheit muss nicht unbedingt gegeben sein wenn weg dann ist so ;P

Habe an 2x2 TB HHDs gedacht oder ist eine 4 TB Sinnvoll?

Max Budget 250 €

Hatte früher 3x 500gb in Raid 0 alle davon sind jetzt in Externen überall im Haus tätig

Wäre auch jetzt wieder gegen ein Raid 0 nicht abgeneigt

Edit: PC ist so 6-12 Stunden am Tag an
 
Die übliche verdächtige ;) WD RED mit 2x2 TB oder 4 TB. Ich würde allerdings auf 4 TB setzen und RAID-0 lassen. Die Nachteile überwiegen einfach die Vorteile mMn. Teurer (~25 €), höherer Verbrauch, lauter und das Ausfallrisiko bei RAID 0 ist nicht zu unterschätzen vor allem eine HDD kaputt = alles kaputt.

Alternativ kann man auch noch 5 TB in betracht ziehen. Das ist allerdings wieder teurer aber wenn das Budget da ist why not.
 
Meinst die wirds irgendwo nächste Woche im Angebot geben ;? bei den Idealo Preisentwicklung war die ja schonmal nen bissel Billiger und wie alt ist die eigentlich?
 
Das kann dir keiner sagen ob die billiger wird. Meine Erfahrung sagt aber nein, sie wird eher teurer.

Alter spielt eigentlich keine Rolle aber das kannst du im Preisvergleich sehen. Wobei das nur das Vorstelldatum ist nicht das Produktionsdatum. Es wird aber keine neue Serie von WD geben vor allem nicht mit den Eigenschaften einer RED.
 
Depp_vom_Dienst schrieb:
Ist es normal, dass die Platte schon von Anfang and Such- und Lesefehler hat ?
Nein und die hat auch gar keine Lese- oder Suchfehler. Die Rohwerte zeigen bei den Seagate bei u.U. den beidden Attributen nämlich mehr als einen Zähler an. Die ersten 2 Bytes links im Rohwert (hier jeweils 4 Nullen) sind die Anzahl der Fehler, hier also keine Fehler, und die anderen 4 Byte (8 Stellen dahinter) sind die Anzahl der Lese- bzw. Suchvorgänge und das die bei der Nutzung der HDD zunehmen, dürfte einleuchten.

Der Aktuelle Werte wird dann ab Erreichen einer bestimmten Anzahl an Vorgängen aus dem Verhältnis der Fehler zu der Anzahl der Vorgänge geblidet, so etwa nach dieser Formel:

Depp_vom_Dienst schrieb:
Und noch eine kurze Frage aus reinem Interesse, was hat es damit auf sich, dass ihr die Rohwerte immer in HEX haben wollt ?
Jetzt sollte klar sein, warum es gerade bei den HDD sinnvoll ist sich die Werte in der hexadezimalen Form anzeigen zu lassen, denn in der dezimalen Form kann man nicht einfach sehen welchen Werte die beiden linken Bytes haben und dann sind auch nicht einfach die ersten 4 Stellen die Zahl der Fehler.

Auf das Attribut Hardware-ECC wiederhergestellt dürfte diese Formel ebenfalls anwendbar sein, aber eben nicht für alle Rohwert. Z.B. bei Temperatur und Lufttemperatur sind auch bei HDDs anderer Hersteller im Rohwert gerne mal mehr als eine Information enthalten, die bisherigen Extremwerte finden sich dort nämlich auch oft wieder.
 
Danke für die einleuchtende Erklärung. Nun bin ich wieder ein klein wenig schlauer und beruhigt, dass die HDD höchstwahrscheinlich in Ordnung ist.

So wie die verpackt war, ESD Hülle und dann einfach Pappe außenrum, hatte ich da erst meine Zweifel. Die Festplattenverpackung bei Amazon ist tatsächlich etwas fragwürdig, wenn es sich um BULK Ware handelt.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

O
Antworten
525
Aufrufe
107.963
J
Zurück
Oben