Test Festplatten mit 5 bis 8 TB im Test: 33 TByte von HGST, Seagate, Toshiba und Western Digital

Danke für den Test. Aber eigtl ist das einzige, was bei diesen Platten zählt, der Preis pro TB, und die Langlebigkeit. Speed ist irrelevant, wenn man sie einmal voll macht, und dann den Rest der Zeit halt MP3s und Movies davon streamt.. bzw, ob jetzt ein Backup 5h oder 5h 30m dauert, ist wirklich vollkommen egal.
Nichtmal die Stromaufnahme ist relevant, da diese Platten 90% der Zeit eh abgeschaltet verbringen werden.
 
stoneeh schrieb:
Aber eigtl ist das einzige, was bei diesen Platten zählt, der Preis pro TB, und die Langlebigkeit.
Die Langlebigkeit ist schwer meßbar. Oft werden die Platten beim Transport beschädigt, oder wenn der Händler die auf die Theke klatscht.

Heutige PCs sind üblicherweise lautlos. Das Ruhegeräusch ist daher ebenso wichtig. Das Lauteste sind bei mir derzeit die HDDs, was ärgerlich ist, wenn man ein paar Stunden surft.

Die Meßergebnisse liegen hier zwar nahe beeinander, allerdings sind auch nur neue und schnelle 7.200-HDDs im Testfeld. Die gern verkauften 4TB-Modelle schaffen mit Ach und Krach 150MB/s, mitunter nur 130MB/s. Von der Schreibleistung der Archive garnicht zu sprechen.

Die Befüllung der HDD ist das einzige, was selbigen widerfährt. Dann kommen die in den Schrank und werden von Zeit zu Zeit aktualisiert. Lesen muß ich hoffentlich nie davon.
 
hardstylerrw

Ich sehe für die HDD nicht mehr ganz soviel Zukunft,wie einige es hier sehen.

Denke SSD ist einfach die Zukunft. Ich mein es sind ja nun schon 2 TB SSD am Markt.

Technisch könnte man schon 10 TB SSD bauen. Sind halt nur nicht bezahlbar für normal sterbliche.

Habe selber auch nur noch SSD. 1 TB Crusical. Die Umstellung des Datengrab und Backup ist nur eine frage der Zeit.
 
Zuletzt bearbeitet:
Flinxflux schrieb:
Eine 4 Jahre alte WD 4TB Platte wird seit kurzen immer mal beim Systemstart korrigiert.
Wollte mir 2 Seagate Archive 8 TB nacheinander zulegen. Eine als Ersatz für die
WD 4TB, die zweite sollte dann die Backup Platte auch eine WD 4 TB ersetzen.
Aber bei 50 MB Sek. ist die bei 3,4 TB ja Tage am kopieren.
Also meine Netzwerk Geschwindigkeit von ca. 120 MB\s sollte eine neue Festplatte schon erreichen.
Aber bei 100 € Mehrkosten pro Platte von der Archive zur Desktop kann ich die auch Jahre rödeln lassen :)

Beim lesen wird die Seagate Archive 8 TB wohl etwas schneller sein oder ?
Wie sieht es bei zugriff von 2 Computern auf die Seagate Archive aus ?

Im Winter will ich hier noch einen dritten HTPC aufstellen, wenn die HD Videos dann beim abspielen das laggen anfangen
gibt es statt Computer wieder einen Nintendo.

Das Problem der einbrechenden Schreibraten tritt aber auch nur auf, wenn die Festplatte vorher bereits mit Daten beschrieben wurde.
Ich habe eine komplett fabrikneue Platte getestet und konnte die kompletten 8TB mit ~150MB/s füllen. Hat zwar immer noch ewig gedauert, aber ist wesentlich schneller als die 30-50MB/s die hier so genannt wurden.
Wenn man also eine alte Platte auf eine Archive umzieht (und es im besten Falle nur große Dateien sind) sollte sie sich wie eine normale HDD verhalten.
Lesend lagen dann über längere Zeiträume ungefähr 180 MB/s an.

Im Grunde genommen ist die Platte super, solange man nicht großartig Daten löscht. Soll nämlich auf diesen gelöschten Platz nachher geschrieben werden, wird die Schreibrate aufgrund des SMR einbrechen. (Nach Füllen des Caches)

Theoretisch müsste man das durch regelmäßiges Defragmentieren doch eigentlich sogar umgehen können?
Solange sie dann weiterhin einfach als Datengrab dient sollte die Datenrate theoretisch nie einbrechen.
Ist nur die Frage wie sich die Last durch das ständige (z.B. nächtliche) Defragmentieren auswirkt.
 
Koto schrieb:
Technisch könnte man schon 10 TB SSD bauen.
Nicht könnte, sondern kann man. Aber ja, unbezahlbar fürs erste.

Aus technischer Sicht würde mich ein NAS schon lange interessieren, nur leider habe ich persönlich keinen Verwendungszweck dafür, und intern hab ich mit meinen SSDs erstmal genug.
Aber schön zu sehen dass man hin und wieder auch solche für NAS konzipierten Festplatten testet.
 
menace_one schrieb:
Ich finde die Angabe zur Fehlerrate der WD Red Pro etwas verwirrend.
Das ist Absicht, damit es auf den ersten Blick wie 1:10^15 aussieht, Toshiba macht das übrigens auch und schon dafür gibt es bei mir dann Abzüge in der B-Note, denn sowas gehört sich nicht. Aber wie man sieht scheint es zu funktionieren, es fallen ja einige drauf rein:
MichaG schrieb:
Tabelle mit Hinweis angepasst. Beschreibung der WD Red Pro auch korrigiert. Schöne Verwirrung stiften die da. :freak:
Bei Datenblättern muss man eben immer genau schauen was dort steht und noch genauer, was dort nicht steht. Wenn es keine Zulassung für den Dauerbetrieb gibt, dann steht das dort nur bei den Seagate HDD in Form der Angabe der 2400 Power-On Hours, die sich aufs Jahr beziehen. Die meisten Hersteller verschweigen eben alles, was nicht da ist und wenn da nicht steht für wie viele HDDs in einem Gehäuse (was nichts mit RAID oder nicht RAID zu tun hat!) die HDD zugelassen ist, dann ist sie im Zweifel dafür gedacht alleine im Gehäuse zu werkeln, also einige HDD weil sie mit den Vibrationen der anderen HDDs nicht umgehen kann.
downloadzacc schrieb:
aber die mit Abstand interessanteste Platte für Privatleute, die Seagate Archive 8 TB wird nicht getestet.
Die wäre interessant gewesen, ist aber als SMR Platte etwas besonderes und wegen dem OnDisk Cache auch nicht so einfach zu testen. Das ist wie bei den TLC SSDs mit dem Pseudo-SLC Schreibcache: Solange dort rein geschrieben werden kann, ist die Leistung sehr gut, wenn der voll ist, fällt bei den meisten die Schreibrate mehr oder weniger extrem ab. Um die Datenvolumen der meisten Benchmarks auszunehmen, reicht der Cache der Archive 8TB, damit würde es ein verzerrtes Bild geben.
downloadzacc schrieb:
Dafür die 8 TB Desktop :freak: Wenn, dan hätte man mal die Seagate NAS 8TB testen müssen, denn die hat im Gegensatz zur Desktop Seagate 10*15 Und wäre damit zumindest gegen die Hitatchi und WD Red Pro gut zu vergleichen gewesen.
Die UBER sagt erstmal nichts über die Leistung aus, sondern etwas über die Häufigkeit von Lesefehlern, hat also vor allem bei einem RAID 5 für die Chance auf ein Rebuild eine große Bedeutung. Wenn man ein RAID 5 mit 4 8TB HDDs hat und da eine Ersetzen und ein Rebuild machen muss, dann stehen die Chance bei HDDs mit einer UBER von 1:10^14 theoretisch nur noch bei 3,7%, wenn man aber 8TB HDDs mit einer UBER von 1:10^15 verwendet, dann sind es 81,3%, also ein gewaltiger Unterscheid.

Ein Test der Seagate NAS wäre interessanter gewesen, aber von den Leistungsdaten und den für die Performance relevanten Angaben der Geometrie in den Product Manuals her, sind diese identisch und damit dürften die Ergebnisse im Test auch eher unterschiedlichen FW Auslegungen und der Serienstreuung als den Modellen geschuldet sein.

Außer der Archive und der Enterprise Capacity haben die anderen 8TB HDDs von Seagate alle dieser Werte:
Modell, max. Recording density, Track density, Areal density, Heads, Internal data transfer rate (max)ST8000DM002: 2241 KBPI, 362KTPI, 1333 Gb/in², 12, 2546Mb/s (Desktop)
ST8000VN0002: 2241kFCI, 362KTPI, 1333 Gb/in², 12, 2546Mb/s (Seagate NAS)
ST8000NC0002: 2241 kb/in, 362KTPI, 1333 Gb/in², 12, 2546Mb/s (Enterprise NAS)
ST8000VX0002: 2241kFCI, 362KTPI, 1333 Gb/in², 12, 2546Mb/s (Surveillance)

strex schrieb:
Bis auf den am Anfang vielen Defekten schon bei Lieferung, laufen alle bei mir seit Mai 2015 ohne Problem im meinem NAS mit 16 HDDs. Aber ja, bei mir ist es scheinbar ein Wunder, weil ich eine komplette Mischung unterschiedlichster Desktop-Platten verwende ohne große Probleme mit über >30.000 Stunden. Das kann es laut Holt ja gar nicht geben..
Wo habe ich das behauptet? Die Desktopplatten von damals die schon über 30.000 Stunden runter haben, sind nicht mehr die Modelle von heute, die Produkte ändern sich. Schau Dir doch mal Entwicklungsgeschichte der Barracuda Reihe an, dann sieht Du was sich da von der 7200.7 bis zur 7200.14 aka ST3000DM001 geändert hat und für was für Einsatzzwecke die früher noch so alles gedacht waren. Das keine Desktopplatte 30.000 Stunden erreichen kann, ist also totaler Blödsinn den ich nie geschrieben habe, aber dass die heutige es noch schaffen, da habe ich gewissen Zweifel und die ST3000DM001 zeigt genau das. Bei viele negativen Rezessionen im Netz ist diese nach etwas über 2 Jahren Dauerbetrieb z.B. im NAS dann ausgefallen und bei Backblaze hat sie sich zuerst auch gut geschlagen:
Dafür das die Platten doch auch noch mit sehr vielen HDDs zusammen in einem Gehäuse betrieben werden, waren die Ausfallraten einschl. Q3 2013 nicht sehr hoch und sind dann vor allem in 2014 gewaltig gestiegen, als die eben so etwa 2 Jahre rum hatten. In Betrieb genommen wurden sie ja vor allem in Q1, Q2 und Q3 von 2012 und damit haben alle wenigstens ein Jahr, als bis Q3 2013 gut durchgehalten und als dann der Anstieg der Ausfallraten erfolgte, waren schon einige bei knapp 2 Betriebsjahren und als in Q3 die Ausfälle die Spitze erreicht haben, waren alle etwa 2 Jahre in Betrieb, außer denen die später nachgekauft wurden. Interessant wäre halt eine Statstik wie alt eine Platte war als sie ausgefallen ist, dann könnte man sehen wie viele Stunden die so einen Betrieb ausgehalten haben, für den sie gar nie gemacht wurden.

Andererseits ist die Lebenserwartung für Hardware generell und auch für HDDs so 5 bis 7 Jahre und nach zwei Jahren Dauerbetrieb haben diese HDDs so viele Stunden runter, wie nach über 7 Jahren im vorgesehenen Betrieb mit 2400 Betriebsstunden pro Jahr, da würde dann keiner meckern wenn sie nach 7 Jahren ausfällt.

Hör also auf mir Dinge zu unterstellen, die ich nie behauptet habe, denn das ist das typische Verhalten von Trollen, oder willst Du als einer bezeichnet werden?
Admiral*Thrawn schrieb:
Ist einer der Gründe (neben den WD Greens bei denen man als Kunde im Rahmen der Garantiebedingungen offiziell kein wdidle3 hat einsetzen dürfen um den Kopf-Park-Wahn abzustellen, das war nur bei WD Blacks erlaubt, die halt auch mehr Garantiezeit haben, ololololo), warum mir WD nicht mehr in den Kram passt.
Die Black sollten schon hochwertiger als die Green gebaut sein, aber zumindest von den Daten und auch dem Testergebnis her, kann die Black selbst im Vergleich zu Red Pro aus gleichem Hause einfach nicht bestehen.

Admiral*Thrawn schrieb:
NOCH scheinen sich derartige Unsitten nicht auf HGST ausgebreitet zu haben, ich hoffe das bleibt auch so.
Leider fürchte ich, dass HGST immer mehr zu WD wird, die gute Informationspolitik war das erste Opfer, wie lange die hohen Ansprüche an die Qualität noch erhalten bleibt, wird man sehen müssen. Derzeit erscheinen ja auch wieder einfach Deskstar im Modellprogramm, nachdem es dort ganze eine Weile kein 3.5" Modell unterhalb der Deskstar NAS gab. WDs 8TB HDDs werden bei HGST gefertigt, wer weiß wann also die erste WD Green/Blue unter dem HGST Label auf den Markt kommt um mit der Marke, deren Image ja sehr gut ist, dann auch das untere Preissegment zu bedienen?

Als es noch die Festplattensparte von Hitachi war, hatte jede 3.5" HDD eine 24/7 Zulassung und jede hatte auch Vibrationssensoren, wäre also heute also NAS oder Enterprise Cloud HDD klassifiziert worden. Selbst die billigsten Deskstar, die aber nie (Sonderangebote gerade im Rahmen der Übernahme durch WD ausgenommen) so günstig wie eben z.B. eine ST3000DM001 war. Seagate fertigt heute noch HDDs, Hitachi hat seine HDD Sparte an WD verkauft, wirtschaftlich war das Konzept der Kostenoptimierung durch Wegsparen von Eigenschaften die für viele Anwendungen nicht benötigt werden, also offenbar erfolgreicher als jede HDD so gut zu bauen, dass sie selbst den harten Einsatz bei Backblaze übersteht.

Toshiba hat das offenbar auch schnell erkannt, deren billigste Modelle kosten noch weniger als die von Seagate.
Admiral*Thrawn schrieb:
HGST lag da bislang an einsamer Spitze in Sachen Qualität, aber die Heliumteile haben scheinbar höhere Ausfallszahlen als die luftgefüllten Disks von denen (s. Backblaze).. Sollte man auch nicht verschweigen.
Die Daten von Backblaze sind sowieso wegen der unterschiedliche Arten von HDDs (Desktop bei Seagate, NAS bei WD, vor allem Megascale Enterprise und alte Deskstar bei HGST) und bzgl. der He wenig aussagekräftig, da von der He8 gerade ein Pod mit 45 HDDs im Betrieb ist.

klampf schrieb:
Fotos sind gut, ich bin ehrlich erstaunt, dass die Red pro und Black Unterschiede im Gehäuse haben.
Die HDDs sind nicht gleich, selbst wenn sie von außen gleich aussehen und nicht einmal das tun sie. Die Black hat gegenüber der Red Pro keinen einzige Vorteil, die lebt vom Image und sonst nichts.

TheJJJ schrieb:
wer viel Kapazität für wenig Geld benötigt aber wenig weitere Ansprüche hat, sollte mal nach Platten in USB Gehäusen gucken. Oft sind die günstiger als interne Platten!
Da sind aber eigentlich immer nur die einfachen Desktopplatten verbaut, aber eben kein NAS Platten.

TheJJJ schrieb:
Vorher hatte ich diverse 1,5tb und 3tb Seagate. Die hatten Firmwarefehler und / oder ungewöhnlich hohe Ausfallwahrscheinlichkeit (Massenklage in USA). Daher hat Seagate bei mir versch...en. Zudem werden die wirklich heiß und laufen viel lauter als die neuen WD.
Das eine HDD mit 7200rpm wärmer wird und lauter ist als eine mit 5400rpm, sollte nicht wirklich verwundern. Bzgl. der Massenklage kann man da nur lachen, die HDDs wurden bei Backblaze komplett entgegen der Spezifikation betrieben und beim Kläger sehr wahrscheinlich ebenfalls. Die Leute sollten man die Dokumentationen zu den Produkten lesen, die sie kaufen. Das die Barracuda heute nicht mehr dafür gedacht sind wofür frühere Modelle mit dem Namen Barracuda mal gedacht werden, haben wohl so einige nicht gesehen oder nicht begriffen, die fallen dann eben auf die Schnauze.
TheJJJ schrieb:
(Die 4x ST3000DM001 Seagate hatte ich damals auch in USB3 Gehäusen gekauft. Schon 2012 waren die externen mit 111€ günstiger als alle internen 3TB Platten.)
Eben, die waren damals mit Abstand die günstigsten und dazu noch schnell, die wurden also überall eingesetzt und oft auch so, wie man sie gar nicht einsetzen sollte und dann halten sie eben nicht so lange. Welches das richtigen Modells innerhalb der Produktplatten der Hersteller ist, hängt eben vom Einsatz ab. Die Wahl des richtigen Modells ist da wichtiger als die Wahl des Herstellers, wie auch das Video "Right Drive, Right Job" schön zeigt. Nicht alle HDDs sind eben gleich, selbst wenn man ihnen die Unterschiede von außen nicht ansieht und wer nun glaubt die neuen WD 8TB wäre mit einer Ultrastar He8 identisch, nur weil beide die gleichen Gehäuse haben, dem ist eben nicht zu helfen. Der glaube weiter an den Weihnachtsmann, der ihm eine Enterprise Nearline Platten zum Preis einer Desktop HDD verkauft.
TheJJJ schrieb:
Daher wundere ich mich, dass die früher so verbreiteten 'green' Serien offenbar durchweg eingestellt wurden
Die Green wurden in die Blue integriert, nicht eingestellt.

hardstylerrw schrieb:
Ich sehe für die HDD nicht mehr ganz soviel Zukunft,wie einige es hier sehen.
Vor 1-2 Jahren,war ich auch noch der Meinung das die HDD noch lange neben der SSD Co existieren wird.
Die Entwicklung der Kosten pro TB läuft inzwischen bei SSD und HDD recht parallel, damit werden die SSD so bald die HDDs dort nicht einholen und HDDs werden weiterhin überall dort eingesetzt werden, wo es vor allem auf hohe Kapazität zum kleinen Preis ankommt. Es werden also vor allem die großen Modelle mit hohen Kapazitäten bleiben.
hardstylerrw schrieb:
Aber die maßgebenden technischen Veränderungen,die in Zukunft für weitere Kapazitätssteigerungen herhalten müssen stoßen mir da schon etwas sauer auf.
Pro Platter konnte man die Datendichte nicht so wirklich steigern bzw.
Welche Kompromisse man in den letzten Jahren schon eingegangen ist um überhaupt die heutigen Datendichten zu erzielen, scheint Dir wie den meisten Users nicht bekannt zu sein. Das ganze Thema mit dem Workload Rating gab es früher nicht, aber heute wo die Köpfe im Teilkontaktbereich arbeiten wenn Gelesen oder Geschrieben wird, dazu wird das Ende des Kopfes erwärmt mit es sich ausdehnt und die Abstände von 10nm auf 1 bis 2 nm fallen und inzwischen gibt es auch Dual-Heater die für Lesen und Schreiboperationen unterschiedliche Köpferwärmungen und damit Abstände zu Oberfläche mit Subnaometerpräzision ermöglichen. Beim Schreiben muss der Kopf dichter an die Oberfläche als beim Lesen um ein genügend starkes Magnetfeld aufzubauen. Je dichter der Kopf der Oberfläche kommt, umso öfter hat er Kontakt und umso mehr Verschleiß gibt es bei den Karbonbeschichtungen die die Oberflächen schützen, aber andererseits ebenfalls möglichst dünn ausfallen müssen.
hardstylerrw schrieb:
SMR hat dann doch in der Praxis deutliche Geschwindigkeitseinbußen und das ausgerechnet bei Speichergrößen die eigentlich vorrangig für viel Speicheraufkommen gedacht ist.
Nur beim Schreiben, lesend ist die Seagate Archive 8TB sehr performant und die SMR HDDs sind eben vor allem für leseintensive Anwendungen, wer eine hohe Schreibperformance erwartet, sollte nicht zu einer HDD mit SMR Technologie greifen!
hardstylerrw schrieb:
Die andere Technik mit Helium Befüllung ist verhältnismäßig teuer.
Bisher wurde sie nur in teuren Enterprise HDDs verwendet, die kommt ja nun wohl mit den billigen WD 8TB auch in den Massenmarkt, die Herstellung selbst dürfte nicht so viel teurer sein.
hardstylerrw schrieb:
Und wenn ich so Hdd sehe wie die
HGST Ultrastar Archive Ha10 10TB, 512e, ISE, SATA 6Gb/s (HMH7210A0ALE600/0F23364) ab € 1789,
Das ist eine Enterprise HDD und dazu noch eine ganz spezielle, die hat nur SMR sondern host-managed SMR, die funktioniert also nur an Systemen die mit SMR HDDs umgehen können, währen die Seagate SMR HDDs alle host-aware SMR sind, die kann man auch wie normale HDDs nutzen, oder eben wie host-managed SMR, je nachdem wie man will. Es also gut, dass die so teuer ist, sonst kauft die noch jemand der keine Ahnung hat was er da kauft und sich dann wundert, warum sie nicht funktioniert und die Austauschplatten auch alle nicht in seinem System laufen wollen. :evillol:
hardstylerrw schrieb:
Dann kann man sich vorstellen wo die Zukunft von 20-30 TB Hdd sein wird.
Das wird wohl nur mit HMR bzw. HAMR gehen, wenn überhaupt. Seagate hatte mal 20TB für 2020 in Aussicht gestellt, aber die ersten HMR Platten wurden bisher immer nur verschoben. Das Hauptproblem hat man wohl mit der Hitze, die Lubifizierung der Oberfläche dehnt sich aus oder verdampft gar und damit stimmen die Kopfabstände dann nicht mehr.
hardstylerrw schrieb:
Nämlich eine Mischung aus Helium Befüllung und SMR Technik
Also extrem teuer und extrem langsam.
Das ist dem Typ der HDD geschuldet, die Ha10 ist auch nicht für Endkunden gedacht und wird total überteuert angeboten. Die He10 hat kein SMR und ebenfalls 10TB, man braucht also kein SMR um 10TB HDDs zu realisieren.
hardstylerrw schrieb:
Während die neuen Kapazitäten im TB/Euro bestenfall bei HDD stagnieren,werden SSD im Verhältnis immer günstiger.
Genau an der Feststellung gibt es aber Zweifel.
hardstylerrw schrieb:
Momentan stelle ich mir das Ableben der HDD schneller vor als ich es mir noch vor 2 Jahren vorgestellt habe.
Auch da wirst Du wohl daneben liegen.

Cool Master schrieb:
@Blöde
Nein du hast keine Garantie... Du hast Gewährleistung aber keine Garantie.
Das kann man so pauschal nicht sagen, denn es hängt immer davon ab welche HDD konkret verbaut ist und da können auch mal solche mit einer eigenen Endkundengarantie drin sein. Außerdem dürfte er durch den Ausbau der Platte man auch den Gewährleistungsanspruch verwirkt haben.

Cool Master schrieb:
Dazu kommt viele der aktuellen Platten haben kein SATA Interface mehr und setzen stattdessen auf USB auch intern.
Bei 2.5" HDDs ist das üblich, aber bei 3.5" Platten habe ich es noch nie gesehen oder davon gelesen.

Admiral*Thrawn schrieb:
Ich finde aber gerade die ganz spannend, denn oft zeigt sich (neben anderen Vorteilen bei Enterprise Disks), daß die keineswegs weniger oft sterben als Desktopvertreter - Backblaze hat ja auch Enterprise Disks in Betrieb.
Also sehe ich gerade bei den Zahlen von Backblaze nun gerade ganz anders. Die HGST HM sind allesamt Enterprise HDDs "Designed for low-workload data center applications that operate within 180TB per year" und die HMS5C4040BLE640 haben mit durchschnittlich 20,1 Monaten Alter über die 3091 HDD mit 0,44% die besten Ausfallraten aller HDDs dort, die HMS5C4040ALE640 mit 17,2 Monaten Durchschnittsalter der 7085 Exemplare hat mit 0,83% die zweitbeste Ausfallrate. Die 4,89% der He8 sind wegen der geringen Anzahl statistisch nicht relevant und die Desktop sowieso die NAS HDDs haben alle höhere Ausfallraten, selbst bei geringerem Alter, die alten Hitachi Modelle ausgenommen, aber die sind wie gesagt auch von den Eigenschaften her nicht mit den aktuellen Desktop Modellen zu vergleichen, sondern eher mit NAS oder Enterprise HDDs wie eben der Megascale.

Die Daten zeigen daher klar, dass bei so einem harten Einsatz die Enterprise HDDs klar die bessere Wahl sind, während die Desktop HDDs die ja extrem weit außerhalb ihrer Spezifikationen betrieben werden und selbst die WD Red NAS HDDs, die auch weit zumindest bzgl. der maximalen Anzahl von HDDs im Gehäuse außerhalb der Spezifikationen betreiben werden, dies durch erhöhte Ausfallraten zu Ausdruck bringen. Wie es bzgl. des Workloads aussieht, kann man mangels Daten nicht sagen, aber vermutlich überschreitet die Anwendung dort den auch erheblich.
Admiral*Thrawn schrieb:
Hat schon auch Gründe, warum große Data Warehouses scheinbar oft auf "Desktopmüll" zurückgreifen
Die Frage ist doch, was am Ende günstiger ist. Wenn man die HDDs sowieso nicht sehr lange einsetzen will, weil man sie dann gegen größere Modelle tauscht, dann kann es mit den billigen Desktop HDDs am Ende günstiger kommen als wenn man da Enterprise Platten verbaut die mehr als Doppelt so teuer sind und über 5 Jahre durchhalten würde, aber nach 3 Jahren dann doch gegen größere Modelle ersetzt werden. Ob die Rechnung noch aufgeht, wenn man die Desktopplatten dann alle 2 Jahren wechseln muss oder die Steigerung der Kapazitäten wieder mal länger auf sich warten lässt, bei 4 TB hat es ja auch lange gedauert bis die mal überwunden wurden und 8TB bzw. 10TB scheint die nächste Grenze zu sein die schwer zu knacken sein wird, steht auf einem anderen Blatt. Aber spätestens wenn die Kapazität von HDDs irgendwann stagniert, wird es eben so sein, dass eine Desktop die so einen Einsatz nur 2 Jahre durchhält, am Ende teurer wird als eine doppelt so teure Enterprise HDD die das 5 Jahre übersteht.

Admiral*Thrawn schrieb:
Sonst gibts ja nur die relativ alten Google Stats und hardware.fr, erstere sind soweit ich mich entsinne abseits des Alters auch von Markennamen befreit und letztere haben nur einen sehr limitierten Umfang.
Da Daten von Google sind uralt, die kann man vergessen und die Backblaze nicht auf die normale Nutzung von Heimanwendern übertragen, dafür sind die Einsatzbedingungen der HDDs dort viel zu extrem und gerade bei den Desktopplatten zu extrem außerhalb von deren Spezifikationen. Die Statistik von hardware.fr ist da noch die aussagekräftigste, da die eben auf den Kundenerfahrungen beruht und die Kunden nutzen die eben unterschiedliche, mal wie vorgesehen mal nicht, genau wie es eben im Alltag bei den Usern auch ist. Das sagt dann eben nicht aus, wie gut sich eine Desktopplatte im NAS schlägt, aber Backbalze zeigt ja wie lange Desktopplatten bei extremer Überbeanspruchung halten.

Admiral*Thrawn schrieb:
Was besseres als Backblaze haben wir also in Sachen Drive Failure Stats nicht? Es sei denn mir ist irgendeine Informationsquelle entgangen.
Das ist ja keine Untersuchung für Ausfallwahrscheinlichkeiten, sondern die berichten über deren Erfahrungen und damit auch nur über eine kleine Anzahl an HDDs und die auch noch von den verschiedenen Herstellern aus verschiedene Klassen, Desktop von Seagate, NAS von WD und Enterprise von HGST. Die Aussagen über die Hersteller verbieten sie damit eigentlich, dazu müsste man von jedem Hersteller auch eine Anzahl Platten der entsprechenden Kategorien einsetzen, also wenigstens auch von Seagate die NAS und von WD die Green/Blue. Von HGST gibt es da ja keine entsprechende HDD im Programm.

NErnst schrieb:
Diese USB-Festplatten von MediaMarkt und Co werden durch Intenso vertrieben, die haben auch normale HDDs mit Garantie im Angebot.
Das gibt es auch, obwohl Intenso sehr intensiv auf Toshiba Platten setzt und da nur die einfachen Desktopmodelle verbaut.

Kowa schrieb:
Die Archive schreibt bei mir für ein paar Sekunden mit 180MB/s, dann große Pause; also eher mit 30MB/s im Schnitt. Das Problem, vor allem bei der Erstbefüllung ist hier ein fehlendes TRIM, oder ein ausreichend großer Puffer. Dann kann die HDD abwarten, ob ein Block wirklich vorher gelesen werden muß, oder gleich überschrieben werden kann.
Die ist eben für sequentielle Schreibzugriffe ausgelegt und wenn man die frisch formatiert und mit h2testw prüft, schreibt sie auch sehr schnell, weil da eben fast nur sequentiell geschrieben wird. Ein Block überlappender Spuren muss immer am Stück beschrieben werden, dann schreiben die SMR Platten schnell. Bei host-managed SMR ist alles andere auch überhaupt nicht erlaubt und in dem Block darf in der Zeit auch nichts gelesen werden, aber dazu muss der Host eben auch SMR unterstützen und da hapert es eben noch gewaltig. Die Archive ist host-aware, kann als wie host-managed oder drive-managed genutzt werden und wird eben normalerweise wie drive-managed genutzt.

Kowa schrieb:
Bei der alten, wie auch bei der neuen Statistik von Backblaze kommt es sehr auf das Modell an. Früher waren die kleineren Seagate besonders fehlerhaft, letztes Jahr waren es die WD Red untehalb von 4GB.
Die Fehlerraten der ST4000DM001 dürfte im nächsten Jahr auch wieder gewaltig ansteigen, weil die dann auf sind, was mich dann kein Stück wundern würde und dann labert Backblaze in seinem Blog vermutlich wieder was von schlechter Qualität und alle Computerseite zitieren sie wieder und schlagen auf Seagate ein, die nächste Sammelklage wird dann sicher auch schon vorbereitet. Obwohl zumindest Backblaze scheinbar ja schon schlauer geworden ist, die nehmen von HGST die Enterprise HDDs und von WD zumindest die Red als NAS HDD mit 24/7 Zulassung.

Kowa schrieb:
Ich kann da nichts bei finden, wenn Enterprise- und Desktop-HDDs verglichen werden. Es nivelliert sich ja dann über den Preis.
Klar nivelliert es sich über den Preis, aber die Desktopplatten oder deren Hersteller generell deswegen als schlecht hinzustellen, dass ist der Unsinn an der Sache. Wobei ja Backblaze sogar selbst immer wieder darauf hinweist, dass deren Daten auf Heimanwender nicht übertragbar sind, aber der Teil wird dann nur zu häufig übersehen, wenn die Leute sich auf die Zahlen stürzen. Die Lehre aus den Zahlen kann nur sein, nimm die passende Platte für den Einsatzzweck gemäß der Spezifikationen des HDD Herstellers, wenn man sie länger nutzen und Probleme möglichst vermeiden möchte. Wenn man meint mit die billigsten Desktopplatten auch für anspruchsvolle Anwendungen nutzen zu können, muss man damit leben wenn sie nicht so lange wie vielleicht erhofft durchhalten und sollte nicht über die Qualität der Platten meckern. Solange die Kapazitäten steigen und die Preis pro TB fallen, während er Speicherbedarf wächst, kann es ja wirtschaftlich durchaus attraktiv sein 2 oder 3 Jahre mit billigen Desktopplatten zu arbeiten und diese danach durch größere Modelle zu ersetzen statt gleich teurere passende HDDs zu nehmen und dann mehr HDD und damit mehr Infrastruktur für diese zu brachen.
Ergänzung ()

stoneeh schrieb:
Aber eigtl ist das einzige, was bei diesen Platten zählt, der Preis pro TB, und die Langlebigkeit.
Erwarte mal von keiner HDD heute mehr als eine Lebensdauer von 5 bis 7 Jahren, wie lange die konkret halten, hängt von der Behandlung ab, was spätestens beim Verlassen des Werks los geht, von HGST gibt es dieses Video über die Empfindlichkeit und korrekt Handhabung von HDDs und dem Einsatz. Wie soll man das in einem Review testen?
stoneeh schrieb:
Speed ist irrelevant, wenn man sie einmal voll macht, und dann den Rest der Zeit halt MP3s und Movies davon streamt.. bzw, ob jetzt ein Backup 5h oder 5h 30m dauert, ist wirklich vollkommen egal.
Nichtmal die Stromaufnahme ist relevant, da diese Platten 90% der Zeit eh abgeschaltet verbringen werden.
Das mag für Dich und Deine Nutzung so zutreffen, aber man sollte nicht von sich auf andere verallgemeinern, es gibt Leute bei denen die HDDs auch 24/7 laufen und dann spielt die Leistungsaufnahme schon eine Rolle und wenn man ein größeres Storage realisieren möchte, dann ggf. die UBER um zu entscheiden ob man ein RAID 5 oder RAID 6 nehmen will. Wer schon 10Gbit Ethernet hat, der schaut dann ggf. auch mehr auf die Performance als jemand der nur Gigabit Ethernet hat und die 10GBit sind auf dem Vormarsch.

Koto schrieb:
Technisch könnte man schon 10 TB SSD bauen. Sind halt nur nicht bezahlbar für normal sterbliche.
Es gibt von Samsung in Form der PM1633a schon eine 16TB (genauer 15,36TB) SSD, bezahlbar ist die aber eben eher nur für Unternehmen. Die löst dann dort auch nicht HDDs wie die hier getesteten ab, sondern die 2.5" mit 15.000rpm für unternehmenskritische Anwendungen. Da ersetzt dann eine von denen mal eben 25 HDD (die 15krpm HDDs gibt es ja nur 600GB) und damit spart man bei der Infrastruktur für die Platten einen guten Teil der Kosten wieder ein und hat auch noch viel mehr IOPS. Diese Art von Performance Enterprise HDDs stirbt sicher bald aus, ebenso wie die SSDs die HDDs aus den Notebooks verdrängen und wohl auch demnächst aus den einfache Desktop-PCs von Systemintegratoren, wo nur Platz für Windows und Office gebraucht wird. Aber solche 3.5" HDDs mit hoher Kapazität für viel weniger Geld als entsprechende SSDs wie die hier getesteten, wird es noch eine ganze Weile geben.

kamanu schrieb:
Im Grunde genommen ist die Platte super, solange man nicht großartig Daten löscht. Soll nämlich auf diesen gelöschten Platz nachher geschrieben werden, wird die Schreibrate aufgrund des SMR einbrechen. (Nach Füllen des Caches)
Die ist für Cool und Cold data, also Daten sich kaum oder gar nicht mehr ändern und daher nicht für eine hohe Schreibperformance gemacht.
kamanu schrieb:
Theoretisch müsste man das durch regelmäßiges Defragmentieren doch eigentlich sogar umgehen können?
Ja, wobei das Defragmentieren aber wohl sehr lange dauern und für die HDD deutlich mehr Stress als für andere HDDs bedeuten dürfte.
kamanu schrieb:
Ist nur die Frage wie sich die Last durch das ständige (z.B. nächtliche) Defragmentieren auswirkt.
Mache mal eher monatlich draus oder besser jährlich. Wenn sich bei Dir die Daten täglich so sehr ändern das sie defragmentiert werden sollte, dann hast Du definitiv die falsche Platten für den Einsatzzweck gekauft!
 
Im Leistungsrating (Gesamt) ist die Black allerdings einen Tick besser als die Red Pro.
Die sind anscheinend etwas verschieden ausgelegt.

Der Benchmark-Primus ist wiederum die Seagate-HDD vor der WD Black. Die Toshiba X300 kann sich im Mittelfeld auf Höhe der WD Red Pro behaupten, während die Helium-Festplatte das Schlusslicht bildet.

btw. nur weil bei einem Produkt etwas beworben wird und bei dem anderern nicht, heißt das nicht automatisch, dass das was bedeutet:

free.png
 
Zwischen der Werbung und den Datenblättern muss man schon noch ein wenig unterscheiden, die Werbung wirbt gerne mal mit selbstverständlichen Dingen die ein Produkt gar nicht von anderen Unterscheiden. In den Datenblättern wird aber oft gerade das ausgelassen oder verschwiegen, was eben nicht da ist oder unvorteilhaft aussieht. HDDs mit den heute üblichen Datendichten haben nun einmal ein begrenztes Datenvolumen welches sie übertragen können und wenn dieses nicht angegeben ist, bedeutet es halt eben nicht, dass es keine Grenze geben würde, sondern dass der Hersteller diesen Wert lieber nicht nennt, weil er vermutlich eben nicht so hoch ist und es daher unvorteilhaft wäre ihn zu nennen. Ebenso ist es mit den Vibrationssensoren die bei aktuellen HDDs eben wichtig sind, wenn mehrere HDDs in einem Gehäuse stecken, weil die alle Schwingungen verursachen. Ist da nichts vorhanden, steht da nichts im Datenblatt und es wird eben lieber nicht geschrieben: Bauen sie diese HDDs nur alleine oder maximal mit noch einer weiteren HDD in ein Gehäuse. Das kann man dann durch die Blume lesen, etwa so:
Klingt ja auch den ersten Blick so, als würden nur die Tests sich unterscheiden, soll es auch denn jeder darf sich damit darunter das vorstellen was er sich wünscht aber wenn man erst den ganzen Text und dann die Hervorhebungen liest, wird es vielleicht ein wenig klarer. Es ist eben immer noch der größte Tricks eines guten Marketings etwas so zu formulieren, dass die selbst geweckten und nicht selten zu positiven Vorstellungen der Kunden nicht durch das Lesen dessen was dort geschrieben steht, zerstört wird, auch wenn dort im Grund das Gegenteil von dem steht man der unaufmerksame Leser meint gelesen zu haben. Das macht WD nicht nur bei der 10:10^15 UBER Angabe der Red Pro sehr gut. Was meint ihr z.B. wie viele HDDs sich WD in einem RAID 0 im privaten Bereich wohl so vorstellt? Ich schätze wer auf 2 tippt, dürfte richtig liegen. :D
 
whesker schrieb:
Ich verstehe nicht warum eine 6 TB Festplatte 100 Euro mehr kostet als 2 Festplatten mit 3 TB, falls eine Festplatte kaputt geht hat man noch eine zweite Festplatte.
1. ist der utnerschied aktuell 6€...man sollte eben nicht die pro und die nonpro vergleichen wollen...

das ist auch da, was mir im test gefehlt hat, eben jene normale red und eben nicht die pro...das letztere ziemlich auf black niveau liegt wusste man vorher schon
 
Also da die Angaben über Lesefehler meines Wissens Worst-Case sind, ist 1:10^14 nicht ganz das selbe wie 10:10^15, auch wenn es in der Praxis wohl kaum einen Unterschied geben wird.

<=1:10^14 bedeutet, dass auf 100.000.000.000.000 gelesene Bits maximal eines falsch gelesen werden darf.
<=10:10^15 bedeutet, dass auf 100.000.000.000.000 gelesene Bits bis zu 10 falsch gelesen werden dürfen, dafür müssen die restlichen 900.000.000.000.000 Bits allerdings fehlerfrei gelesen werden.

Wie gesagt wird in der Praxis kaum relevant sein und es bleibt offen ob die Hersteller mit solchen Angaben wirklich solche Spitzfindigkeiten abdecken oder (viel wahrscheinlicher) einfach nur die 10^15 am Ende stehen haben wollen.
 
Und das bedeutet, dann bei 1:10^14 eben etwa alle 12TB ein unkorrigierbarer Lesefehler auftreten kann und die HDD noch innerhalb ihrer Spezifikationen ist, während es bei einer mit einer UBER von 1:10^15 etwa nur alle 120TB gelesener Daten passiert darf. Diese Lesefehler führen dann zu schwebenden Sektoren und dazu, dass der Host statt der Daten eben eine Lesefehler als Antwort bekommt, den der dann verarbeiten muss und z.B. also E/A Fehler in Windows anzeigt. Relevant ist das vor allem beim Rebuild eines RAID 5, aber auch sonst sind Lesefehler ärgerlich, weil man entweder die Datei nicht mehr korrekt lesen und damit nutzen kann und sie verliert oder aus dem Backup zurück kopieren muss, wenn die HDD nicht in einem echten RAID (also einem mit Redundanz) läuft. Ganz blöd ist es, wenn das Programm den Fehler ignoriert und so tut als wäre die Datei heil und man speichert sie dann wieder ab. Hier von "in der Praxis kaum relevant" zu reden, halte ich doch für etwas gewagt.
 
kamanu schrieb:
Theoretisch müsste man das durch regelmäßiges Defragmentieren doch eigentlich sogar umgehen können?
Solange sie dann weiterhin einfach als Datengrab dient sollte die Datenrate theoretisch nie einbrechen.
Ist nur die Frage wie sich die Last durch das ständige (z.B. nächtliche) Defragmentieren auswirkt.
Defragmentieren macht genau das, was die Platten bremst, es veranlasst ständig die Spuren komplett neu zu schreiben. Ich würde sagen, wenn man drastisch die Lebensdauer verkürzen will nur zu ;) Will auch nicht wissen wie lange das dauern würde. Im Prinzip hat man auch kaum Leistungsgewinn dadurch, zumindest wenn man die Platte wirklich nur zum Archivieren und auslagern selten genutzten Daten im Einsatz hat.

Kowa schrieb:
Heutige PCs sind üblicherweise lautlos. Das Ruhegeräusch ist daher ebenso wichtig. Das Lauteste sind bei mir derzeit die HDDs, was ärgerlich ist, wenn man ein paar Stunden surft.
Wohl kaum, für bisschen im Internet zu surfen noch den Rechner einzuschalten ist heutzutage überflüssig, dafür hat man Handy/Tablet/TV. Alle jammern das ne Platte bis zu 10W verbraucht aber lassen durchgängig einen Rechner laufen um zu surfen X)
 
Holt schrieb:
Und das bedeutet, dann bei 1:10^14 eben etwa alle 12TB ein unkorrigierbarer Lesefehler auftreten kann und die HDD noch innerhalb ihrer Spezifikationen ist, während es bei einer mit einer UBER von 1:10^15 etwa nur alle 120TB gelesener Daten passiert darf. Diese Lesefehler führen dann zu schwebenden Sektoren und dazu, dass der Host statt der Daten eben eine Lesefehler als Antwort bekommt, den der dann verarbeiten muss und z.B. also E/A Fehler in Windows anzeigt. Relevant ist das vor allem beim Rebuild eines RAID 5, aber auch sonst sind Lesefehler ärgerlich, weil man entweder die Datei nicht mehr korrekt lesen und damit nutzen kann und sie verliert oder aus dem Backup zurück kopieren muss, wenn die HDD nicht in einem echten RAID (also einem mit Redundanz) läuft. Ganz blöd ist es, wenn das Programm den Fehler ignoriert und so tut als wäre die Datei heil und man speichert sie dann wieder ab. Hier von "in der Praxis kaum relevant" zu reden, halte ich doch für etwas gewagt.

Lies bitte nochmal meinen Post und beachte das 1:10 bzw. 10:10 in beiden Fällen sind es nämlich 10 Fehler auf 1.000.000.000.000.000 Bits. Im ersten eben schön verteilt alle 10^14 Bits ein Fehler und im zweiten Fall die ersten 10^14 Bits 10 Fehler und die restlichen 9*10^14 Bits dafür kein Fehler.
 
In der Übersicht auf Seite eins hätte ich mir gewünscht, dass die Angaben zum Produkt vollständig sind und nicht db mit Sone verglichen werden. Dann hätte man zumindest Meßwerte und in Klammern Herstellerangaben darstellen können.
 
Holt schrieb:
Wo habe ich das behauptet? Die Desktopplatten von damals die schon über 30.000 Stunden runter haben, sind nicht mehr die Modelle von heute, die Produkte ändern sich. Schau Dir doch mal Entwicklungsgeschichte der Barracuda Reihe an, dann sieht Du was sich da von der 7200.7 bis zur 7200.14 aka ST3000DM001 geändert hat und für was für Einsatzzwecke die früher noch so alles gedacht waren. Das keine Desktopplatte 30.000 Stunden erreichen kann, ist also totaler Blödsinn den ich nie geschrieben habe, aber dass die heutige es noch schaffen, da habe ich gewissen Zweifel und die ST3000DM001 zeigt genau das. Bei viele negativen Rezessionen im Netz ist diese nach etwas über 2 Jahren Dauerbetrieb z.B. im NAS dann ausgefallen und bei Backblaze hat sie sich zuerst auch gut geschlagen:
Dafür das die Platten doch auch noch mit sehr vielen HDDs zusammen in einem Gehäuse betrieben werden, waren die Ausfallraten einschl. Q3 2013 nicht sehr hoch und sind dann vor allem in 2014 gewaltig gestiegen, als die eben so etwa 2 Jahre rum hatten. In Betrieb genommen wurden sie ja vor allem in Q1, Q2 und Q3 von 2012 und damit haben alle wenigstens ein Jahr, als bis Q3 2013 gut durchgehalten und als dann der Anstieg der Ausfallraten erfolgte, waren schon einige bei knapp 2 Betriebsjahren und als in Q3 die Ausfälle die Spitze erreicht haben, waren alle etwa 2 Jahre in Betrieb, außer denen die später nachgekauft wurden. Interessant wäre halt eine Statstik wie alt eine Platte war als sie ausgefallen ist, dann könnte man sehen wie viele Stunden die so einen Betrieb ausgehalten haben, für den sie gar nie gemacht wurden.

Andererseits ist die Lebenserwartung für Hardware generell und auch für HDDs so 5 bis 7 Jahre und nach zwei Jahren Dauerbetrieb haben diese HDDs so viele Stunden runter, wie nach über 7 Jahren im vorgesehenen Betrieb mit 2400 Betriebsstunden pro Jahr, da würde dann keiner meckern wenn sie nach 7 Jahren ausfällt.

In unserem anderen Thread zu HDDs bei Webhoster. Ja die HDDs ändern sich, von der schlechten ST3000DM001 zur ST4000DM001 die wieder Bestens läuft. Also wird jetzt sogar wieder besser. Die ST4000DM001 läuft nun auch schon zwei Jahre mit anderen 16 HDDs in einem Case, zwar dafür nicht gedacht steckt das aber locker weg. Ach so die ST2000DL003-9VT166 davor haben auch schon >36.000 Stunden hinter sich. Also gibt es gar keinen Grund warum man keine Desktop HDDs im NAS einbauen sollte, denn die laufen mit 16 Stück in einem Case problemlos.

screenshot_117.png

Aber ja, im NAS bitte nur NAS Festplatten..
 
Zuletzt bearbeitet:
Kananu Danke für Deine Informationen.
Werde mir 2 Seagate Archive besorgen.
Alles was über 120 MB\s Leseleistung hinaus geht ist gut, mein Netzwerk geht bis max. 120 MB\s ,also reichen
die Festplatten wohl masse aus. Die Leistung beim späteren beschreiben ist für mich eh nicht so wichtig.
Wenn ich mir eine neue Blu Ray kaufe kopiere ich sie ja nur einmal + Backup.
Und ja Kopien sind Illegal, da ich sie aber komplett kopiere und mit Power DVD15 abspiele sehe ich da
kein Problem, da ich ja auch den Kopierschutz mit kopiere.Es ist halt eine Sicherheitskopie (für mich eher eine Komfort-Kopie :)) .
 
Was ist eigentlich aus den WD RE+ Modellen geworden?
https://www.computerbase.de/2015-03/wd-re-plus-paart-energieeffizienz-mit-6-tb/
Mit einer Fehlerrate von 1:10^15 und 5400 U/min klingt das für mich nach wie vor wie die beste NAS HDD für den Hausgebrauch. Allerdings sind die bisher weder verfügbar noch sind die gelisteten Preise bezahlbar :(

Den Einfluss der Fehlerrate auf die Chancen einen erfolgreichen RAID Rebuild mit einem 4-Bay NAS und RAID 5 durchzuführen, hatte ich hier mal durchgerechnet. Der beste bezahlbare Mittelweg ist wohl ein 5-Bay NAS mit RAID 6 und den normalen 1:10^14 HDDs zu verwenden. Da hat man immer noch eine HDD mehr als Reserve.
 
Zuletzt bearbeitet:
kamanu schrieb:
Das Problem der einbrechenden Schreibraten tritt aber auch nur auf, wenn die Festplatte vorher bereits mit Daten beschrieben wurde.
Ich habe eine komplett fabrikneue Platte getestet und konnte die kompletten 8TB mit ~150MB/s füllen. Hat zwar immer noch ewig gedauert, aber ist wesentlich schneller als die 30-50MB/s die hier so genannt wurden.
Wenn man also eine alte Platte auf eine Archive umzieht (und es im besten Falle nur große Dateien sind) sollte sie sich wie eine normale HDD verhalten.

Das ist defintiv falsch und geht technisch nicht.
 
Zuletzt bearbeitet:
digitalangel18 schrieb:
Das ist defintiv falsch und geht technisch nicht.

Kannst du das genauer ausführen? Eine Platte die mit einer Schreibgeschwindigkeit von sustained (durchgängig) 200+MB/s vermarktet wird, sollte durchgängig zumindest 150 schaffen. Das einzige was mir abwegig vorkommt ist die Tatsache das es darum ging Daten übers Netzwerk auf die Platte zu schaufeln und das üblich Gbit-Netz selbst im Bestfall keine 150MB/s schafft. Aber da könnte er sich auf eine im Rechner verbaute Platte bezogen haben.
 
Zurück
Oben