Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Erneut hat Seagate-CEO Stephen Luczo im Rahmen der Bekanntgabe der Quartalszahlen Hinweise auf höhere Festplattenkapazitäten gegeben. In einer Fragerunde erklärte er, dass das Unternehmen im kommenden Jahr mit dem Umstieg auf Kapazitäten von acht und zehn Terabyte plant. Aktuell bietet Seagate maximal sechs Terabyte.
10 TB das klingt ja richtig gut, aber brauch ich derzeit nicht, aber da diese neue Modelle den Preis drücken würden, wäre es schön dann wenn ich mir für je 100 euro zwei 5 TB Modelle kaufen kann.
Im Serversegement geht es eben halt ausschließlich darum, so viele TB wie möglich pro Rack zu haben.
Im Consumer-Bereich ist es prinzipiell meist egal, ob man eine 8TB Platte oder 2x4TB einbaut. Schön wäre es natürlich trotzdem, bei gleichem Preis ein Laufwerk, und damit auch Abwärme und Lautstärke, einzusparen.
Ich bin ehrlichgesagt immer noch verwundert, dass die Preisentwicklung bei SSDs ab 500GB nicht schneller nach unten zeigt und deswegen HDDs gerade im Server-Segment immer weiterentickelt werden (müssen).
Ich bin ehrlichgesagt immer noch verwundert, dass die Preisentwicklung bei SSDs ab 500GB nicht schneller nach unten zeigt und deswegen HDDs gerade im Server-Segment immer weiterentickelt werden (müssen).
Das liegt wohl am Preis von Flash Speicher. Eine höhere Datendichte wie sie ja bei Standard HDDs regelmäßig erreicht wird ist da halt nicht machbar. Da hilft nur mehr verbauen, und das wird dann halt teurer.
Mich würde aber auch mal interessieren wie viel GB eine SSD im 3,5" Vormat erreichen könnte. 10-20 sollten da eigentlich ja gar keine so großes Problem darstellen. Vom Preis mal abgesehn.
...ich fühle mich für meine Verhältnisse schon richtig mutig da ich derzeit unsere Server mit 2-3TB Enterprise HDD's ausrüste :-) Irgendwie bekomme ich es nicht aus dem Kopf, dass je größer ich eine Festplatte wähle, desto höher ist auch der potentielle Datenverlust beim einem Supergau...
Wir haben zwar grundsätzlich eine gute Datensicherungsstrategie, aber dennoch...4-6TB... da traue ich mich noch überhaupt nicht ran, geschweige denn 8-10TB...
Habe hier noch 3 OVP Seagte 2TB Platten rumliegen aus RMA - Garantietausch.
Von 5*2TB Seagate waren 2 DOA so musste warten bis Raid machen konnte.
Als alle 5 hatte fiel 1te nach 1 Monat aus, 2te nach 3 Monaten und 2te kurz danach...
Danach 2 gebrauchten verkauft.
Seitdem WD RED 3 - TB 5*3TB Main und 6*3TB NAS und 1*3TB Extern
Vor den Seagate´s hatte 2*WD20EADS wurden RMA fälle nie wieder WD Green...
meine alten WD100FALS, 1TB FAEX , und alles was unter 500 GB nie Probleme
ALS es losging mit 1 TB+ kamen die richtigen Probleme mit RMA etc... habe noch 320GB IDE etc... die gehen theoretisch immernoch fehlerfrei...
Wie wäre es anstatt mehr TB bessere Datensicherheit - weniger Rückläufer...
oder Hardware AES warte immer noch drauf....
Mal schauen, ob sich auf dem Festplattenmarkt auch Preis-/Leistungstechnisch wieder etwas mehr tut.
Wenn man den Preis/TB von vor 3 Jahren (ca. 28€ --> 56€ für 2 TB) mit heute Vergleicht (ca. 28€ --> 84 € für 3 TB), hat sich eigentlich nichts mehr getan (außer der absurden Preiserhöhung durch die Flut und der Normalisierung der Preise).
ich weiß ja nicht was du mit deinen Platten machst aber meine 5x2 TB Samsung F3 laufen heute noch nach Jahren Dauerbetrieb 1a und meine 3x4TB WD Green seit einem Jahre ebenso
Bin gespannt (wann) was draus wird. Wäre schön wenn endlich mal die 6TB breiter und günstiger verfügbar wären. Oder die lange überfällige 2,5" 2TB in normaler Bauhöhe.
Seagate und datensicherheit hört blos auf.
[...]
Wie wäre es anstatt mehr TB bessere Datensicherheit - weniger Rückläufer...
oder Hardware AES warte immer noch drauf....
Das kann ich nur unterschreiben!
Seagate war aber noch nie wirklich der Bringer und WD hat mE vA ein Softwareproblem (Firmware).
Es wäre schonmal ein großer Fortschritt die Firmware wieder auf einen Chip zu packen und die einen 2ten Schreib/Lesekopf zu verbauen, so wie den Spindelmotor zu 2teilen, damit wenn einer ausfällt die Platte immernoch im Notbetrieb (langsam und vlt. mit reduzierter Drehzahl) hochfahren kann. Damit hätte man eine gewisse Redundanz, die den Preis der Platte um vlt. 30% erhöhen würde -allerdings Schreib und Leseraten verdopplen würden -vorallem I/O-Leistung würde sich drastisch verbessern. Dann hätte man endlich ein Enterprise-Feature... bzw der (besser zahlende) Endkunde müsst nicht den plötzlichen Plattentod fürchten.
Aber nein... Innovation am Festplattenmarkt: Fehlanzeige!
Mich würde aber auch mal interessieren wie viel GB eine SSD im 3,5" Vormat erreichen könnte. 10-20 sollten da eigentlich ja gar keine so großes Problem darstellen. Vom Preis mal abgesehn.
Es gint doch jetzt schon SSDs mit 1024Gb in 2,5".
Warum soll das bei 3,5" (also größer) so viel weniger werden!?
Das gleiche (1TB) geht locker. Man muss ja nur ein fgrößeres Gehäuse drumherumbauen.
Ich habe keine Probleme mit Seagate Platten. Ich kann nur ueber Ausfaelle von einer Hitachi reden (die erste und letzte Hitachi, die ich hatte), Seagate laeuft die erste 40GB IDE Platte aus dem Jahr 2001 immer noch fehlerfrei. WD kenne ich nur die 1TB Green von meiner MyBook Edition. Die sind inzwischen im normalen NAS, da der USB an der MyBook defekt ging. Die laufen bisher da auch einwandfrei. Habe jetzt aber auch neu die Seagate NAS Platten geholt fuer mein QNAP, da dort bereits normale Seagate drin sind und ich die nicht mit WD Red mischen wollte. Laufen auch einwandfrei. WD würde ich allgemein kein USB Zeug holen. Da habe ich auch Ausfaelle zu verzeichnen. Aber die RED sind gut.
Da hat man wenigestens eine etwas größere Stichprobengröße.
Wobei auch viele relavante Informationen fehlen (einheitliche Charge?, keine Aufschlüsselung über die Fehlerrate nach gleicher(definierter) Laufzeit, Angabe des Durchschnittsalters ohne Hinweis auf die Streuung,...) und die Interpretation der Daten deshalb mit Vorsicht geschehen sollte.
Dieser Artikel lässt übrigens die Western Digital Red 3 TB (zwar "nur" mit 346 Platten überprüft) auch nicht unbedingt in einem guten Licht dastehen.
Man sollte auch in Hinterkopf behalten, dass die Austauschgründe und das Nutzerszenario deutlich andere sind, als bei einem normalen Rechner.
Alles über 2TB ist unvernünftig, über 4TB unverantwortlich. Das ist zwar nett als Backuplösung weil viel draufpasst, aber für den Produktivbetrieb viel zu unsicher. 8TB auf einen Schlag weg, das tut weh.
...ich fühle mich für meine Verhältnisse schon richtig mutig da ich derzeit unsere Server mit 2-3TB Enterprise HDD's ausrüste :-) Irgendwie bekomme ich es nicht aus dem Kopf, dass je größer ich eine Festplatte wähle, desto höher ist auch der potentielle Datenverlust beim einem Supergau...
Wir haben zwar grundsätzlich eine gute Datensicherungsstrategie, aber dennoch...4-6TB... da traue ich mich noch überhaupt nicht ran, geschweige denn 8-10TB...
Ich mag mich ja irren, aber wenn Du sagen wir mal 20TB an Platz brauchst, dann brauchst Du 40TB an Festplattenplatz um einen Raid aufzuziehen, damit bei einem Festplattendefekt relativ nahtlos weitergearbeitet werden kann. Und zusätzlich eben eien Möglichkeit regelmäßig Sicherungen zu ziehen, aber das machst dann ja per Magnetband oder anderen Lösungen.
Wenn Du das auf viele kleine Festplatten verteilst, ist die Wahrscheinlichkeit doch höher dass eine davon ausfällt, dafür ist bei einem Ausfall ein geringerer Teil der Daten "futsch", aber dafür hat man ja einen Raid respektive Sicherungen.
Was anderes ist natürlich, wie die großen Datenmengen erreicht werden. Wenn eine 6TB-HDD durch sechs Platter mit entsprechend hoher Motorenlast und Wärmeentwicklung realisiert wird, ist die mechanische Belastung deutlich größer und damit das Ausfallrisiko höher. Was aber vorraussetzt dass bei einer HDD mit geringerem Festplattenspeicher dieselbe Sorgfalt udnTechnologie zum Einsatz kommt, nur eben die Last geringer ist weil nur zwei Platter oder dergleichen. Da die 6TB-Modelle aber deutlich aufwändiger sind und die 2TB-Modelle als Massenware geringere Anforderungen stellen, werden diese vermutlich mit geringeren Toleranzen und geringerem Aufwand gefertigt, was diese Gegenüberstellung eigentlich obsolet macht da unterschiedliche Tehcnologien verwendet werden.
Ergo kann man nicht per se vom Fassungsvermögen auf die Zuverlässigkeit schliessen.
Dann dauert es halt etwas länger, bis man sein Backup wieder zurückgespielt hat...
Wo ist das Problem? Wer zwingend immer sofort auf eine hohe Datenmenge jederzeit zugreifen muss, hat noch zusätzliche Methoden um erstens die Ausfallsicherheit und zweitens die Datensicherheit zu erhöhen. Das hat weniger etwas mit Unvernunft zu tun, sondern mit der Realisierbarkeit.
Wenn man sich einmal den Festplatteneinsatz bei dem von mir oben verlinkten Artikel anschaut, scheinen dort ja nur Idioten rumzulaufen...