Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Seagate Mach.2: Festplatte mit autonomen Köpfen erreicht 480 MByte/s
- Ersteller Limit
- Erstellt am
- Zur News: Seagate Mach.2: Festplatte mit autonomen Köpfen erreicht 480 MByte/s
Opa Hermie
Captain
- Registriert
- Mai 2013
- Beiträge
- 3.329
Dito!
Es ist eigentlich unglaublich, dass so ein feinmechanisches Meisterwerk wie die Festplatte zu vergleichsweise Schleuderpreisen rausgehauen wird, obwohl eine SSD viel besser und erheblich einfacher zu fertigen ist.
Es ist eigentlich unglaublich, dass so ein feinmechanisches Meisterwerk wie die Festplatte zu vergleichsweise Schleuderpreisen rausgehauen wird, obwohl eine SSD viel besser und erheblich einfacher zu fertigen ist.
Joshua2go
Lt. Commander
- Registriert
- Nov. 2009
- Beiträge
- 1.372
Majestro1337 schrieb:Na ich hoffe doch nicht!!!! Das verdoppelt ja wieder das Ausfallrisiko.
Für mich wäre es sinnvoller, wenn es ein intelligentes jbod wäre, das von 10 zu schreibenden Dateien 5 da und 5 dort schreibt. Das bedeutet natürlich, dass die Verbesserungen nur unter bestimmten Bedingungen greifen, weshalb ich mir schon vorstellen kann, dass die hdd intern wie ein raid0 organisiert ist :-/ das würde für mich auch erklären, warum man nicht gleich mit zig autonomen rw-Köpfen arbeitet
@cb: gibt es irgend eine Info wie die hdd intern den Datenstrom verteilt / wie die hdd organisiert ist?
Ich würde sagen, das Ausfallrisiko halbiert sich. Wenn ein Schreibkopf ausfällt, kann immer noch der andere Schreibkopf die Daten liefern. Die Platte müsste zwar dann trotzdem ausgetauscht werden, aber man könnte noch bequem seine Daten retten.
I
iN00B
Gast
Oh mein Gott. Jemand hat symbolisch verglichen und Raid 0 geschrieben. Schon geht die Leier wieder los. Man merkt an etlichen Kommentaren, dass weder langfristige Praxiserfahrung noch technisches Hineinfühlungsvermögen oder Lernbereitschaft vorliegen, sondern eher solche lustigen Werbe-CGI's, wie über dem Artikel zu sehen Wirkung zeigen und halt irgendwo (subjektiv falsch interpretiert) Aufgeschnapptes zum Herumglänzen rausgeblasen wird. Klar hat jeder mal eine schräge Fase, man muss nicht alles direkt in die Waagschale legen aber meine Phase meint wieder nur:
Das lesen später eure Kinder!
Einige Aussagen sind auf einer Höhe mit: meine CPU hat 16 GHz oder mit dem so gut wie immer falsch benutztem "never touch a running system"-Einsatz. Es bedeutet, symbolisch verglichen, dass man während der Fahrt keine Fahradkette oder bei 180 km/h auf der Autobahn keine Räder wechselt, wobei aber auch schon 1 km/h der Regel widerspricht. Steht doch da!
Bei der Empfehlung die (10TB) HDD einmal pro Woche zu defragmentieren ist mal wieder Pumpe für mich hier, die Folgeaussage, Windows macht das automatisch, nur wieder die Krönung des angewandten Halbwissens! Da beißt sich die Katze rund um die Uhr in den Wertesten und ist auch noch stolz drauf. Durch die Überschrift muss man dann später wieder im Forum lesen, dass die RW-Köpfe alle autonom arbeiten. Die bauen extra kleine Fahrstühle ein! Dass man die Arme pro Ebene autonom agieren lässt, wird auch noch reine Wunschvorstellung sein aber vermutlich noch umgesetzt.
Die 480 MByte/s sind nichts, wenn wirklich praxistaugliche 100 TB-HDD's erreicht werden sollen. Ob diese HDD's dann plötzlich 5000 Mbyte/s erreichen, bezweifle ich doch sehr. Wer hat schon Bock drauf mit einem Halbzoll-Schlauch ein Freibad zu befüllen bzw. damit abzupumpen. Es dauert viel zu lange, auch wenn man mit der passenden Düse zehn Leute gleichzeitig nassspritzen kann. Für Konsumenten sind 2,5"-HDD's interessanter aber da war ja plötzlich vor zwei Jahren bei 5TB Ende und dem anbietenden Hersteller vertraue ich meine Daten aus Prinzip nicht privat an und in Servern erst recht nicht. Wünsche schönen Abend!
Das lesen später eure Kinder!
Einige Aussagen sind auf einer Höhe mit: meine CPU hat 16 GHz oder mit dem so gut wie immer falsch benutztem "never touch a running system"-Einsatz. Es bedeutet, symbolisch verglichen, dass man während der Fahrt keine Fahradkette oder bei 180 km/h auf der Autobahn keine Räder wechselt, wobei aber auch schon 1 km/h der Regel widerspricht. Steht doch da!
Bei der Empfehlung die (10TB) HDD einmal pro Woche zu defragmentieren ist mal wieder Pumpe für mich hier, die Folgeaussage, Windows macht das automatisch, nur wieder die Krönung des angewandten Halbwissens! Da beißt sich die Katze rund um die Uhr in den Wertesten und ist auch noch stolz drauf. Durch die Überschrift muss man dann später wieder im Forum lesen, dass die RW-Köpfe alle autonom arbeiten. Die bauen extra kleine Fahrstühle ein! Dass man die Arme pro Ebene autonom agieren lässt, wird auch noch reine Wunschvorstellung sein aber vermutlich noch umgesetzt.
Die 480 MByte/s sind nichts, wenn wirklich praxistaugliche 100 TB-HDD's erreicht werden sollen. Ob diese HDD's dann plötzlich 5000 Mbyte/s erreichen, bezweifle ich doch sehr. Wer hat schon Bock drauf mit einem Halbzoll-Schlauch ein Freibad zu befüllen bzw. damit abzupumpen. Es dauert viel zu lange, auch wenn man mit der passenden Düse zehn Leute gleichzeitig nassspritzen kann. Für Konsumenten sind 2,5"-HDD's interessanter aber da war ja plötzlich vor zwei Jahren bei 5TB Ende und dem anbietenden Hersteller vertraue ich meine Daten aus Prinzip nicht privat an und in Servern erst recht nicht. Wünsche schönen Abend!
Das tun sie jetzt auch schon, sobald es mehr als einen Platter gibt, sonst würde es ja keinen Sinn machen mehrere Platter zu verbauen.r4yn3 schrieb:Ich gehe davon aus, die Übertragungsrate erreicht man nur wenn die Daten eben auf unterschiedlichen Platter liegen?
Fragmentierung ist immer eine Sache des Filesystems und niemals des Datenträgers oder wie der seine Daten intern organisiert, dies hat mit Fragmentierung rein gar nichts zu tun!r4yn3 schrieb:Was dann ja eine bewusste Fragmentierung erfordert.
Dafür gibt es keinen Beleg und da 26,1mm Bauhöhe bei 3.5" seit Jahrzehnten Standard sind, längere Achsen mehr Probleme mit Vibrationen erzeugen und Seagate auch nie etwas in der Richtung ausgesagt hat, würde ich keine höhere Bauhöhe als bisher erwarten.fortunes schrieb:2 Nachteile ggü. SSDs:
- für die höhere Datenübertragung sind mehr Schreib-/Leseköpfe nötig - das erhöht die Einbauhöhe der HDDs
Klar kann man sich auch als Systemlaufwerk verwenden, aber dies macht keinen Sinn, da SSDs viel schneller sind. Es geht ja auch nicht darum die Performance der SSDs zu erreichen, sondern die Performance gegenüber herkömmlichen HDDs zu steigern und dies sollte mit der Multi Actuator Technology relativ einfach und kostengünstig machbar sein, da man ja nur wenige zusätzliche Teile braucht, nämlich mehr Aktoren die dafür jeweils aber auch weniger Köpfe bewegen müssen. Also Grunde nimmt man statt eines große der für 8 Köpfe ausgelegt ist, dann zwei kleine die für je 4 Köpfe reichen. Die Mehrkosten dürften sich damit also in Grenzen halten.fortunes schrieb:Auch diese HDDs sind nur als Storage verwendbar, nicht als Systemlaufwerk.
Erstens soll "Der Preis der HDDs soll im Vergleich zu gleich großen SSDs dabei konstant bei etwa 1:10 gehalten werden." und zweitens sind solche 100TB SSDs wie die Nimbus keineswegs Standard, die ist eher ein Showcase was machbar ist. Außerdem wird Seagate sein Kerngeschäft nicht einfach aufgeben, nur weil es eines Tages vielleicht mal verschwinden könnte, sondern hat im Gegenteil den Kampf um höhere Kapazitäten aufgenommen, denn nur die hohen Kapazitäten und damit die Einsparungen bei der restlichen HW eines großes Storages wie Server, Racks aber auch Platz und Strom können wenn dann überhaupt die Mehrkosten pro TB von SSDs kompensieren, sofern die Anwendung ihre Performance nicht benötigt. Daher der Run zu hohen Kapazitäten, bei SSDs wie bei HDDs.CHB68 schrieb:In Zeiten von 100TB SSD's ist es für mich persönlich wirklich erstaunlich, das Unternehmen noch immer auf ein in meinen Augen totes Pferd setzen...
Eben, ich hatte es vor einiger Zeit mal in einem anderen Thread hier ausgerechnet, da kam ich auf den Faktor 4 oder 5 um den die NAND Fertigung weltweit gesteigert werden müsste um die Kapazitäten der HDDs die produziert werden, durch SSDs ersetzen zu können. Wenn also solche 100TB SSD Massenware werden, dann werden die NAND Preise gewaltig steigen und schon sieht die Rechnung ob wenige Racks mit SSDs oder mehr Racks mit HDDs günstiger sind um viele PB Storage zu erreichen, wieder anderes aus.Shoryuken94 schrieb:Es geht aktuell noch nicht ohne Festplatten, da man schlicht nicht genug Flashspeicher produzieren kann.
menace_one
Lieutenant
- Registriert
- Okt. 2010
- Beiträge
- 1.019
Joshua2go schrieb:Wenn ein Schreibkopf ausfällt, kann immer noch der andere Schreibkopf die Daten liefern.
wie schon vorher geschrieben hat jeder Kopf seine eigenen Platter, bei Ausfall ist mindestens die Hälfte weg.
Trotzdem verdoppelt sich die Ausfallrate nicht gleich, da andere Komponenten mit Ausfallmöglichkeit nicht doppelt sind, z.B. der Motor oder der Controller.
XTR³M³
Captain
- Registriert
- Jan. 2002
- Beiträge
- 3.769
Cool Master schrieb:@XTR³M³
Zusätzliche Belastung. Bedeutet also höherer Verschleiß und damit ggf. schnellerer Ausfall. Von dem Speedeinbruch gar nicht zu sprechen.
stimmt, weil 1x die woche defrag die HDD total schnell altern lässt
also zu zeiten wo ich noch HDDs als hauptplatte nutzte(also bis 2008) hatte ich zum teil platten, die aus win 98 zeiten stammten am laufen... und damals war ich mehr poweruser als jetzt... 1x die woche defrag und niemals probleme gehabt, einzig im NB gabs 2x ne klackernde platte, aber das war beide male nachdem die laptoptasche samt inhalt runtergesemmelt war vom rad...
Damalige Platten hat noch eine deutlich andere Technologie und daher auch kein Workload Rating, welches dann nötig wurde als man die Datendichten über ein bestimmtes Mass hinaus gesteigert hat. Bestimmte Erfahrungen mit damaligen HDDs sind auf die heutigen nicht mehr übertragbar, aber wer würde heute noch mit den Kapazitäten von damals auskommen?
BlackWidowmaker
Banned
- Registriert
- Dez. 2010
- Beiträge
- 4.476
Also bezüglich den Aktoren: Sie mögen ja kein hohes Ausfallrisiko darstellen, die Köpfe die daran hängen aber schon. Je mehr Aktoren, je mehr Köpfe. Und Köpfe sind sehr wohl ein kritischer Punkt bei HDDs. Die meisten mechanischen Defekte bei HDDs dürften in direktem Zusammenhang mit den Köpfen stehen. Stichwort headcrash.
Nein, mehr Aktoren werden ja nicht gemacht um mehr Köpfe verwenden zu können, die Anzahl der Köpfe ergibt sich ja aus der Kapazität der Platte und der pro Platter möglichen Kapazität. Um eine 12TB HDDs zu bauen, braucht man sowieso 7 oder 8 Platter und damit 14 oder 16 Köpfe, ob die alle von einem Aktor oder von zwei Aktoren bewegt werden, ändert nichts an deren Anzahl.
Ja, die dargestellte Lösung mit unabhängigen Aktuatoren, auf einer Achse erscheint mir suboptimal. Was kann es denn schon kosten, wenn einer, zwei oder drei zusätzliche Kämme ins Gehäuse kommen? Fällt ein Arm aus, hätte man sogar Ersatz und eine Vorwarnzeit. Mit mehreren Köpfen an einem Arm hat man zumindest auch noch eine erhöhte Sicherheit.Holt schrieb:Um eine 12TB HDDs zu bauen, braucht man sowieso 7 oder 8 Platter und damit 14 oder 16 Köpfe, ob die alle von einem Aktor oder von zwei Aktoren bewegt werden, ändert nichts an deren Anzahl.
Ergänzung ()
Aktuatoren in jeder Ecke würde außerdem die Zugriffszeit verkürzen, da die Daten dann maximal 1/4 Drehung vom nächsten Kopf entfernt sind.
seagate_surfer
Seagate Support
- Registriert
- März 2017
- Beiträge
- 534
Dazu kommt ja noch, dass es nicht nur um die reinen Kosten der Köpfe oder der Aktuatoren geht -
das Ganze muss ja auch noch per Firmware so programmiert und eingestellt werden, dass alles a) überhaupt funktioniert und b) die Performance im besten Fall wie gewünscht gesteigert wird. Das alles passiert auch nicht ganz von alleine und ohne jegliche (Entwicklungs-)Kosten...
5 Seiten Kommentare innerhalb nur weniger Tage nach Veröffentlichung der Meldung zeigen uns aber, dass offenbar nach wie vor großes Interesse an neuer HDD-Technik und größeren Kapazitäten besteht. Vielen Dank für all das Feedback, das wir aufmerksam lesen und diskutieren!
das Ganze muss ja auch noch per Firmware so programmiert und eingestellt werden, dass alles a) überhaupt funktioniert und b) die Performance im besten Fall wie gewünscht gesteigert wird. Das alles passiert auch nicht ganz von alleine und ohne jegliche (Entwicklungs-)Kosten...
5 Seiten Kommentare innerhalb nur weniger Tage nach Veröffentlichung der Meldung zeigen uns aber, dass offenbar nach wie vor großes Interesse an neuer HDD-Technik und größeren Kapazitäten besteht. Vielen Dank für all das Feedback, das wir aufmerksam lesen und diskutieren!