Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsMulti Actuator Technology: Autonome Köpfe sollen Festplatten viel schneller machen
Bei den ganzen Defekten und Problembehafteten SSDs freue ich mich einfach mal. Egal welche HDD & egal wie alt (und wenn sie gluckert wie ein Kleines Sumpfhuhn) ich hatte keine Defekte bei HDDs. Ich brauche und will (noch) keine SSD. Bin ja mal gespannt was es bringt.
Danke, ich erinnerte mich daran und kam nicht mehr auf den Hersteller; ist lange her, daß ich eine Conner-Platte gekauft habe, ich glaube, es war eine 80MB SCSI.
Die Technik gab's aber vorher schon für 5¼"-Diskettenlaufwerke - lief aber nie gescheit.
Wird es das? Dazu müsste die FW immer zwei Köpfe so ansprechen das es wirklich wie ein RAID 0 funktioniert, also LBA x auf einen Kopf an dem einen Actuator hängt und gleichzeitig LBA x+1 mit einem Kopf schreiben / lesen der am anderen Actuator hängt. Dann hat man aber kaum mehr IOPS sofern die nicht über wirklich nur einen LBA gemessen werden, weil ja auch die Köpfe ja auch die entsprechenden synchron bewegen müssen. Mit der Mehrperformance dürfte man erstmal vor allem auf mehr IOPS abzielen, was für die HDDs im Datacenter ja auch viel wichtiger wäre und ebenso bei Surveillance HDDs an denen möglichst viele Kameras hängen sollen.
Ich denke so kann man die Datenraten einer HDD auf jeden Fall auf SSD-Niveau bringen und die Zugriffszeiten auch bei vielen parallelen Zugriffen radikal verkürzen.
Die Komplexität der Controller steigt natürlich, aber SSDs Controller müssen ja noch viel komplexere Aufgaben bewältigen, die Hersteller der Controller wie Marvell haben damit ja auch genug Erfahrung.
ildottore schrieb:
Müsste man dann nicht bisher wenigstens schon bei kompletten Kopien der Festplatte die Datenrate mit der Zahl der Scheiben linear steigern können? Ist ja egal, ob die Daten da in der richtigen Reihenfolge ankommen.
Das gibt das Protokoll nicht eher, es gibt keinen Befehl um Daten in einer beliebigen Reihenfolge zu lesen und dann ist das ja noch die Feinpositionierung, die bisher angeblich das Hindernis ist.
Skyphane schrieb:
Für jedes Paket unabhängiger Lese-/Schreibköpfe braucht es eine eigene Lagerung
Der Trick bei Seagate scheint ja wohl zu sein, dass man diese nicht braucht und alle weiterhin auf einer Achse sitzen.
Skyphane schrieb:
Solche Mechaniken ins Gehäuse zu bekommen ist nur mit waschechter Feinmechanik machbar und die ist teuer. Die Festplatten haben nicht ohne Grund seit jeher nur einen Schwenkarm...
Es gab schon früher Modelle mit zwei Sets vom Schwenkarmen, einem auf jeder Seite, aber die waren zu teuer. Feinmechanik ist das schon nicht mehr, eher Feinstmechanik was heute in einer HDD steckt, dagegen wirkt eine Schweitzer Armbanduhr so wie eine holländische Windmühle vergangener Jahrhunderte.
Bogeyman schrieb:
Die Leute die Performance brauchen greifen eh zu SSDs.
Performance brauchen ist relativ, wenn für eine Unternehmensanwendung eine bestimmte Performance (meist in IOPS) gebraucht wird und HDDs diese günstiger liefern können, wird man dort kaum SSDs einsetzen, nur weil sie noch viel mehr IOPS als nötig liefern könnten.
Bogeyman schrieb:
Autarke Köpfe bedeutet auch mehr bewegliche Teile und damit höhere Ausfallwarscheinlichkeit. Sehe kein Sinn hier.
So viel mehr bewegliche Teile sind es doch gar nicht, nur mehr Actuatoren und die Arbeiten im Prinzip nur mit einem Magneten und einer Spule durch die Strom fließt und so den Kopf bewegt, da ist kein Kontakt zwischen denen und nur die einzelnen Segmente der Köpfe sind zusätzliche bewegliche Teile, aber die haben sich auch vorher schon bewegt, nur eben immer synchron.
Bogeyman schrieb:
Sobald die SSD Preise sich HDDs Preisen annähern auf den TB bezogen, wird der Markt für HDDs insgesamt sowieso quasi aufhören zu exisitieren.
Angenährt haben sich die Preise pro TB von SSDs und HDDs doch schon gewaltig, bis auf etwa den Faktor 10, HDDs gibt es aber immer noch. Die Kosten für NAND und damit SSDs lassen sich aber auch nur noch immer schwerer senken und daher ist keineswegs ausgemacht, dass SSDs jemals pro TB sogar günstiger als HDDs werden können. Welchen Aufpreis man bereit sein wird für eine SSD zu zahlen, dürfte sehr unterschiedlich sein und auch von der Anwendung abhängen, aber selbst wenn nur noch ein Faktor 5 zwischen den Kosten pro TB bei SSDs und HDDs sein wird, wird es weiter HDDs geben.
Limit schrieb:
Das Problem sind winzige Unterschiede auf den Scheiben. Diese habe vorgegebene Strukturen, an denen sich der Kopf orientiert um die richtige Position zu finden. Da die einzelnen Scheiben aber nicht exakt identisch sind, müsste der Kopf für jede Scheibe ein kleines bisschen anders positioniert werden, was bei nur einem Aktor nicht geht.
Diese müsste doch eigentlich reichen um diese Minimalen Unterschiede die ja nur maximal einen halben Abstand der Tracks ausmachen dürfte, zu kompensieren.
nebulus schrieb:
Man versucht jetzt noch das Letzte aus der alten HD Technik raus zu holen. Aber der Zug ist abgefahren... Selbst in Serverfarmen werden jetzt SSDs eingesetzt... HDDs sind out!
HDDs verlieren in immer mehr Anwendungsgebieten an Boden, aber deren Ende sehe ich noch lange nicht, denn pro TB sind sie immer noch deutlich teurer als SSD und dies dürfte sich auch niemals ändern, da bei HDDs mit Technologien wie HAMR noch mal größere Steigerungen der Datendichte machbar sind, bei NAND ist eine Technologie die nochmal Sprünge erlaubt, nicht in Sicht. Die 3. Dimension hat man schon erschlossen und wenn man die Größen und Abstände der Zellen wieder verkleinern will, die sind ja bei den meisten 3D NANDs gewachsen, muss man auf mehr Bit pro Zelle verzichten und endlos viele Layer wird man auch nicht übereinander stapeln können. Jeder Layer erfordert zusätzliche Bearbeitungsschritte, kostet also auch Geld und erhöht das Risiko bei einem Fehler den ganze Wafer unbrauchbar zu machen.
Ergänzung ()
Joshua schrieb:
Die Leistung hinkt der Kapazität hinterher... Schon fast etwas verharmlosend Gesehen auf die Kapazität war die genannte Festplatte also fast um Faktor 100 schneller als die Platten heute.
Das liegt in der Natur der Sache, wenn die Datendichte steigt, dann bedeutet dies mehr Sektoren pro Spur, was die Geschwindigkeit erhöht, aber eben auch mehr Spuren was die Zeit erhöht die ganze Kapazität einmal zu lesen oder zu beschreiben. Hat man die Datendichte so gesteigert das die Geschwindigkeit verdoppelt, hat sich die Kapazität vervierfacht und die Zeit verdoppelt die man braucht die ganze Platte einmal zu lesen.
Eusterw schrieb:
Naja, der Geschwindigkeitsgewinn dürfte doch eher theoretischer Natur sein. Laut dem Seagate-Artikel, verdoppeln sich lediglich die IOPS. Und das auch nur in dem Fall, wo jede Abfrage auf einen andere Arm gesteuert wird.
Eben darauf dürfte es hinauslaufen und auch nur wenn die QD hoch genug ist und wirklich jeder der Köpfe ständig zu tun hat.
Eusterw schrieb:
In der Realität, dürften oft größere Files abgerufen werden (da greifen vermutlich alle 8 Arme gleichzeitig auf die ebenfalls gleichzeitig mit allen 8 Armen geschriebenen Daten zurück), die nicht beschleunigt werden.
Ist eine Frage der FW Auslegung, aber in der Realität meinst hier ja wohl auch die Realität von Heimanwendern. Die kommen aber erstmal noch nicht in den Genuss der neuen Technik.
PRAXED schrieb:
Bei den ganzen Defekten und Problembehafteten SSDs freue ich mich einfach mal.
Was für SSDs haben denn dauernd Ausfälle und sind problembehaftet? Solche gab es, aber es gibt und gab auch immer welche die empfehlenswert sind und kaum Probleme und Ausfälle haben. Aber wie jede HW kann auch jede HDD und jede SSD jederzeit mal ausfallen! Um dann keinen Datenverlust zu erleiden, hat man Backups zu haben, zumal ja nicht nur HW Ausfälle die Daten bedrohen. Kauft man sich eine ordentliche SSD wie die Samsung 850 Evo, dann hat man auch keine Probleme.
Den Zusammenhang verstehe ich nicht. Ein Mittelständisches Unternehmen wird auf jedenfall auch mit Redundanz arbeiten und ist in gewisserweise auch flexibel, sprich selbst wenn die Platte mal an einem Montag kaputt geht wo soll genau das Problem sein?
Weiterer Punkt, geht der Trend nicht sowieso hin zur Cloud? Welches Problem kann man mit der Platte lösen, was man nicht auch eh schon viel eleganter mit anderen Wegen lösen kann? Wenn ein Pool aufgerüstet wird dann in erster Linie weil die Kapazität nicht mehr reicht und nicht aufgrund von Geschwindigkeit. Geschwindigkeit ist skalierbar über verschiedene Raid Level die man fahren kann.
Was für SSDs haben denn dauernd Ausfälle und sind problembehaftet? Solche gab es, aber es gibt und gab auch immer welche die empfehlenswert sind und kaum Probleme und Ausfälle haben.
Im Freundeskreis gab es zig defekte. Die genauen Modelle/Hersteller kann ich dir jetzt nicht nennen. Jedoch weißt du doch wohl (bist ja auch bei CB) & sagtest es ja selber....
...was ich meine. Hier bei CB lese ich immer mal wieder von u. a. FPS Problemen (kurze Lags usw.) Firmeware Updates um Probleme zu beheben usw.
Natürlich hast du recht & es wird und gibt bestimmt auch gute Datensicherung habe ich redundant auf 2 HDDs. Jedoch gibt es für mich keinerlei gründe auf SSDs zu setzten.
Ob eleganter auch sicherer ist? Die Daten stehen dann bei einem Dienstleister und dem muss man vertrauen, in jeder Hinsicht, denn man ist ihm dann ausgeliefert.
So viel mehr bewegliche Teile sind es doch gar nicht, nur mehr Actuatoren und die Arbeiten im Prinzip nur mit einem Magneten und einer Spule durch die Strom fließt und so den Kopf bewegt, da ist kein Kontakt zwischen denen und nur die einzelnen Segmente der Köpfe sind zusätzliche bewegliche Teile, aber die haben sich auch vorher schon bewegt, nur eben immer synchron.
Nunja, für jeden Arm bzw. Gruppe von Armen die sich unabhänig voneinander bewegen braucht es nicht nur Aktuatoren sondern auch Lager. In der Regel sind das zwei zusätzliche Lager je beweglicher Gruppe / Arm. Das klingt nicht kompliziert, auf einem so kleinen Bauraum bei den Anforderungen an die Genauigkeit wird es aber recht fix doch deutlich komplizierter (lies: In der Fertigung teurer)*.
Genauso wie es bei unabhänig bewegenden Massen das Problem gibt, das die Impulse / Vibrationen die durch die Bewegung anderer Arme / Gruppen die Positionierung der Anderen stört.
Naja und nicht zuletzt bringen mehrere unabhänig voneinander bewegte Massen (innerhalb der selben Ebene bewegt) das Potential mit in lustige Resonanzen zu geraten.
Selbst die Aktuatoren sind so einfach nicht. Da es hier um Feinpositionierung geht dürfen sich diese gegenseitig nicht beinflussen, den Bauraum für eine gescheite magnetische Abschirmung hat man in einer typischen Festplatte nicht. Wenn aber ein Aktor die Position halten soll wirkt es sich ungünstig aus, wenn ein benachbarter Aktor bzw. dessen Spule "massiv" mit Strom beaufschlagt wird um den entsprechenden Schreib/Lesekopf neu zu positionieren.
*Die Positionierung aller Lager muss ja unter allen Umständen immer genau stimmen. Damit sind alle Toleranzen in Abhängigkeit, es ergibt sich eine sogenannte Toleranzkette und der Preis für die Fertigung bei doppelter Anzahl an Features vervierfacht sich (<-Schätzer)
Bei den ganzen Defekten und Problembehafteten SSDs freue ich mich einfach mal. Egal welche HDD & egal wie alt (und wenn sie gluckert wie ein Kleines Sumpfhuhn) ich hatte keine Defekte bei HDDs. Ich brauche und will (noch) keine SSD. Bin ja mal gespannt was es bringt.
Piktogramm, auf Dinge wie Resonanzen zu achten, ist dann Sache der FW, aber nicht umsonst schreiben die Hersteller von HDDs in aller Regel vor, dass diese mit 4 Schrauben fest zu verschrauben sind, auch wenn viele Gehäuse dies gar nicht ermöglichen. Da könnte es dann Probleme geben, wenn die HDDs zu weich aufgehängt sind. Deine Toleranzkette kannst Du zwar schön ergooglt, aber wo sieht Du hier das sich eine solche ergeben könnte?
@tek9,
defekt= sie ist hinüber Schön, wenn du von solchen Problemen noch nie was gehört hast... oder gar am eigenen Leib erleben durftest.
Es bleibt ja -wie gesagt- auch jedem selber überlassen. Die HDD in meinem Festplattenreceiver TechniSat (kein HD) wird sehr warm/heiß und läuft seit ca. 8 Jahren jeden Tag! Der Core 2 meiner Schwester mit 2 HDDs 11 Jahre läuft 1 A. Ich kann jetzt immer so weiter machen^^
Oder wir lassen es einfach. Es ist ja meine Erfahrung.. diese muss nicht auf alle zutreffen
Aber auch da werden die Daten ja nicht in den Wolken gespeichert, sondern bei Unternehmen und die nehmen dafür dann SSDs oder auch HDDs. Ob eleganter auch sicherer ist? Die Daten stehen dann bei einem Dienstleister und dem muss man vertrauen, in jeder Hinsicht, denn man ist ihm dann ausgeliefert.
Es geht doch nicht darum ob man dem Dienstleister jetzt vertraut oder nicht, der Trend geht nunmal dahin oder ist schon teilweise da. Ob man das persönlich jetzt gut oder schlecht findet ist irrelevant.
Klar speichern die Cloudbetreiber auf HDDs, können aber ganz anders skalieren ihre Anlagen als wenn jeder sich einzelnt irgendwas hinstellt. Man nehme mal ZFS oder Windows Storage Spaces dort kann man SSD benutzen um den Zugriff auf oft benötigte Dateien zu beschleunigen und den Schreibvorgang. Eine Platte mit mehreren Köpfen muss doch in irgendwas merkbar besser sein und viel teurer kann man sie nicht verkaufen weil dann will sie keiner mehr. SSHDs sind doch auch gescheitert, das war schonmal nen Versuch HDDs schneller zu machen und irgendwas zu erschaffen was zwischen HDD und SSD angesiedelt ist. Ging schonmal schief, wieso soll es diesmal klappen? Ich behaupte mal wenn die Erfolg haben wollen, muss das Endprodukt wirklich spürbar schneller sein, darf aber nicht viel teurer werden. 50% Aufpreis wird direkt wieder vollkommen uninteresant. Zumal ich persönlich als Backup klassische HDDs vorziehen würde weil weniger Mechanik und damit Statistisch gesehen geringe Ausfallwarscheinlichkeit. Dank Raid muss man im Idealfall das Backup sowieso nie zurückspielen. Und wenn dieser eine Fall mal vorkommt kann man gerne auch halt dann ein wenig länger warten.
Ob SSHDs gescheitert sind, kann ich nicht sagen, es gibt ja immer noch welche, eine bestimmte Nischen scheinen sie also zu bedienen, aber letztlich machen sie doch genau was Du davor geschrieben hast: Sie Cache auf NAND die häufig benutzten Daten. Einerseits das Cache vorzuschlagen und andererseits SSHDs die genau dies manchen als gescheitert zu betrachten, ist schon etwas widersinnig.
Sorry aber was soll das jetzt noch bringen? Die Leute die Performance brauchen greifen eh zu SSDs. Das einzige was bei HDDs Sinn macht ist nen möglichst niedriger TB Preis, schnell genug sind sie schon für die Aufgabe. Autarke Köpfe bedeutet auch mehr bewegliche Teile und damit höhere Ausfallwarscheinlichkeit. Sehe kein Sinn hier.
Sobald die SSD Preise sich HDDs Preisen annähern auf den TB bezogen, wird der Markt für HDDs insgesamt sowieso quasi aufhören zu exisitieren.
Sehe ich exakt genau so. Schön das sie sich jetzt über sowas Gedanken machen. Leider 10 Jahre zu spät. SSD werden auch in größeren Varianten immer günstiger. Irgendwann benötigen wir keine mechanischen Platten mehr im privaten Markt. Selbst im gewerblichen Teil wird immer mehr auf SSD NAS gesetzt, da man die quasi nicht existenten Zugriffszeiten und die hohe Geschwindigkeit, sowie hohe Ausfallsicherheit zu schätzen gelernt hat.
RIP HDD (wenn auch noch nicht jetzt, dann aber in einigen Jahren)
Hmmm, doppelte Ausfallwahrscheinlichkeit.
Die Diskussion warum man nicht mehrere autarke Köpfe verbaut hatten wir letztens schon im Forum. Das oben ist der Grund (neben dem Preis für die erhöhte Komplexität)
Nachts werden die Mitarbeiter vermutlich schlafen und ein Backup sinnvollerweise in der Zeit stattfinden. Ob nun 8 oder 5h wäre egal wenn für 12h eh niemand da ist.
Obendrein fallen in einem mittelständischen Unternehmen eher nicht zig TB an Daten pro Tag an, und außerdem gibt es schon längst differential Backups, und das Vollbackup kann am Wochenende gemacht werden wo man noch länger Zeit hätte.
Ergo sind das keine Gründe mit denen man so ein System an die Leute verkaufen kann.
Oh und wenn du an einem Montag einen Festplattenausfall hast und ein Vollbackup wieder aufspielen musst? Ein Tag IT Stillstand kann auch bei einem Mittelständler richtig in die Kohle gehen.
Seit IBM im Jahr 1956 die erste magnetisch arbeitende HDD vorgestellt hat, sind sowohl die Kapazitäten als auch die Geschwindigkeit deutlich gestiegen: Statt knapp 4 MB und 6,5 KB/s sind heute 14 TB und über 250 MB/s möglich. Aber das Tempo hinkt der Kapazität hinterher. Mit autarken Lese-/Schreibköpfen will Seagate das ändern.
Autark = selbstversorgend, unabhängig. Z.B. ein Land im Krieg dessen Bürger auch ohne Nahrungsmittel eines fremden Staats überleben können. Oder jemand der selbständig denken kann - der sich mit den relevanten Ideen und Fakten selbst versorgt.
Autark passt vom Kontext her überhaupt nicht. Eher würde ich autonom erwarten.
Für alle, die meinen, eine Performancesteigerung von HDDs sei nur noch unnötig: denkt mal ein bisschen nach und schaut auch über euren Tellerrand...
Die hier beschriebenen HDDs dürften immer noch günstiger sein, als zwei Platten. Also ein performantes RAID mit gleicher Leistung ist damit günstiger, da man weniger Platten einsetzen kann. Zusätzlich zu den Kosten der Platten kommt ja auch noch der Platz. Wenn auch noch eine gleich hohe Kapazität benötigt wird, kann man auf ein RAID-Mix setzen oder separate RAIDs.
Auch in einem RAID kann man die Geschwindigkeitsvorteile der neuen Technologie ausnutzen. Man kann diese Platten ja ebenso in einem RAID zusammenschalten.
Auch der Energieverbrauch wird bei gleicher Performance damit gesenkt, denn die Leistungsaufnahme solch einer Platte wird sich nicht verdoppeln gegenüber den herkömmlichen Platten.
Systeme sind ja auch beschränkt, was die Anzahl der Platten angeht, also kann man bei gleicher Performance auch mehr Platten pro System einsetzen.
Das wiederherstellen und ein Backup geht schneller und ist nicht unbedingt unwichtig. Gerade bei Clouddienstleistern ist das ein wichtiger Punkt. Ein schnelleres Backup erhöht dazu auch die Sicherheit, immerhin sind die Daten dann schneller gesichert. Genauso wie eine Wiederherstellung von RAIDs, schnelleres Wiederherstellen macht das RAID schneller wieder einsatzbereit.
Auch hier dürften die Kosten gegenüber SSDs noch klar im Vorteil liegen.
Der Tod der Festplatte ist noch lange nicht besiegelt. HMR dürften die Kosten pro TB weiter nach unten drücken, zusätzlich zu der Performancesteigerung dürfte die HDD noch lange eine Daseinsberechtigung haben. Dazu müsste man aber mal über den eigenen Tellerrand schauen....
Es gibt eben nicht nur schwarz und weiß sondern auch diverse Graustufen. Also zwischen Leistung (SSD) und Preis/TB (HDD) ist eine Menge Raum.
Auch wenn ich für mich selbst im privaten Umfeld noch keine nennenswerten Vorteile sehe, so sehe ich diese in anderen Nutzungen aber durchaus.