Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Im Streben nach immer höheren Datendichten und größeren Festplattenkapazitäten stieß das Perpendicular Recording zuletzt an seine physikalischen Grenzen. Um die Speicherkapazitäten von HDDs dennoch weiter zu steigern, setzt Seagate fortan auf sogenanntes Shingled Magnetic Recording (SMR) mit einer 25 Prozent höheren Datendichte.
also mir wären meine Daten zu wichtig, als dass ich sie gleich in Schindeln speichern würde
Aber gut, dass diese Überlegung endlich praktisch umgesetzt wird. Man kann die überlappenden Spuren wohl auch in Sektoren unterteilen, sodass man nur entsprechend weniger Daten zwischenspeichern, und neu schreiben muss.
Dank von vielleicht extra 512MB Cache in der Festplatte, kann man die zu schreibenden Daten ja eine Zeit lange zwischenspeichern, und anstehenden Lesevorgängen Vorrang geben. 512MB DDR SDRAM kostet ja kaum etwas.
Problematisch wird es nur, wenn mal plötzlich der Strom ausfällt, und die Daten noch nicht zurück geschrieben wurden.
Ich warte mal lieber noch 4 Jahre, bis sich die Laufwerke der zweiten Generation mit dieser Technik bewährt haben.
Also evolutionär finde ich die Aussicht auf 25% mehr Speicherdichte jetzt nicht. Und dafür opfert man erheblich Plattengeschwindigkeit - insbesondere die Schreibleistung wird doch gnadenlos einbrechen und die Datensicherheit bei plötzlichem Stromausfall noch mehr leiden.
Das Geschwindigkeitsproblem der HDD wird völlig vernachlässigt: In den letzten 20 Jahren ist die Homeuser-Festplattenkapazität um den Faktor 5000 gestiegen, die Geschwindigkeit aber höchstens um den Faktor 40.
Optische Medien (BDXL) wie Bandspeicher ziehen an den HDDs bei den Transferraten alllmählich vorbei.
Nicht ganz eindeutig sind Seagates Angaben dazu, wann die ersten SMR-Festplatten im Handel erhältlich sein werden. So gibt das Unternehmen einerseits – ohne ein spezifisches Modell zu nennen – an, bereits über eine Million Festplatten ausgeliefert zu haben.
Ich sehe das wie Uwe-Hans und finde für mich gar keine Vorteile. Es ist besser eine Festplatte mehr einzubauen als dieses halbfertiges, vielleicht sogar unfertiges System. Für große System wo richtig viel an Speicher gebraucht wird, sind Platzproblem das letzte K.O. Kriterium und ob man damit auch 25% an Energie kosten spart, ist fraglich. In privaten Umfeld sehe ich solche Festplatten eher nicht. Man wird sehen wie sich die Festplatten schlagen.
Habt ihr euch eigentlich mal die News durchgelesen ... und um was geht es hier?
Eine neue Technik um Festplatten mit größeren Kapazitäten herstellen zu können.
Und hier geht es nicht um irgendwelche Größen fürs private Backup die der ein oder andere verwendet, oder die Festplatten für die NSA, oder um Kapazitäten die man für die/ eine Filmsammlung benötigt, oder ob jetzt jemand x HDDs in dieser und jener Größe in seinem NAS hat und diese dann evtl. ersetzen kann, etc. pp..
Würde man diesen ganzen Kram = Off-Topic hier aussortieren - sprich ins Aquarium verschieben - verbleiben mal gerade ca. eine Handvoll = ca. 5 Beiträge übrig die wirklich was mit dem Thema zu tun haben ...
Was haltet ihr denn davon, wenn wir mal ein Exempel statuieren ... und alles was nicht direkt mit dem Thema der News zu tun hat, in Richtung Fische verschieben ... geht doch sicherlich in Ordnung, oder?
Das "Evolutionäre", ist wohl eher die SMR-Technik.
Laut dem Artikel, soll es etwa 2020 schon 20TB HDDs geben. Die 25% mehr speicherdichte sind für den Anfang doch nicht schlecht.
Das Geschwindigkeitsproblem der HDD wird völlig vernachlässigt: In den letzten 20 Jahren ist die Homeuser-Festplattenkapazität um den Faktor 5000 gestiegen, die Geschwindigkeit aber höchstens um den Faktor 40.
Das ist aber die logische Konsequenz der Festplattentechnik. Man hat zwar die Datendichte erhöht, womit es bei einer Vervierfachung der Datendichte dann doppelt so viele Sektoren auf einer Spur gibt, was zu einer doppelten Geschwindigkeit führt, aber eben auch doppelt so viele Spuren und die bringen von der Geschwindigkeit her eben nichts. Deswegen steigt die Kapazität immer quadratisch zur Geschwindigkeit, es dauert also immer länger die ganze Kapazität zu lesen oder zu schrieben. Da gibt es auch keinen praktikablen Ausweg.
zur news.
wird interessant wenn ich die ersten geschriebenen daten lösche -> freigebe und dort wieder welche hinschreiben will (muss), weil der rest der platte voll ist.
d.h. er müsste von anfang an alles neu schreiben!!! geil!
off
wieso sollte ich mein kommentar vermissen? nsa speichert wie wild - andere zensieren wie wild... mich wundert hier garnichts mehr.
Dafür gibts ja die Speicherbänder, die mehrere Spuren zusammenfassen und am jeweiligen Bandende eine nichtüberlappende Spur beinhalten, zusätzliche "normalbreite" Spuren könnten auch für die Reservesektoren bereitstehen.
Auf jeden Fall wird der Controller ungleich komplexer und auch TRIM wäre plötzlich interessant, damit eben Daten nicht mehr kopiert bzw. zurückgeschrieben werden müssen, die eigentlich schon gelöscht sind. Mal schauen, wie das alles bzgl. Preis und Performance aussehen wird, zumal ich mir schon vorstellen könnte, dass diese Platten vor allem als SSHDs mit einem Flashcache erscheinen dürften um eben die Performanceprobleme beim Schreiben zu kompensieren (oder kaschieren).