Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsMit 30 TB und mehr: Seagates HAMR-Festplatten gehen endlich in Serie
Im Grunde ist das SSD only im Rechner, Notebook, Tablet, Smartphone usw und dann ein NAS oder Cloud, und das wichtigste wird synchronisiert der Rest muss übers Netzwerk/Internet geholt werden ja auch eine Caching Art, und wahrscheinlich die am meisten verbreitete... Auch wenn dann der Limitierende Faktor meist die Verbindung ist.
Der Laser selbst wird nicht so genau positioniert. Der Laser wird durch angelegte E-Felder nachjustiert. Das hat eine sehr viel höhere Genauigkeit als die Mechanik. Da wurde in den letzten 20-30 Jahren viel Forschung aus der Optoelektronik für optische Verbindungen (Glasfaser) übernommen.
Was die ganze Sache nicht weniger beeindruckend macht. Was ich damit sagen wollte: In diesen ganzen Spec. und Datenblätterschlachten wird meiner Meinung nach zu oft vergessen, welches High-Tech Level die ganze Elektronik mittlerweile erreicht hat und wo die Reise noch hingehen wird Das wollte ich damit einmal bei der "SSD ist doch viel bessaa!!!!111einelf" Diskussion einmal aufgreifen.
Auch wenn langfristig (25+ Jahre) betrachtet die HDD wohl verschwinden wird. Wie du schon sagtest, die ist heute nur noch ein Schatten ihrer selbst damals, dafür haben SSDs in vielen (nicht allen!) Bereichen die Nase vorn. Ich denke bis dahin könnte das hier schon kommerziell verfügbar sein, auch wenn noch sehr viel Wasser den Rhein runterfließen wird. Wir werden es sehen.
Das ist eine sehr gute Frage. So gut, dass ich selbst mal ein wenig recherchiert habe und es scheint in der Tat so zu sein, dass bei "normalen" Festplatte immer nur ein Kopf aktiv ist. Ein Grund dafür könnte sein, dass es bei diesen zwar mehrere Köpfe gibt, diese aber nicht unabhängig voneinander arbeiten können, da sie sich andere Komponenten teilen.
das Problem ist meines Wissens das alle Köpfe mechanisch in einem Kamm zusammenhängen und man aufgrund von Toleranzen immer nur einen Kopf des Kammes auf eine Spur genau genug einregeln kann.
Klingt plausibel. Andererseits habe ich gerade eben in einem Review zu einer WD Ultrastar gelesen, dass sie einen drei-gelenkigen Arm benutzen, um die Bewegung noch genauer zu steuern. Ich hätte eigentlich angenommen, dass da auch Gelenke pro Arm drin sind.
Bei aktuellen Festplatten mit ihrer sehr hohen Datendichte könnte ich mir das gut vorstellen, aber wieso hat man es früher nicht gemacht als der Abstand zwischen den einzelnen Sektoren noch relativ großzügig war?
Oh wow.
Das reicht ja sogar um einen 10gbit Anschluss auszulasten.
Ich hab's mir überlegt ob 4x8TB QVO den Ersatz wert Wären... Aber $$$
Ausserdem hab ich iwo mal gelesen das QLC nicht so Raid tauglich sein soll.
Jetzt sind die Preise sowieso wieder im Eimer also problem gelöst xD
Muss trotzdem irgendwo hin und soweit ich mich erinnere waren meine letzten Platten ziemlich 'voll' im Sinne von Bauhöhe in etwa ausgereizt und anders als früher auch keine großen Aussparungen mehr da wo man noch etwas reinpacken könnte. Wenn die im Gehäuse nicht noch den Platz übrig haben müsste man irgendwas anderes einsparen. Man könnte natürlich auch nur SSHDs mit weniger plattern anbieten :/
ThePlayer schrieb:
Beim Lesen der Daten kommt es meist nicht mehr so sehr auf Geschwindigkeit an. Und einen Cache bereitzustellen der intelligent bestimmte Dateien vorhalten kann ist auch keine Kunst.
Gleich zwei 'uhm ... what?' Aussagen O.o
Wenn ich ein Spiel lade soll er die Daten schnell lesen. Wenn ich eine VM starte soll er schnell lesen. Wenn ich den PC hochfahre muss er auch schnell lesen. Gerade weil schreiben auch einfach erstmal in einen Cache laufen kann ist lesegeschwindigkeit ein wichtiger Punkt, denn das kann man viel schlechter bis garnicht ausgleichen.
Ich dachte auch caching gilt als hartes, praktisch unlösbares Problem, da jede Strategie und Umsetzung vor- und nachteile bietet und es keine allgemein bessere variante gibt. Gerade beim lesenden Zugriff. Solange der Controller nicht im vorraus weiß was gelesen werden wird kann er afaik praktisch nicht optimal entscheiden. Selbst wenn er könnte würde das in manchen Fällen kaum einen Unterschied machen sofern der Cache nicht ähnlich groß ist wie der dahinter liegende Speicher.
BxBender schrieb:
Während eine SSD nach einigen Jahren tot umkippt und nur anfangs Vorteile bietet,
Eher 14,54 € pro TB
und anders als früher ist die Platte mit dem besten Preis-Kapazitäts-verhältnis keine billige Desktopplatte die für max 6 std täglich spezifiziert ist
Ok, das ist glaube ich schon ein paar Jahre so, aber ich erinnere mich noch daran dass 24/7 eignung und serverplatten deutlich teurer waren.
AlphaKaninchen schrieb:
Ich hatte eine 2,5" 2TB FireCuda als Spiele Speicher, was die gekillt hat? Nix funktioniert noch... Was sie unbrauchbar gemacht hat? SMR!
Autsch. SSHD und SMR damit der User auch wirklich merkt wenn die Platte auf dem Platter kriecht? Klingt erstmal als wäre das nur für ähnlich spezielle use cases brauchbar wie smr platten selbst.
Hatten die das heimlich drin, oder nicht genau hingeguckt beim kauf, oder ist nur der use case gewandert?
Damals war das noch nicht so Thema wie heute, da hat man noch damit geworben weil es die 7mm Bauhöhe bei 2TB und 5TB in 15mm erst möglich machte. Aber selbst wenn man drauf geachtet hätte bei 2,5" Zoll hat man nicht wirklich eine Wahl. Wenn man aber erstmal das Problem kennt ist es leicht zu beheben, Secure Erease nutzen, sicherstellen das Trim aktiviert ist und BTRFS nutzen. Copy on Write scheint dem Controller die Arbeit zu erleichtern... Ist auch logisch, normalerweise muss der Controller ja quasi Copy in Write machen und dann wieder Zurück schreiben wenn das Dateisystem schon sagt schreib in den Leeren Bereich und lösche dann das alte ist das deutlich einfacher es muss ja nix hin und her geschrieben werden. Was es umso ironischer macht das SMR bei WD Red durch Probleme mit ZFS aufgefallen ist.
Ergänzung ()
Bigeagle schrieb:
Solange der Controller nicht im vorraus weiß was gelesen werden wird kann er afaik praktisch nicht optimal entscheiden.
Wenn du weißt wie du die Platte nutzt bzw der Controller dies anhand des zugrifsverhaltens erkennt, geht das schon, generell ist das klassische was du zuletzt gebraucht hast wirst du als nächstes brauchen sehr effektiv. Da allerdings HDDs nur bei Random Access richtig Problem haben kann es Sinn machen nur die Random Zugriffe zu berücksichtigen so macht es z.B. bcache.
Wenn man aber fast nur Große Dateien hat die Sequenziell gelesen werden ist es wahrscheinlich das beste den Anfang aller Daten zu Cachen um die Seek Time los zu werden.
Beim lesen bei multuser-Szenarien hilft es ja schon, wenn die köpfe dann nur alle paar sekunden umpositioniert werden und man mit großem ssd cache arbeitet.
Bei video streaming und 4 streams gleichzeitig, könnte man immer 5s lesen und puffern. Schon auch die mechanik
Kann ich nicht bestätigen oder feststellen. Scrub läuft alle 3 Monate ohne Probleme durch und auch ansonsten 0 Probleme damit. Auch vor den 8 TB hatte ich Jahre lang 6x2 TB und konnte keine Probleme feststellen.
Da habe ich mich unpräzise ausgedrückt. Damit meine ich meine Daten die ich auf HDD liegen habe. Das ist kein Betriebssystem das gebootet wird oder ein Spiel. Das sind nur Videos, Bilder Dokumente und mp3/Audio. Da ist die Lesegeschwindigkeit nicht so wichtig.
Eine gute Software lernt ja mit der Zeit was oft geladen wird und dann Landen diese Sachen im Cache. Klar ist aber auch das man damit nicht immer 100% abdeckt.
Bin mal gespannt wann man das als normaler Privatkunde kaufen kann und zu welchem Preis. Ich denke so ne 30TB-Platte wird bestimmt bei 700 Euro liegen.
@pas06 das wäre mehr als die Hälfte dessen was man letztes Jahr für diese Speichermenge auf SSDs ausgegeben hat. (300€ für 8TB mal 4)
Inzwischen wäre es ein Drittel des SSD Preises (500€ für 8TB mal 4) für meinen Geschmack wäre das eine zu kleiner Preisunterschied.
Andererseits eine Exos X24 kostet mit circa 500€ auch nur ein Drittel der SSDs. Erst bei 20TB wird es ein Viertel. Aber das ist dann auch FC-MAMR also ebenfalls eines der Energy Assisted Verfahren.
Sobald SSDs pro TB billiger sind, verschwinden die HDDs ganz schnell in der Nische; die Nische ist im Moment das dauerhafte Speichern. Wenn die SSDs dabei auch noch konkurrenzfaehig werden, verschwinden die HDDs ganz.
Ich prophezeie einfach mal, das das entweder noch sehr, sehr lange dauern wird, oder auch gar nicht.
Für eine 8 TB SSD werden derzeit über 500€ aufgerufen. Tendenz steigend. Flashspeicher war bis vor kurzen recht günstig. Die Hersteller von Flashspeicher haben bei den Preisen jedoch rote Zahlen geschrieben.
Für 500€ bekommt man bei HDDs fast 40 TB Speicher statt 8 TB. Bei solchen Größen werden SSDs bis auf weiteres aufgrund des massiv höheren Preises bis auf weiteres erstmal Nische bleiben und HDDs haben als große Datengräber durchaus auch weiterhin ihre Daseinsberechtigung. Daran wird sich auch erst mal nichts großartig ändern.
Anders sieht es natürlich bei Größen bis 2 TB aus. Da ist die HDD eigentlich jetzt schon tot, da 2 TB SSDs bezahlbar sind und ihre Vorteile auch voll ausspielen können.
Anders sieht es natürlich bei Größen bis 2 TB aus. Da ist die HDD eigentlich jetzt schon tot, da 2 TB SSDs bezahlbar sind und ihre Vorteile auch voll ausspielen können.
Und hier wird es Interessant die durchschnittliche HDD hat "nur" 6TB wenn da 2TB komplett und 4TB zum Teil wegfällt, heißt das deutlich geringere Stückzahlen.
Und hier wird es Interessant die durchschnittliche HDD hat "nur" 6TB wenn da 2TB komplett und 4TB zum Teil wegfällt, heißt das deutlich geringere Stückzahlen.
Naja, pro verkauftem Laufwerk mag das ja alles richtig sein.
Aber wie groß ist der Anteil der 6TB Disks an der gesamten verkauften Speichermenge von 189,39 Exabyte?
Der Anteil auf die Verschiedenen Diskgrößen wäre schon sehr interesssant.
Aber der Schnitt von 6TB/Drive ist wirklich schon erstaunlich gering. Wer kauft denn sowas?
Also da muß ja auch noch einiges darunter (4/3/2...TB) über den Tisch gehen...
Ich frage mich immer, wie Dual Actuators die (sequentielle) Transferrate steigern sollen. Die haben doch auch nicht mehr Köpfe im Vergleich zu einem einzelnen Arm, nämlich einen pro Scheibenseite.
Mit zwei Aktuatoren sind es zwei Koepfe pro Scheibenseite (einer pro Aktuator).
Dual Actuators würden nur etwas verbessern, wenn bisher pro Actuator immer nur ein Lesekopf gleichzeitig was macht. Werden die Platter nicht längst parallel beschickt?
Nein, werden sie nicht: Die Tracks sind sehr schmal, die thermische Ausdehnung der Arme sorgt dafuer, dass, wenn ein Kopf auf einem Track ist, ein anderer nicht immer auf dem selben parallelen; tatsaechlich ist man sogar schon vor laengerer Zeit (WIMRE fruehe 2000er)
dazu uebergegangen, nach einem Track den naechsten Track mit dem selben Kopf zu lesen statt auf einen anderen Kopf umzuschalten, weil offenbar die Ausrichtungsarbeit zu dem Zeitpunkt von einem Track zum naechsten geringer war als beim Umschalten auf den theoretisch parallelen auf einem anderen Kopf. Beim Schreiben sind die Anforderung an die Ausrichtung noch hoeher, da darf der Kopf nicht zu einem Viertel auf dem naechsten Track sein oder so. Die Ausrichtung erfolgt ueber Formattierungsinformation, die zwischen den Datensektoren auf der Platte stehen, und die dem Kopf (und der dann dem Aktuator) sagen, in welche Richtung er wieviel korrigieren soll.
Ich habe auch ueber Mikroaktuatoren pro Kopf gelesen, die bei der Ausrichtung schneller sind als wenn man das gesamte Aktuator-Arm-System bewegen muss, aber offenbar hat es noch niemand geschafft, die dazu zu benutzen, dass verlaesslich mehrere Koepfe gleichzeitig auf einen ganzen Satz von Tracks parallel zugreifen koennen.
Ergänzung ()
Zum parallelen Zugriff:
Limit schrieb:
Bei aktuellen Festplatten mit ihrer sehr hohen Datendichte könnte ich mir das gut vorstellen, aber wieso hat man es früher nicht gemacht als der Abstand zwischen den einzelnen Sektoren noch relativ großzügig war?
Man hat es auf jeden Fall beim Trommelspeicher gemacht. Am Anfang der Plattenspeicher vielleicht auch noch, aber irgendwann ging's halt aufgrund des immer geringeren Abstand der Tracks nicht mehr.
Ergänzung ()
Zu: SSDs billiger pro TB.
DaBas schrieb:
Ich prophezeie einfach mal, das das entweder noch sehr, sehr lange dauern wird, oder auch gar nicht.
Moeglich. Bei HDDs hat sich die schon lange angekuendigten HAMR-Technologie sehr verspaetet, was zu einer Stagnation bei den Preisen pro TB gefuehrt hat, waehrend die SSDs exponentiell in der Groesse gewachsen sind und damit pro TB entsprechend billiger geworden sind. Wenn HAMR nicht kommen wuerde, waere der Crossover wohl schon in wenigen Jahren erreicht, mit HAMR wird sich das wohl deutlich nach hinten verschieben. Und ob der Crossover jemals kommt, haengt davon ab, ob weitere Technologien fuer Festplatten kommen und ob beim Flash-Speicher die Entwicklung weiterhin so schnell voranschreitet wie gehabt. Auf beides wuerde ich nicht wetten, die Verzoegerung bei HAMR und bei EUV zeigen, dass es mit den Verkleinerungen nicht mehr ganz so leicht geht wie vor 2010.
Für eine 8 TB SSD werden derzeit über 500€ aufgerufen. Tendenz steigend. Flashspeicher war bis vor kurzen recht günstig. Die Hersteller von Flashspeicher haben bei den Preisen jedoch rote Zahlen geschrieben.
Ja, das sind schweinekurvenbedingte Schwankungen. Aber selbst wenn Du die Kurven um solche Schwankungen bereinigst, hat sich in den letzten Jahren der Preis/TB von SSDs dem von HDDs deutlich angenaehert, einfach weil bei den HDDs wenig weiterging. HAMR gibt ihnen jetzt wieder einen Schub (wird zumindest vorhergesagt).
Es gibt 2 verschiedene "Umsetzungen" oder zumindest die Idee gab es mal.
Die die Du meinst hat 2 physische Aktuatoren über alle Platter, einmal unten links, und einmal oben rechts sozusagen. Da haste dann wirklich 2 Köpfe pro Scheibe und kannst das was der eine geschrieben hat, mit dem anderen gleich wieder überschreiben
Aber die bekommt man natürlich bautechnisch nicht in das Standardmaß der Platte. Das Gehäuse wird länger.
Sogar hier auf CB gefunden https://www.computerbase.de/forum/t...platter-geben-wie-die-conner-chinook.2159098/
Die die Du meinst hat 2 physische Aktuatoren über alle Platter, einmal unten links, und einmal oben rechts sozusagen. Da haste dann wirklich 2 Köpfe pro Scheibe und kannst das was der eine geschrieben hat, mit dem anderen gleich wieder überschreiben
Aber die bekommt man natürlich bautechnisch nicht in das Standardmaß der Platte. Das Gehäuse wird länger.
Gab es nicht einmal ein CD-ROM Laufwerk, dass so einen Mechanismus benutzt hat um schneller zu lesen?
Blende Up schrieb:
Es gab aber zuletzt zumindest eine HDD die sozusagen nur unten Links "einen" Aktuator hat, der aber geteilt ist. Der Obere bedient die obern n/2 Platter, und der Untere die unteren n/2 Platter.