kaji-kun schrieb:
Ich freue mich ja wenn die Kapazität weiter steigt aber erhöht sich bei MAMR auch die Lese/Schreibrate?
Ja, denn wenn die Datendichte höher ist, passen mehr Sektoren auf eine Spur und da die Zeit für eine Umdrehung bei gleichen rpm immer die selbe ist, kommen dann auch mehr Daten in dieser Zeit an den Köpfen vorbei und damit erreicht man höhere Transferraten, sofern nicht Effekte wie bei SMR eine Rolle spielen, die dann die Schreibraten mindern.
dersuperpro1337 schrieb:
während die NAND Preise künstlich hoch gehalten werden.
Wo werden die NAND Preise künstlich hoch gehalten? Die NAND Hersteller verdienen kaum noch etwas, der Schweinezyklus ist gerade in der Phase des Überangebotes.
ThePlayer schrieb:
Jetzt müssen nur noch die Preise mal fallen. Über 500 Euro für 16TB wenn es die 8TB Platten schon ab ca. 180 Euro gibt.
Der Aufwand um 16TB zu bauen ist eben viel höher als für eine 8TB, die 8TB kommen heute schon alle ohne die wegen der aufwendigen Gehäuseabdichtung teuere Heliumfüllung aus.
guillome schrieb:
Über welche Schnittstelle werden die angeschlossen?
Wie immer würde ich mal vermuten, also SAS oder SATA, je nach Modell, de Ultrastar sind ja Enterprise Nearline Modelle.
duskkk schrieb:
Ich finde ja eigentlich nur kleine leise 2.5" interessant fuer NAS und data storage.
Da bist Du aber einer der wenigen die so denken, denn die kleinen 2.5" mit 15k und weitgehend auch die mit 10k rpm wurden von den SSDs praktisch komplett verdrängt.
duskkk schrieb:
Da gibt es schon ewig die 5TB Seagate aber getan hat sich da garnichts.
Weil da nicht mehr geht, dazu muss man erst Technologien wie eben MAMR oder HAMR serienreif haben um mit den noch größere Datendichten mehr Kapazität erzielen zu können. Selbst die 5TB und vermutlich sogar die 4TB erreicht man in 2.5" ja nur mit SMR.
Wattwanderer schrieb:
Das ist wohl das endgültige Signal, dass wir 100 TB HDDs nie sehen werden.
Wieso? Die Tatsache das nun MAMR Platten kommen, bedeutet doch eher das Gegenteil, denn während HAMR schon seit Jahren angekündigt und immer wieder verschoben wurden, bedeutet dies doch das nun eine neuen Technologie zu Steigerung der Datendichten serienreif geworden ist.
Wattwanderer schrieb:
Ich bin gespannt wann wir 100 TB auf Micro SDXC sehen werden. 20 Jahre?
Eher nie, denn bei NAND ist das Potential zur Steigerung der Datendichte weitgehend ausgeschöpft.
PS828 schrieb:
Die HDD ist längst nicht am Ende.
Eben.
KlaasKersting schrieb:
Wenn man die Preisentwicklung von NAND und Festplatten in den letzten Jahren vergleicht, halte ich es nicht für so unrealistisch, dass NAND in den nächsten 10-15 Jahren günstiger wird als Festplattenspeicher.
Dabei sollte man aber nicht vergessen, dass die SSDs erst vor so 10 Jahren angefangen haben überhaupt eine größere Verbreitung zu finden und die Entwicklung der NANDs in diesen 10 Jahren rasant war, in der Zeit aber das Potential zur Kostensenkung auch schon weitgehend ausgeschöpft wurde.
KlaasKersting schrieb:
Ist eben die Frage, wie viel mehr Layer, Spannungslevel pro Zelle, Shrinks etc. noch machbar sind.
Eben und die Anzahl der Bits pro Zelle steht im Widerspruch zu Größe und Abstand der Zellen, macht man die Zellen wieder so klein wie zuletzt bei planaren NANDs, kann man nicht einmal 4 Bit pro Zelle realisieren, dazu sind dann einfach zu wenig Elektronen in einer Zelle. Die Anzahl der Layer alleine sagt auch nicht viel aus, da man diese schon heute oft nur mit stacked NANDs erreicht, also mehreren Dies die über besondere Durchkontaktierungen verbunden sind. Dies bedeutet aber, dass man auch mehrere Dies herstellen muss, die jeweils entsprechende Kosten verursachen und man spart nur bei der Logik, die dann für den Stack nur einmal nötig ist. Native Layer senken die Kosten stärker, da scheint aber wirklich irgendwo bei etwas über 100 die wirtschaftliche Grenzen zu sein, denn auch hier kostet jeder Layer Geld, weil man mehr Bearbeitungsschritte braucht und mit jedem Schritt riskiert durch einen Fehler den ganze Wafer zu schrotten.
Die großen Schritte wie wir sie in den letzten 10 Jahren gesehen haben, dürften in Zukunft beim NAND nicht mehr drin sein, dafür ist das Potential zu weit ausgeschöpft und ein Technologiesprung wie eben MAMR oder HAMR ist nicht mehr zu erwarten, der Wechsel auf 3D NAND war der letzte für NAND.
KlaasKersting schrieb:
Festplatten scheinen ziemlich weit ausentwickelt zu sein, Kapazitätserhöhungen sind nur noch unter riesigem Aufwand möglich
Nein, sind sie nicht, die Tatsache das nun HDDs mit MAMR auf den Markt kommen, belegt doch genau das Gegenteil! Keine Ahnung wie man so einen Kommentar ausgerechnet zu dieser News schreiben kann.
Wattwanderer schrieb:
Die Hersteller scheinen sich darum zu bemühen preislich nur so weit wie nötig unter SSDs zu bleiben. Sonst kann ich mir die Angebote nicht erklären wo ein externes USB Laufwerk inkl. HDD weniger kostet als nur die HDD.
Das dürfte eine Frage der Verkaufszahlen sein.
Rock Lee schrieb:
hoffe, dass sich die Technik dann auch in den unteren Preiskategorien durchsetzt abseits von helium seal.
Das dürfte sie, wobei zuerst die großen und mittleren Kapazitäten bedient werden, denn da macht es mehr Sinn. Wenn man nämlich 2TB pro Platter ohne SMR schafft (mit SMR hat Seagate dies schon länger), dann kann man nämlich bei einer 4TB von 3 auf 2 Platter umstellen und bei einer 2TB auf von zwei auf einen Platter und da jeder Platter eben Geld kostet, spart man dann einiges an Kosten ein. Aber natürlich nur, wenn die Mehrkosten der neuen Technologie die Einsparungen nicht übersteigen und bis dies der Fall ist, dauert es meistens eine Weile, eben bis es Massenware geworden ist.
Je größer die Kapazitäten der HDDs werden, umso einfacher kann man dann einen Platter einsparen, weil dazu ja eine viel geringere Steigerung der Kapazität pro Platter ausreicht, weshalb die Preis der mittleren Kapazitäten häufiger fallen und der Sweet Spot verschiebt sich damit immer weiter zu höheren Kapazitäten.
Die Heliumfüllung braucht man ja nur um sehr viele Platter im Gehäuse unterzubringen, es sollten dann also auch irgendwann MAMR Platten ohne Helium kommen.
flo36 schrieb:
Schade, dass sich die Hybridlaufwerke nicht durchgesetzt haben. 256GB MLC oder meinetwegen auch TLC + 4TB HDD, die Firmware übernimmt das Autotiering und schon wäre alles in Ordnung.
Die haben sich nicht durchgesetzt, weil es Unsinn ist, schon weil den Controllern die Resourcen und Informationen für ein effizientes Caching fehlen, die wissen ja nur auf welche LBAs zugegriffen wird, aber nicht was dort steht. Daher macht Caching auf Ebene des OS, also durch den Treiber oder eine zusätzliche Software mehr Sinn und Intel sowie AMD bieten sowas ja auch an. Außerdem hat man mit einer getrennte Caching SSD nicht das Problem das man beides gleichzeitig entsorgen muss, wenn eines ausfällt.
Hayda Ministral schrieb:
Diese HDD dürften für die "Big Player" gedacht sein
So ist es, deswegen kommen ja auch zuerst die Enterprise Nearline Modelle auf den Markt, wie eigentlich immer in den letzten Jahren, wenn es mal wieder größere Kapazitäten gibt.