Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsSATA-SSDs: Mushkins 2-TB-SSD für 500 Dollar, 4 TB als Prototyp
Mushkin hat auf der CES 2016 neue SSDs gezeigt, bei denen vor allem die Kapazität im Fokus steht. Zu sehen war die Mushkin Reactor als neue Variante mit 2 Terabyte Speicherplatz. Zudem wurde ein Prototyp gezeigt, der die Kapazität nochmals verdoppelt.
Ich hab schon 2TB SSD Kapazität im PC - "leider" auf drei Laufwerken Aber immer weiter so! Wenn ich nächstes Jahr wieder aufrüste, kosten die 2TB Platten sicher das, was heute noch die 1TB kosten.
Naja, solange die SSD noch ziemlich anfällig sind, will ich eh kein solch grosses Datengrab haben.
Z.Zt reicht mir meine 256 GB voll und ganz, da dort nur das System gespeichert habe und sonst nichts.
Das mekt man auch an den entsprechenden Daten:
11000 Std. Betrieb
aber nur
7 TB gelesen
6 TB geschrieben.
Wobei ich nicht weiss, woher die 6 TB Schreibzugriffe hergekommen sind, da ich die Auslagerungsdateien und sonstiges komplett abgeschaltet habe.
Natürlich sehr sinnvoll, wenn man einen großen Vorteil von SSDs durch Unwissen nicht nutzt. Meine Crucial M4 hat nach 15.000h Betriebsstunden ganze 4% der Lebensdauer aufgebraucht, da kann ich sämtliche "schlimme" Dienste und Auslagerungsdatei mit gutem Gewissen anlassen.
Dann zum Thema, ist mittlerweile geklärt, wie lange SSDs überhaupt Daten halten können, bevor es zum Datenverlust kommt ? Zudem erschließt sich mir der Sinn einer Datengrab SSD nicht. Für Spiele mag ja eine 1TB SSD noch Sinn machen, aber warum sollten meine Videos, Musik usw. auf einer SSD liegen ? Bringt doch null Vorteile.
Einmal durch den Controller begrenzt (wie im Artikel stehend ) und durch die Notebooks. Da kann man nicht mal eben 3,5" einbauen.
Und sicherlich meinst du TB anstatt GB.
der Punkt ist bei SSD's weiß man (und bei Lithium-Akkus auch), dass sie definitiv ausfallen. Nicht umsonst gibt es OverProvisoring etc. Eine Festplatte, wird zwar auch etwas langsamer, aber die hält eigentlich ewig. Ausgenommen sind natürlich Menschen die mit ihrer Platte Nägel in die Wand klopfen...
Die JEDEC gibt in der JESD218 12 Monate bei 30°C vor, je 10°C (andere Quellen nennen 5°) mehr, halbiert sich die Zeit. Aber das ist für SSD die ohne Spannungsversorgung sind, mit Spannungsversorgung sollten die Controller durch Refreshen der Zellen den Datenverlust zuverlässig verhindern.
the-king89 schrieb:
Wieso stellt es die Hersteller eigentlich vor so große Probleme Größen von 1GB+ Herzustellen? Baut man halt größere Festplattengehäuse und gut is?
Man bekommt ja 1TB auch auf einer mSATA SSD unter, siehe die 850 Evo 1TB mSATA, die Gehäusegröße ist also nicht das Problem. Der Preis ist eher schon ein Problem und dann vor allem die Controller. Bei so großen Kapazitäten fallen auch viele Verwaltungsdaten an, die müssen verwaltet werden und wenn die SSD eine gute Performance haben soll, in einem externen DRAM Cache liegen, der entsprechend groß sein muss. Den muss der Controller auch verwalten können und da er neben mehr RAM auch mehr Rechnenleistung braucht, steigt auch die Leistungsaufnahme.
Es war auch nie der Sinn von SSDs um Medien wie Filme, Photos und Musik einzulagern. Da reichen IMHO Schreib-/Leseraten von ~140MB/s. Das SSDs unsicher sind ist mittlerweile ja eine Urban Legend geworden. Ich erinnere an 2009 als 22 Seagate HDD-Modelle einen Firmware-Bug hatten.
Vor Verlust schützt nur echtes Backup:
Daten müssen doppelt vorliegen und mindestens ein Medium muss offline sein, sowie unterschiedliche Festplattenhersteller. Ideal noch mit Hash-Checks.
Burgard schrieb:
Wobei ich nicht weiss, woher die 6 TB Schreibzugriffe hergekommen sind, da ich die Auslagerungsdateien und sonstiges komplett abgeschaltet habe.
Auch wenn ich hier nicht prahlen will aber 6TB sind ja echt putzig, habe hier gerade mal 11.75TB in einem Jahr. Ich will das Ding schon abrauchen sehen wenn es seine 72TB total writes erreicht, so langsam wie ich bin schaff ich das aber nicht wenn das System nach 4 Jahren gewechselt wird.
Warum Verzichten Leute auf Komfort um so eine läppische SSD zu schützen die gerade mal im bereich 75/150/300€ kostet je nach Größe und die großen enorm hohe TBW erlauben?
840 Evo 250GB Nutzer hier. Von der "Alterschwäche" wie CB immer schön gestichelt hat hab ich nichts gemerkt, der Bug war bei mir auch nur minimal vor dem Update. Samsung nach wie vor besser als Crucial, die haben mir damal mit ihrem Bug schön die Daten zerlegt, naja nach 15Min war das Clonezilla-Backup von der HDD wieder aufgespielt. Easy
Das liegt daran, dass alle gängigen Mainstream Controller max. 8 Kanäle für die NAND Chips haben. Man kann also nicht beliebig viele davon auf eine Platine hauen. Eine Kapazitätssteigerung bei SSDs gibts immer dann, wenn durch kleinere Fertigungsverfahren oder Stapeln mehr Speicher in einen Chip passt.
Alternativ könnte man natürlich Controller nutzen die mehr Kanäle bieten, macht für den Mainstreammarkt aber wohl keinen großen Sinn da extra was zu entwickeln.
Platz wäre in einem 9mm hohen 2.5" Laufwerksgehäuse locker für deutlich größere SSDs.
Das ist leideer komplett überholt, denn ersten werden HDDs selbst nicht langsamer, die werden wegen der Fragmentierung langsamer und weil die Daten bei steigernder Belegung immer mehr auf die weiter innen liegenden Spuren gelegt werden, aber an sich wird keine HDDs langsamer solange sie nicht Probleme hat und Daten erst nach wiederholtem Lesen korrekt erkennen kann. Und das mit dem ewig halten ist längst vorbei, die arbeiten bei den heutigen Datendichten nämlich schon im Teilkontaktbereich und unterliegen damit einem Verschleiß durch Abrieb. Man arbeitet dort mit Carbonbeschichtungen und speziellen Lubifizierungen, aber das man die magenitschen Teilchen unendlich oft ummagnetisieren kann, nutzt eben nichts, wenn die Oberflächen und Köpfe sich aufgerieben haben bzw. vom Abrieb verdreckt sind. Daher haben HDDs heute auch alle ein Workload Rating, was übrigens die gelesenen wie die geschriebenen Datenvolumen umfasst, den Begriff gab es früher noch gar nicht und viele können damit nichts anfangen, sie sollten sich aber mal damit befassen.
Außnahmen sind noch die 15.000rpm Enterprise HDDs, die stecken aber auch seid Jahren bei maximal 600GB fest, weil man eben nicht mehr realisieren kann, ohne die Köpfe so nahe an die Platter zu bringen, dass man eben in den Teilkontaktbereich kommt.
Ergänzung ()
clausthaler schrieb:
Ich will das Ding schon abrauchen sehen wenn es seine 72TB total writes erreicht
Die 72TBW sind nur ein Limit für die Garantie, wie beim Auto mit z.B. 3 Jahren und bis 60.000km. Da erwartet auch keiner das der Wagen dann auseinander fällt wenn die km erreicht sind. Die guten SSDs mit so geringen TBW Angaben werden bei Heimanwendernutzung deutlich mehr TBW aushalten, locker 10mal so viele und mehr.
Die Reklamationsraten bei SSDs haben letztes Jahr schon die Reklamationsraten der HDDs unterboten - teils deutlich.
Was die Haltbarkeit angeht: SSDs > HDDs.
Aber wie immer gilt: einzelne HDD und SSD Serien sind eine Katastrophe.
Erst einmal muss die SSD wirklich auf den Markt kommen und dann müssen Tests zeigen, ob es sich lohnt. Denn der Trend in letzter Zeit geht zum Abspecken der SSD Technik von SLC zu MLC zu TLC zu TLC "light". Wenn man eine SSD hat, dann lohnt sich eine 2 TB SSD sicherlich nicht als Bootlaufwerk oder Upgrade. Lediglich die Kapazität macht es interessant, aber eben als zweite SSD. Zumal diese SSD dann auch noch langsamer ausfällt. Und dabei gelten nun M.2 SSDs langfristig als die Zukunft.
Die Preise bis 1TB müssen fallen, alles größere hat für den Endkunden doch eh keinen wirklichen Mehrwert. Auf 1TB bekommt der Durchschnittsuser locker seine Programme und paar Spiele unter. Wozu teuren Flashspeicher für Videos, Musik und co. verschwenden? Das bringt keine nenneswerten Vorteile.
Zum Thema Ausfallsicherheit... Gute Festplatten können im Grunde ewig halten. Aluminiumscheiben und ein Elektromotor sind ansich erst mal ziemlich unanfällig. Flashsspeicher hingegen Altert. Die Beschreib und Lesbarkeit der Zellen ist heute kein Problem. Kein Privatanwender wird seine SSD kaputtgeschrieben bekommen. Es gibt ja auch test die zegen, dass die SSDs in aller Regel deutlich mehr Schreibzugriffe aushalten als angegeben, Das Problem ist viel mehr die haltbarkei der Controller. In meinem bekanntenkreis gibt es durchaus mehr defekte SSDs als Festplatten, aber gedaken muss man sich da nicht machen. Kein Plan, warum die SSD Controller eher kaputt gehen, als die von festplatten. mag an der komplexität und der Entwicklungsgeschwindigkeit liegen.
Mein nächster Spiele PC wird nur noch eine 1TB Platte haben für paar Programme und Games und der Rest landet im NAS
Zudem erschließt sich mir der Sinn einer Datengrab SSD nicht. Für Spiele mag ja eine 1TB SSD noch Sinn machen, aber warum sollten meine Videos, Musik usw. auf einer SSD liegen ? Bringt doch null Vorteile.
Naja, ich hab 99% der Musik aufm NAS, aber bei ner 4tb SSD hätte ich gar keine interne HDD mehr.
Aber für 500.-..... Ich glaub ich nutze meine 3tb HDD noch solange bis sie aussteigt, dann hört sich der Preis auch vernünftiger an.
P.S Holt du bist awesome.
Diese ganzen detaillierten Informationen um die man sich selbst nie kümmern würden die aber trotzdem in die Kategorie nice to know fallen.
Warum nicht? Parallele Zugrife bremsen sie doch bei SSDs anders als bei HDDs nicht spürbar gegenseitig aus und damit kann man ruhig auch eine 2TB als Systemlaufwerk einsetzen und wenn man es z.B. wegen dem Backup will, trennt man eben eine Partition für Windows ab.
Shoryuken94 schrieb:
Gute Festplatten können im Grunde ewig halten. Aluminiumscheiben und ein Elektromotor sind ansich erst mal ziemlich unanfällig.
So war es früher mal, aber die Zeiten sind vorbei. Informiere Dich doch mal über die aktuelle Technik von HDDs und was für Probleme es da gibt, vor allem bzgl. der Clearance der Köpfe.
Shoryuken94 schrieb:
Das Problem ist viel mehr die haltbarkei der Controller. In meinem bekanntenkreis gibt es durchaus mehr defekte SSDs als Festplatten
Elektronik hällt nicht ewig, aber gute SSDs wie die Intel X25 haben bisher damit kaum Probleme gezeigt. Was für SSDs haben die Leute in Deinem Bekanntenkreis den so gekauft? Vermutlich den Schrott von OCZ und womöglich SSDs Sandforce Controllern. Die war nie gut, die wurden nur immer gut gepusht! Aber selbst da fällt wohl weniger der Controller direkt aus, als dass die FW einfach zu buggy ist und denn brikt der Controller eben.
Shoryuken94 schrieb:
Kein Plan, warum die SSD Controller eher kaputt gehen, als die von festplatten. mag an der komplexität und der Entwicklungsgeschwindigkeit liegen.
Da muss man auch unterscheiden und Erstlingswerke von Startups wie Indilinx und Sandforce sollte man nicht in einen Topf mit den Produkte etablierter Hersteller wie Intel, Marvell oder Samsung werfen.
Habe ja "nur" eine Evo auch wenn das schon gute Platten sind. Erinnere mich noch an den netten Test wo SSDs mit Dauerschreibzugriffen gequält wurden. Lese mir IMHO auch deine Beiträge zu Speichermedien gerne durch. Kannst du mir eventuell sagen wie es momentan mit der SSD data-corrosion, TRIM und garbage collection aussieht nach löschen?
Finde es interessant das Daten nach einer kurzen Zeit auch mit guter Rettungssoftware nicht mehr herstellbar waren. Ein Backup das ein Bekannter bei sich gelöscht hat war nach wenigen Minuten schon so schwer beschädigt das ganze Bereiche einfach "leer" waren. Jetzt ganz laienhaft gesagt, reicht eigentlich ein quick format mit TRIM um alles sicher zu löschen vor Verkauf? Die Tools die Hersteller anbieten sind doch wohl um 100% sicher zu gehen und das einfacher zu gestalten? Wollte mal deinen Senf zum Thema hören. Würde bei Verkauf natürlich auch sicher löschen mit dem offiziellen Tool.
Wenn getrimmt wird geht das recht schnell, aber man muss halt sicher sein, dass getrimmt wird. Daher würde ich vor dem Verkauf mit DISKPART und CLEAN ALL dabei gehen oder die SSD einmal mit h2testw füllen und dann formatieren, nur um sicher zu gehen. Wie das mit TRIM und der GC funktioniert, hat sich seid ich diese hier geschrieben habe nicht geändert.
An alle die meinen, dass SSD achso zuverlässig sind...
was passiert, wenn der Controller mal ausfällt?
AUflösung: Alle Daten auf der SSD werden unbrauchbar und können nicht mehr gelesen werden ohne Spezialequipment.
Bei einer HDD kann man zumindest den COntroller einfach austauschen, wenn man eine zweite baugleiche Platte hat und schon hat man die Daten wieder zu 100%
Es geht ja nicht darum, wenn die SSD bei einigen problemlos laufen, sondern was sagt die STatistik im Ganzen und da stecken die SSD noch zeimlich imde Kinderschuhen was die Zuverlässigkeit angeht.
Klar muss man da auch aud die Unterschiede zwischen MLC- und SLC achten.
Elektronik hällt nicht ewig, aber gute SSDs wie die Intel X25 haben bisher damit kaum Probleme gezeigt. Was für SSDs haben die Leute in Deinem Bekanntenkreis den so gekauft? Vermutlich den Schrott von OCZ und womöglich SSDs Sandforce Controllern. Die war nie gut, die wurden nur immer gut gepusht! Aber selbst da fällt wohl weniger der Controller direkt aus, als dass die FW einfach zu buggy ist und denn brikt der Controller eben.
Mit ner HyperX war durchaus auch eine mit Sandforce Controller dabei, aber da gab es durchaus auch etwas hochwertigere Controller wie ne 830er evo und von Crucial (kp. welche genau). Wie schon angedeutet sind Ausfälle eher selten, egal ob SSD oder HDD. Klar, ne bugy Firmware kann alles plätten, hat Seagate ja gut vor paar Jahre gezeigt. Und klar, Montagsmodelle gibt es auch immer und meine Erfahrung ist da ganz sicher nicht die Referenz. Über die Haltbarkeit sollte man sich da keine Gedanken machen, mehr um die Sinnhaftigkeit seine Foto, Musik / Videosammlung auf SSD zu packen...