Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsToshiba PM5: SAS-SSD mit 30 TByte und 3.350 MB/s via MultiLink
Nach den ersten Client-SSDs bekommen nun auch die Enterprise-SSDs von Toshiba den neuen 3D-NAND (BiCS3). Und davon sogar eine ganze Menge, denn die PM5-Serie soll bis zu 30,72 TByte Speicherplatz bieten. Dank Leitungsbündelung per MultiLink SAS soll die Spitzentransferrate 3.350 MB/s erreichen. Ferner wurde die CM5 angekündigt.
Liegt das nicht eher daran dass man damals nicht wusste wie lange solche Chips im realbetrieb über längere Zeit halten?
Selbst bei Langzeittests halten "manche" Modelle das zigfache aus wie von Hersteller garantiert wird.
In Unternehmen, die derartige Anforderungen an die Hardware haben, stellen die reine Hardwarekosten selten den Löwenanteil dar. Da sind Software, Implementierung, Validierung & Betrieb i.d.R. die viel schlimmeren Posten in der Bilanz.
Und warten kann man nicht immer. Wenn die Kapazität und die Performance benötigt wird --> bleibt einem manchmal auch keine andere Wahl.
Das Business interessiert sich wenig dafür, wenn etwas in zwei Jahren soweit ist.
SLC-Dice dürften in der nötigen Größe wahrscheinlich gar nicht mehr gebaut werden, u.a. weil viel zu teuer, außerdem könnte es im Gehäuse arge Platzprobleme geben; die ganzen SLC-Chips würden wahrscheinlich nicht ins Gehäuse reinpassen (incl. Platinenstacking)
@jiwa:
egal wie viele die kosten, zum doppelten Preis kannst du 2 haben.
Danke. Ich ging bisher immer davon aus, dass der Enterprise-Bereich auf seriöse Technik setzt (z.B. wie SAS statt SATA).
Bin daher etwas geschockt, daß wirklich Consumer-Technik zum Einsatz kommt.
Aber nun gut, die Profis haben sicher auch RAID und Backups.
Eine Frage noch: Wenn sich die Zahl der Zellen nicht merklich erhöht hat,
werden dann beim MLC-Verfahren die verfübaren Zellen nicht mindestens genauso oft benutzt wie bei SLC ?
Ich meine, trotz der enormen Kapazität versucht das Wear-Leveling alle Zellen möglichst gleichmäßig abzunutzen.
Aber mit dem Unterschied, dass bei MLC im Endeffekt zwischen 4 und mehr Ladezuständen unterschieden werden muss.
Bei SLC ist es im Grunde nur Ja/Nein. Da kann selbst bei einer alten Zelle noch erkannt werden, ob der "Füllstand" bei 0-50 oder 51-99 Prozent liegt.
Was meinst Du damit? Es geht hier um SSDs mit SAS oder PCIe Interface und TLC NANDs sind bei Enterprise SSDs schon länger etabliert, die ganzen Samsung PM SSDs habe auch TLC NANDs. Längst nicht jede Enterprise SSD muss auch viele Schreibvorgänge abkönnen und eine zu kaufen die viel mehr DWPD verträht als nötig wäre nur Verschwendung.
joshy337 schrieb:
Eine Frage noch: Wenn sich die Zahl der Zellen nicht merklich erhöht hat,
werden dann beim MLC-Verfahren die verfübaren Zellen nicht mindestens genauso oft benutzt wie bei SLC ?
Eher nicht. Wenn der Speicher benötigt wird, dann wird er auch gekauft. Wir haben in unseren Storage-Systemen schon einige 15,36TB SSDs.
Und man darf nicht vergessen, dass Rackspace auch nicht gratis ist, vor allem dann nicht, wenn man irgendwo eingemietet ist (Equinix usw.).
Da spart man sich schon einiges, wenn man ein paar HUs weniger braucht.
Eben und Rackspace alleine ist es ja auch nicht, ein Storage kann auch nicht unendlich viele Platten aufnehmen, also braucht man dann mehr Storage Controller, mehr Ports, ggf. mehr Server und Switches etc. Dies macht Laufwerke mit hohen Kapazitäten eben immer dann attraktiv, wenn Storages mit sehr hohen Kapazitäten gefragt sind und relativiert die Kosten pro TB für solche Laufwerke.
Danke. Ich ging bisher immer davon aus, dass der Enterprise-Bereich auf seriöse Technik setzt (z.B. wie SAS statt SATA).
Bin daher etwas geschockt, daß wirklich Consumer-Technik zum Einsatz kommt.
SATA ist nur ein Protokoll. Wenn du eine SATA-Platte von einem der großen Storageanbieter (Netapp u.ä.) kaufst, dann hat das nichts mit einer 100€ SATA-Platte zu tun, die du als Consumer kaufst. Nicht das Protokoll geht bei deiner Platte kaputt, sondern Motor, die Mechanik des Lese/Schreibarms usw. Diese Komponenten sind bei SATA-Enterprise-Platten deutlich langlebiger und damit auch teuerer.
Derartige Platten werden in all den Bereichen verwendet, wo es um viel TB pro EUR geht und die Performanceanforderungen nicht so hoch sind.
Weiß ja nicht so wirklich, was ich von der Disk halten soll.
Zum einen finde ich die Datenübertragungsrate von gerade mal 3,3 GB bei 30 TB viel zu wenig und zum anderen machen die SAN Subsysteme da sowieso nicht mit, wenn mal 300 solcher Disks in einem SAN stecken.
IBM ist mit ihren 64 GBit/s FC Ports für PPC zwar auf dem richtigen weg die Festplatten, sehe trotzdem die Daseinsberechtigung der Disk noch nicht.
400.000 IOPS hören sich aber ganz gut an, mal schauen welche SANs solche Disks verbauen und wo dann der Performance-Flaschenhals wirklich steckt.
Liegt das nicht eher daran dass man damals nicht wusste wie lange solche Chips im realbetrieb über längere Zeit halten?
Selbst bei Langzeittests halten "manche" Modelle das zigfache aus wie von Hersteller garantiert wird.
Das liegt auch daran, dass SLC SSDs damals meist 32 oder 64GB groß waren, wir heute aber ein paar TB an MLC Zellen haben. Bei einer 32GB SLC SSD hast du bei 1TB Written schon 30 mal jede Zelle vollgeschrieben (vereinfacht) - bei einer 1TB MLC Consumer SSD gerade ein mal. Und die Controller sind heute auch viel besser darin, die Schreibzugriffe zu verteilen und nutzen dynamisches overprovisioning etc.