News Toshiba PM5: SAS-SSD mit 30 TByte und 3.350 MB/s via MultiLink

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.347
Und wo kann ich das Teil kaufen? :)
 
Tolle News! Bin allerdings überrascht, dass kein SLC verwendet wird.
 
joshy337 schrieb:
Tolle News! Bin allerdings überrascht, dass kein SLC verwendet wird.

heutige MLC consumer SSD haben eine höhere TBW als damalige SLC SSD.
umso größer eine SSD ist, desto langlebiger ist sie.

die 2TB MX300 hat zum beispiel eine TBW von 400.
das 275GB MX300 modell hingegen "nur" eine TBW von 80.

große SSD TBW > kleine SSD TBW
 
Zuletzt bearbeitet:
6force schrieb:
heutige 3D billigst-eimer consumer SSD haben eine höhere TBW als damalige SLC SSD.
Liegt das nicht eher daran dass man damals nicht wusste wie lange solche Chips im realbetrieb über längere Zeit halten?
Selbst bei Langzeittests halten "manche" Modelle das zigfache aus wie von Hersteller garantiert wird.
 
Damit man einfach rechnen kann sauge ich mal einen Preis von 1EUR pro GB aus dem hohlen Bauch. Damit wären wir bei 30.000 EUR für 30 TB.

Werden nicht selbst IT Planer mit unbegrenzten Budget nicht warten angesichts doch rasanter Entwicklung in diesem Bereich?
 
Ich schätze eher 20k für 30TB.
In einigen Projekten läuft das unter Portokasse.
 
@Wattwanderer

In Unternehmen, die derartige Anforderungen an die Hardware haben, stellen die reine Hardwarekosten selten den Löwenanteil dar. Da sind Software, Implementierung, Validierung & Betrieb i.d.R. die viel schlimmeren Posten in der Bilanz.

Und warten kann man nicht immer. Wenn die Kapazität und die Performance benötigt wird --> bleibt einem manchmal auch keine andere Wahl.

Das Business interessiert sich wenig dafür, wenn etwas in zwei Jahren soweit ist.
 
30 TB SSD...wow :O - bin ja mal auf den Preis gespannt.
 
joshy337 schrieb:
Bin allerdings überrascht, dass kein SLC verwendet wird.

SLC-Dice dürften in der nötigen Größe wahrscheinlich gar nicht mehr gebaut werden, u.a. weil viel zu teuer, außerdem könnte es im Gehäuse arge Platzprobleme geben; die ganzen SLC-Chips würden wahrscheinlich nicht ins Gehäuse reinpassen (incl. Platinenstacking)

@jiwa:
egal wie viele die kosten, zum doppelten Preis kannst du 2 haben. ;)
 
6force schrieb:
heutige MLC consumer SSD haben eine höhere TBW als damalige SLC SSD.
umso größer eine SSD ist, desto langlebiger ist sie.

die 2TB MX300 hat zum beispiel eine TBW von 400.
das 275GB MX300 modell hingegen "nur" eine TBW von 80.

große SSD TBW > kleine SSD TBW

Das die MX300 2Tb ja auch nur knapp 8x so groß ist ja auch für die Zahl nicht relevant :freak:.

tmkoeln
 
6force schrieb:
heutige MLC consumer SSD haben eine höhere TBW als damalige SLC SSD.
umso größer eine SSD ist, desto langlebiger ist sie.

die 2TB MX300 hat zum beispiel eine TBW von 400.
das 275GB MX300 modell hingegen "nur" eine TBW von 80.

große SSD TBW > kleine SSD TBW

Danke. Ich ging bisher immer davon aus, dass der Enterprise-Bereich auf seriöse Technik setzt (z.B. wie SAS statt SATA).
Bin daher etwas geschockt, daß wirklich Consumer-Technik zum Einsatz kommt.
Aber nun gut, die Profis haben sicher auch RAID und Backups.

Eine Frage noch: Wenn sich die Zahl der Zellen nicht merklich erhöht hat,
werden dann beim MLC-Verfahren die verfübaren Zellen nicht mindestens genauso oft benutzt wie bei SLC ?
Ich meine, trotz der enormen Kapazität versucht das Wear-Leveling alle Zellen möglichst gleichmäßig abzunutzen.
Aber mit dem Unterschied, dass bei MLC im Endeffekt zwischen 4 und mehr Ladezuständen unterschieden werden muss.
Bei SLC ist es im Grunde nur Ja/Nein. Da kann selbst bei einer alten Zelle noch erkannt werden, ob der "Füllstand" bei 0-50 oder 51-99 Prozent liegt.
 
Zuletzt bearbeitet:
Wattwanderer schrieb:
warten angesichts doch rasanter Entwicklung in diesem Bereich?
Was für eine rasante Entwicklung? Die Samsung PM1633a 15,36TB wurde im März 2016 vorgestellt und war so etwa vor einem Jahr dann verfügbar (für etwa 10.000$). Auf dem FMS 2016 zeigte Samsung dann mit der PM1643 32TB eine so große SSD wie jetzt Toshiba, aber die dafür nötigen V-NANDs mit 64 Layern sind erst vor wenigen Monaten in die Großserienfertigung gegangen. Auch wenn zwischendurch irgendeine Firma nun eine 50TB SSD gezeigt hat, dürfte die rasante Entwicklung oder eher etwas anderes sein.

joshy337 schrieb:
Ich ging bisher immer davon aus, dass der Enterprise-Bereich auf seriöse Technik setzt (z.B. wie SAS statt SATA).
Was ist an SATA unseriös? Gerade bei 3.5" HDDs mit großen Kapazitäten sind auch im Enterprisesegment nicht selten SATA verwendet.
joshy337 schrieb:
Bin daher etwas geschockt, daß wirklich Consumer-Technik zum Einsatz kommt.
Was meinst Du damit? Es geht hier um SSDs mit SAS oder PCIe Interface und TLC NANDs sind bei Enterprise SSDs schon länger etabliert, die ganzen Samsung PM SSDs habe auch TLC NANDs. Längst nicht jede Enterprise SSD muss auch viele Schreibvorgänge abkönnen und eine zu kaufen die viel mehr DWPD verträht als nötig wäre nur Verschwendung.
joshy337 schrieb:
Eine Frage noch: Wenn sich die Zahl der Zellen nicht merklich erhöht hat,
werden dann beim MLC-Verfahren die verfübaren Zellen nicht mindestens genauso oft benutzt wie bei SLC ?
Was meinst Du damit? SLC ist übrigens tot und begraben, abgesehen von ganz wenigen speziellen Anwendungen.
 
Wattwanderer schrieb:
Werden nicht selbst IT Planer mit unbegrenzten Budget nicht warten angesichts doch rasanter Entwicklung in diesem Bereich?

Eher nicht. Wenn der Speicher benötigt wird, dann wird er auch gekauft. Wir haben in unseren Storage-Systemen schon einige 15,36TB SSDs.
Und man darf nicht vergessen, dass Rackspace auch nicht gratis ist, vor allem dann nicht, wenn man irgendwo eingemietet ist (Equinix usw.).
Da spart man sich schon einiges, wenn man ein paar HUs weniger braucht.
 
Eben und Rackspace alleine ist es ja auch nicht, ein Storage kann auch nicht unendlich viele Platten aufnehmen, also braucht man dann mehr Storage Controller, mehr Ports, ggf. mehr Server und Switches etc. Dies macht Laufwerke mit hohen Kapazitäten eben immer dann attraktiv, wenn Storages mit sehr hohen Kapazitäten gefragt sind und relativiert die Kosten pro TB für solche Laufwerke.
 
knoxxi schrieb:
Wow, wahnsinnig. Ein kleines Auto hat wahrscheinlich den selben Wert.

Bei einem Euro pro GB sind wir schon bei nem schön ausgestatteten Golf mit großem Motor. Aber ich denke es wird mehr ;)
 
joshy337 schrieb:
Danke. Ich ging bisher immer davon aus, dass der Enterprise-Bereich auf seriöse Technik setzt (z.B. wie SAS statt SATA).
Bin daher etwas geschockt, daß wirklich Consumer-Technik zum Einsatz kommt.
SATA ist nur ein Protokoll. Wenn du eine SATA-Platte von einem der großen Storageanbieter (Netapp u.ä.) kaufst, dann hat das nichts mit einer 100€ SATA-Platte zu tun, die du als Consumer kaufst. Nicht das Protokoll geht bei deiner Platte kaputt, sondern Motor, die Mechanik des Lese/Schreibarms usw. Diese Komponenten sind bei SATA-Enterprise-Platten deutlich langlebiger und damit auch teuerer.

Derartige Platten werden in all den Bereichen verwendet, wo es um viel TB pro EUR geht und die Performanceanforderungen nicht so hoch sind.
 
Weiß ja nicht so wirklich, was ich von der Disk halten soll.
Zum einen finde ich die Datenübertragungsrate von gerade mal 3,3 GB bei 30 TB viel zu wenig und zum anderen machen die SAN Subsysteme da sowieso nicht mit, wenn mal 300 solcher Disks in einem SAN stecken.
IBM ist mit ihren 64 GBit/s FC Ports für PPC zwar auf dem richtigen weg die Festplatten, sehe trotzdem die Daseinsberechtigung der Disk noch nicht.
400.000 IOPS hören sich aber ganz gut an, mal schauen welche SANs solche Disks verbauen und wo dann der Performance-Flaschenhals wirklich steckt.
 
CB01 schrieb:
Liegt das nicht eher daran dass man damals nicht wusste wie lange solche Chips im realbetrieb über längere Zeit halten?
Selbst bei Langzeittests halten "manche" Modelle das zigfache aus wie von Hersteller garantiert wird.

Das liegt auch daran, dass SLC SSDs damals meist 32 oder 64GB groß waren, wir heute aber ein paar TB an MLC Zellen haben. Bei einer 32GB SLC SSD hast du bei 1TB Written schon 30 mal jede Zelle vollgeschrieben (vereinfacht) - bei einer 1TB MLC Consumer SSD gerade ein mal. Und die Controller sind heute auch viel besser darin, die Schreibzugriffe zu verteilen und nutzen dynamisches overprovisioning etc.
 
Zuletzt bearbeitet:
Zurück
Oben