News Flash Memory Summit: Samsung präsentiert größte SSD mit 16 TByte

Kapazitätsangaben sind bei Datenträgern nahezu immer dezimal, also ist TB auch bei SSDs richtig. Die Differenz zur "RAW NAND Capacity" in TiB wird als spare area benutzt.
Die SSD Hersteller haben sich den Binary Mist schnell abgewöhnt. Lediglich Toshiba gibt Transferraten noch in binary an.
Jetzt müsste nur Microsoft mal noch den Finger aus dem A**** nehmen und das auch korrekt dezimal anzeigen, statt GB zu schreiben und GiB anzuzeigen.
 
Jup liegt nur an MS. Linux und OS X machen es schon seit Jahren korrekt.
 
Cool Master schrieb:
Jup liegt nur an MS. Linux und OS X machen es schon seit Jahren korrekt.

Widerspruch bezüglich OSX:

Zwar zeigt das System im Finder dezimal an, jedoch gibt es auch für dieses System genug Drittanbietersoftware, welche es falsch macht. So flächendeckend ist das Argument pro OSX also nicht.
 
@MuppetsGonzo

Im Finder wird es korrekt dargestellt und im Disk Utility ebenfalls, was juckt mich Drittanbieter Software? Wenn die es nicht richtig anzeigen liegt das an dem Programmierer aber nicht an OS X.
 
NighteeeeeY schrieb:
Und solange das der Fall ist, KÖNNEN SSDs HDDs noch gar nicht ablösen, wenn man immer die Gefahr eines Datencrashes sehen muss. Daher frage ich mich noch, was löst HDDs ab, wenn nicht SSDs?
Die Gefahr das Daten verloren gehen, muss man immer mit berücksichtigen. Das klingt ein wenig nach "rosa rote Brille" und die sollte man schnell abnehmen. Das ist nicht böse oder persönlich gemeint, aber solche Leute kann ich nicht verstehen. Es kann alles kaputt gehen, muss es aber nicht. Ich kann morgen ins VW Werk gehen, mir mein neu gebautes Auto abholen, auf die Bahn fahren und nach 10 Km ist der Motor kaputt.

Zu dem Thematik GigaByte / GibiByte muss man wohl nichts sagen... das ist ja nun nichts neues mehr :)

Aber es ist schön zu lesen das es schon 16 TB (Terabyte) SSDs gibt. Der Preis wird irgendwann automatisch purzeln und in der Zwischenzeit kann man auch kleinere SSDs zu günstigen Kursen kaufen. Vielleicht kann ich dann auch schon mal unsere 2x 320 GB SAS im Server vom Büro gegen 2x 1 TB SSDs austauschen :D

Gruß, Domi
 
Ich hab auch schon überlegt nicht im Server auf SSDs zu setzen... Ich seh aber für unsere Zwecke aktuell noch kein Sinn drin. Ob die Webseite wie aktuell in rund einer Sekunde lädt oder in ,2 Sek ist es aktuell einfach nciht Wert.
 
Ah.. Okay, ich denke mal da könnte man noch mit HDDs arbeiten. Ich dachte da eher an den Server hier bei uns im Büro, wo der Domaincontroller und die Netzwerkfreigaben drauf laufen. Zumal ich noch mit dem Gedanken "Terminalsystem" spiele, da wir ein paar Mitarbeiter hier im Haus haben die auch schon mal den Arbeitsplatz wechseln. Da könnte das schon etwas Sinn machen... aber das sind noch ungelegte Eier :D

Gruß, Domi
 
Jup der Server läuft aktuell im RAID 6 mit 5 HDDs. Netzwerkfreigabe macht bei uns ein Synology DS412+ und für die ganze großen Sachen haben wir noch ein RS18016xs+.
 
Cool Master schrieb:
@MuppetsGonzo

Im Finder wird es korrekt dargestellt und im Disk Utility ebenfalls, was juckt mich Drittanbieter Software? Wenn die es nicht richtig anzeigen liegt das an dem Programmierer aber nicht an OS X.

dann dürfte es dich unter Windows auch nicht stören, wenn es eine Drittsoftware richtig kann?
 
MuppetsGonzo schrieb:
wird es von Seiten Samsung auf absehbare Zeit auch nur SSDs mit bis zu 3,84TB geben
Die gibt es schon und sogar geizhals listet sie schon, obwohl es keine Endkunden- sondern eine Enterprise SSD ist und die bei Samsung normalerweise so nicht im Handel erhältlich sind.
MuppetsGonzo schrieb:
und die 15,36TB (oder "TiB" ?) scheint aktuell nur ein Papiertiger zu sein.
Was heiß Papiertiger, die ist gerade vorgestellt worden und von der Vorstellung bis zur Verfügbarkeit vergeht eben immer ein wenig Zeit, aber deshalb ist es kein Papiertiger und wie schnell sie sein wird, muss sich dann zeigen, vermutlich dürfte aber nur das SAS Interface begrenzen.
MuppetsGonzo schrieb:
Ich sehe daher die Octal immer noch als größte Festplatte des Bereiches
Die Octal ist eine PCIe Karte, die PM1633a eine SAS 2.5" SSD, die ziele auf ganz andere Anwendungen, die PM1633a wird in RAIDs zum realisieren großer Storages eingesetzt werden, was bei der Octal schon deswegen nicht geht, weil auch Server nicht so viele PCIe Slots haben um so viele von denen dort einbauen zu können und dann ist da noch die Sache mit der Redundanz, das ist bei PCIe Karte auch unmöglich, bei U.2 kommt Dual-Interface so langsam, SAS hat es schon lange.
MuppetsGonzo schrieb:
bitte verwendet mal endlich auch die Einheiten mit der Basis 2 kiB, MiB, GiB, TiB,
Angaben zur Größe von HDDs und sind immer mit Dezimalpräfixen und das ist auch korrekt so, in den Datenblättern steht dann auch meist in einer Fußnote ein Hinweis wie: 1TB sind 1.000.000.000.000 Byte.
 
Holt schrieb:
... Angaben zur Größe von HDDs und sind immer mit Dezimalpräfixen und das ist auch korrekt so, in den Datenblättern steht dann auch meist in einer Fußnote ein Hinweis wie: 1TB sind 1.000.000.000.000 Byte.

diese ganze Rechnerei ist schon der Horror, aber nicht undurchdringlich.

Ich dachte, in diesem Thread geht es um SSDs? Und bei SSDs wird doch wenigstens mit 1 Bit pro Speicherzelle gerechnet (SLC) und bis zu 2 Bit bei MLC, Samsung hat TLC (3 Bit pro Zelle) und bald auch QLC mit 4 Bit. Da wird also immer getrickst werden müssen, wenn man da runde auf 1 Mrd. Bytes basierende Größenangaben angeben will oder möchte.

Es wäre also notwendig, eine native 8Bit oder 1byte fassende Speicherzelle zu entwickeln, um damit bei ganzen Vielfachen auf Werte mit dezimalen Byte zu kommen.

Ohne Speicherzellen mit 10bit könnte eine Vergleichbarkeit mit HDDs nur hinken oder sogar stolpern, ungeachtet der Industrie und ihrer Werbefuzzies! Wenn ich einen Fehler eingebaut haben sollte, dann ist der für MichaG.
 
Die NAND Kapazität wird in der Tat immer in GiB angegeben, aber die Nutzkapazität ist immer in GB und nie größer als die NAND Kapazität, eher kleiner. Daher haben auch alle SSDs immer mindestens knapp 7% Overprovisioning.

Wieso man eine Speicherzelle mit 8bit oder gar 10bit brauchen würde, erschließt sich mir aber nicht. Das 10 Bit ist ein Bytes ergeben, trifft nur bei seriellen Übertragungen zu und ist der 8b10b Bitkodierung geschuldet wie sie z.B. PCIe 2.0 verwendet. PCIe 3.0 hat eine 128b130b Bitkodierung, es werden also statt 10 Bit für ein Byte sogar mit übertragenen 130 Bit dann 128Bit (16Byte) Daten übertragen. Deshalb ist die Bandbreite einer PCIe 3.0 Lane auch etwa doppelt so hoch wie bei einer PCIe 2.0 Lane, obwohl die Geschwindigkeit nur von 5 auf 8Gb/s gestiegen ist.
Ergänzung ()

NANDs haben übrigens noch mehr zusätzliche Kapazität als die angegebene Nutzkapazität, sieh mal hier am Beispiel eines alten Micron NANDs:

micronc-png.509304


Page Size: 4320Byte (4096 + 224Byte)

Block Site: 256pages (1024K + 56K Byte)

Device Size: 32Gb: 4096 blocks

Ein 32Gb(it) NAND Chip hat also nicht nur 4GiB (4*1024^3 Byte) = 4294967296Byte, sondern 4096 * 256 * 4320Byte = 4529848320Byte oder 5,5% als angeben, die aber vor allem für ECC genutzt werden. Bei HDDs zählen die ECC Bytes und Syncronmarken, etc. auch nicht mit zur Nutzkapazität, die gehen auch immer noch extra.

micronc.png
 
Zuletzt bearbeitet:
MuppetsGonzo schrieb:
dann dürfte es dich unter Windows auch nicht stören, wenn es eine Drittsoftware richtig kann?

So etwas MUSS einfach von OS richtig angezeigt werden. Wenn das Drittsoftware richtig darstellt ist es einfach nur lächerlich für MS. Was aber mit Windows abgeht juckt mich nicht ich nutze es nicht.
 
Man muss doch bei Windows wenn man sich die Eigenschaften eines Laufwerks anzeigen lässt nur mal ein wenig nach links schauen, da steht dann die genau Größe in Bytes und das 256.058.060.608 Bytes eben nicht 238GB sondern 238GiB sind, sollte dann schon auffallen, wenn man sich ein wenig mit den Präfixen auskennt.
 
Wird sicher noch Jahre dauern, bis die zu einem akzeptablen Preis-/Leistung Verhältniss kaufbar sind. Die Hersteller werden erst mit den nächsten 0,5 1, 2,4,8...TB Modellen abcashen, bevor die 16TB überhaupt interessant wird. War ja bei den HDD's auch nicht anders, wo die da mit 500GB ,1, 2, 4, 8 TB derzeit richtig gut verdienten und SSD's keine Alternativen sind. Würden SSD ebenfalls in 3,5" geben, dann wäre man wohlmöglich schon bei 64TB....
 
@Holt

Klar, trotzdem ist es lächerlich von einem Konzern der Größe von MS. Die HDD Hersteller geben alles in 1000 an, Linux und OS X geben es korrekt aus nur Windows seit praktisch jahrzehnten nicht.
 
NighteeeeeY schrieb:
Mein Problem mit SSDs ist nur immernoch, dass ich 2009 eine der ersten Vertex gekauft habe, die mir direkt nach 3 Wochen abgerauscht ist und ich natürlich kein Backup hatte.

Also meine OCZ Vertex 2 läuft noch immer einwandfrei und hat mittlerweile fast 16000 Betriebsstunden auf den Buckel.

Von den insgesamt 6 SSD's (3 eigene) ist noch keine einzige defekt, während ich bei den HDD's doch schon ein paar Ausfälle hatte. Sind aber in der Anzahl der verbauten Modelle deutlich mehr. Nach deiner Logik müsste ich eher die HDD's auf einer SSD sichern.;)
Dazu wäre ein 16 TB Modell gerade recht, na gut ein 8 TB Modell würde auch reichen.

Auf jeden Fall schön was Kapazitätsmäßig bereits möglich ist, jetzt muss nur noch der Preis fallen. Aktuell würde es mir schon reichen wenn die 1-2 TB Modelle in günstige Preisregionen rutschen.
 
Sylar schrieb:
Wird sicher noch Jahre dauern, bis die zu einem akzeptablen Preis-/Leistung Verhältniss kaufbar sind.
Damit die Preise sinken können, muss die Datendichte gesteigert werden, das ist bei SSDs wie bei HDDs.
Sylar schrieb:
Die Hersteller werden erst mit den nächsten 0,5 1, 2,4,8...TB Modellen abcashen, bevor die 16TB überhaupt interessant wird.
Das hängt davon ab was man einberechnet und womit man sie vergleicht. So eine SAS SSDs kann alleine von der Kapazität her 25 der bisher größten schnellen 2.5" SAS HDDs mit 15000rpm ersetzen und dürfte immer noch mehr IOPS liefern. Damit spart man also 24 mal einen Einbauplatz mit Controllerport, Stromversorgung und Kühlung, bei genügend großen Storages auch entsprechend viele Racks und Platz im Rechenzentrum und der kostet auch nicht wenig.

Heimanwender mit ihren paar Platten übersehen das gerne und schauen im Preisvergleich nur auf die €/TB der Medien, aber für Profis sieht die Rechnung ganz anders aus.

Außerdem geht die Entwicklung ja auch nur schrittweise, sonst hätte Karl Benz nicht so ein komisches Dreirad als Automobil zum Patent angemeldet, sondern eben gleich die kommende S-Klasse. Das hat er aber nicht und der Grund war nicht, weil er vorher erst mit vielen anderen Generationen abkassieren wollte, sondern weil die Technik damals einfach nicht weiter war. Aber es gibt immer wieder Idioten die meinen die Hersteller würden schon viele Generationen im voraus fertig entwickelt haben und in der Schublade aufbewahren, aber die kann man nur fragen, warum denn zum Teufel AMD nicht Zen endlich bringen würde, wo es denen doch schlecht geht, wenn die Architektur schon fertig in der Schublade liegt sollte? Bei den Geschäftszahlen hat AMD es doch nun wirklich nötig und von "mit alter Technik abkassieren" kann bei den schrumpfenden Umsätzen wohl auch nicht die Rede sein.

Obendrein beschweren sich meist die gleichen Schwachmannen dann auch noch, dass die Industrie die ersten Kunde als Versuchskaninchen für ihre unfertigen Produkte einsetzt, ja was denn nun? Wenn das Zeug angeblich Jahren in der Schublade liegt, wieso kommt es dann trotzdem unfertig auf den Markt?

Das ist doch wirklich totaler Blödsinn, die Firmen liefern sich einen harten Wettbewerb, auch die NAND/SSD gegen die HDD Hersteller und auch wenn die SSD bei der Performance haushoch gewinnen, so sind die HDDs bei den €/GB noch immer überlegen, denn wenn eine neue Technologie zu Steigerung der Datendichte bei HDD erst einmal verfügbar ist, da können die HDDs bei fast gleichen Kosten mit entsprechend mehr Kapazität produziert werden. Bei NAND sind die Investitionen in eine neue Fertigung dagegen viel höher.
Sylar schrieb:
Würden SSD ebenfalls in 3,5" geben, dann wäre man wohlmöglich schon bei 64TB....
Die Größe des Gehäuses ist nicht der limitierende Faktor für die Kapazität von SSDs, denn 1TB kann man schon heute mit 4 Packages realisieren, mit den neuen NANDs mit 256Ggabit Diesize sogar mit nur 2. Eine 2.5" Platine kann locker 16 Packages aufnahmen, damit wären 8 TB machbar, bei 15mm Bauhöhe sind 3 bis 4 Tochterplatinen machbar, also 32TB, aber eine 1TB SSD kostet über 300€, 32GB würden nicht unter 10.000€ zu haben sein und die Controller müssen das ganze NAND auch verwalten können. Alleine die Verwaltungsdaten für 32TB würde 16 bis 32GB Cache-RAM für den Controller erfordern, dazu einen Controller mit ausreichend Rechenleistung, mit 2 oder 3 ARM Kernen mit 400 bis 550MHz kommt man da auch nicht mehr weit.

Cool Master schrieb:
trotzdem ist es lächerlich von einem Konzern der Größe von MS.
Lächerlich ist aber vor allem, dass man auch immer noch in Reviews liest es würden von z.B. 1TB nach dem Formatieren nur 931GB übrig bleiben oder nutzbar sein. :freak: Da sollte sowas stehen wie: Nach dem Formatieren zeigt Windows nur 931GB an, meinst aber 931GiB, was einem TB entspricht.

PS: Danke für den Hinweis, an zwei Stellen wurde GB zu TB korrigiert.
 
Zuletzt bearbeitet: (GB -> TB)
Zurück
Oben