News Quadruple-Level Cell: Toshibas QLC-NAND mit 4 Bit pro Zelle für Archiv-SSDs

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.387
"Archiv" und "SSD" - das ist doch schon ein Widerspruch in sich! Flash Speicher haben ja schon nach kürzester Zeit ohne Strom Datenverlust.
 
"Nach kürzester Zeit" stimmt nicht. Ich nehme an, du sprichst die Studie von 2010 an, die leider von diversen Medien falsch interpretiert wurde. Das Szenario betraf eine SSD bei der schon längst das Ende der Haltbarkeit erreicht wurde.
 
Bezüglich dieses Themas: FastLTA oder auch "Silentcubes" genannt, wäre hier durchaus interessant...
 
MichaG schrieb:
"Nach kürzester Zeit" stimmt nicht. Ich nehme an, du sprichst die Studie von 2010 an, die leider von diversen Medien falsch interpretiert wurde. Das Szenario betraf eine SSD bei der schon längst das Ende der Haltbarkeit erreicht wurde.

Ich habe selbst schon die Erfahrung gemacht mit einer Plextor 256 GB SSD, die ich knapp ein Jahr in einem USB Gehäuse liegen hatte ohne sie zu benutzen. Gut die Hälfte der Daten waren nicht mehr lesbar, bei der anderen Hälfte habe ich keine Ahnung, wie konsistent die Daten noch sind.
Die Plextor SSD an sich ist aber weder am Ende ihrer Lebensdauer noch ist sie jetzt defekt. Neu partitioniert und formattiert und alles läuft wieder normal. Aber da Flash Speicher nunmal durch das "einschließen" von Ladung die Daten halten, kommt es irgendwann unweigerlich zu Datenverlust, wenn die Elektronen mit der Zeit durch die Gates diffundieren. Und je mehr unterschiedliche Ladungszustände pro Zelle zur Speicherung verwendet werden, um so höher ist die Wahrscheinlichkeit, dass es zu Datenfehlern kommt. Quad Level Zellen machen die Sache definitiv nicht besser...

Auch bei einigen USB Sticks hatte ich schon Datenverlust, wenn ich sie längere Zeit (ein paar Monate) nicht in Benutzung hatte.

Wenn's um das Thema "Archiv" geht, dann ist weniger als ein Jahr durchaus in die Kategorie "kürzeste Zeit" einzuordnen. Wenn ich Daten archivieren will, dann meine ich damit, dass ich das Medium mindestens 10 Jahre in den Schrank legen kann und danach immer noch sicher sein kann meine Daten unbeschädigt vorzufinden. Das geht mit keiner SSD.
Ergänzung ()

Silent Cubes sind im Endeffekt auch nichts anderes als ein mehrfach redundantes NAS.
 
Zuletzt bearbeitet:
Offtopic , immer wenn ich quadripple lese denke ich an den quadripple bypass burger aus amiland, das vid is extra Klasse

Ontopic, bin mal gespannt wann das alles endlich bezahlbar wird .. Aber neue Techniken neigen in letzter Zeit nicht dazu die bisherigen Produkte Zu ersetzen zum selben preis, sondern werden am oberen Ende der preisrange hinzugefügt
 
Gut, der Begriff "kürzeste Zeit" ist dehbar. Hatte da eher an die Panikmache mit einer Woche oder so gedacht.

Ja, zur Langzeitarchivierung ohne Stromzufuhr sind SSDs sicher nicht geeignet. Vermutlich sind daher Archive mit beständiger Stromversorgung und Verfügbarkeit als Einsatzgebiet gedacht.
 
Mit den Prognosen bin ich vorsichtig, aber Krass ist es schon das jetzt an Kapazität gearbeitet wird, vor paar Jahren ging es eher drum die Dinger günstiger zu bekommen, jetzt steht Kapazität in Vordergrund.
 
Ich wage mal zu bezweifeln, dass wir in 3 Jahren SSD's (im bekannten Formfaktor) mit 128TB sehen werden - wenn sie sich allerdings entscheiden doch (noch) 3.5" mit irgendwas abzulösen könnte das gut hinkommen.

Allein machbar sollte das ja auch heute schon sein - jedenfalls fällt mir praktisch nichts ein was dagegen spricht wenn der Formfaktor flexibel ist.
 
Master68 schrieb:
"Archiv" und "SSD" - das ist doch schon ein Widerspruch in sich! Flash Speicher haben ja schon nach kürzester Zeit ohne Strom Datenverlust.

Naja, "kürzeste Zeit" ist schon was übertrieben.

Allerdings finde ich es eigenartig das diese QLC Speicher als Archiv angepriesen werden.
Die sind doch noch viel komplexer als TLC und MLC. Da dürften doch dei Daten viel eher verloren gehen.
 
MichaG schrieb:
Gut, der Begriff "kürzeste Zeit" ist dehbar. Hatte da eher an die Panikmache mit einer Woche oder so gedacht.

Ja, zur Langzeitarchivierung ohne Stromzufuhr sind SSDs sicher nicht geeignet. Vermutlich sind daher Archive mit beständiger Stromversorgung und Verfügbarkeit als Einsatzgebiet gedacht.
Ich gehe doch mal stark davon aus, dass spezielle SSDs für die Langzeitarchivierung über eine Pufferspannung verfügen (eine 3V-Knopfzelle, die alle Jahre mal erneuert wird, sollte reichen), damit die Ladungen gehalten werden können. Ohne Schreibzugriffe braucht es hier ja nahezu keinen Strom und somit sehr wenig Leistung bzw. Batteriekapazität.
 
Die Dinger sind doch gut für ein Home-Media-Center geeignet. Wird selten beschrieben, oft gelesen, hängt ständig am Strom.
Damit wird das Ding auch silent.

In Unternehmen sind die Dinger doch auch gut als Zwischenarchiv geeignet, also "abgearbeitet" aber noch nicht "definitiv archiviert und verstaut".

Der Rest, also Backups, kommen eh auf ne HDD, wie immer.

Im Alltagsrechner kommt mir aber derzeit nichtmal TLC in den Rechner, geschweige denn QLC.
 
MichaG schrieb:
Während immer mehr SSDs mit 3 Bit pro Speicherzelle (TLC) auf den Markt kommen, arbeitet die Branche längst an Speicherchips mit 4 Bit pro Zelle (QLC).
Das gibt die Problematik nicht ganz verständlich wieder.
TLC und QLC sind ja 2008-2009 auf den Markt gekommen. Auch QLC war ja quasi "fertig" entwickelt und ging auch in die Massenproduktion. Das problem ist, wie allgemein bekannt, dass mit jedem Shrink die NAND-Technik problematischer wird. Und das Problem wird erheblich größer je mehr Zustände unterschieden werden müssen. Und QLC konnte einfach nicht weiter geshrinkt werden. MLC ging schnell von 4x nm auf 3x und 2x nm runter. Die Ersparnis die man durch mehr Bits pro Zelle hatte war nutzlos, da für den gleichen Preis MLC in kleinerer Fertigungsstruktur hergestellt wurde, mit deutlich weniger nachteilen.
Bei TLC hat man das ganze durch modernere Fehlerkorrektur in den Griff bekommen. Für QLC ging der Aufwand ins unendliche. QLC hatte jeder Hersteller auf Eis gelegt.
Jetzt mit 3d NAND ist man in Sachen "Robustheit" wieder in etwa auf dem Niveau des 5x nm NAND und kann dementsprechend auch wieder mehr Bits pro Zelle in Angriff nehmen.

Was ich in der News nicht verstehe ist die Roadmap, die ihr da ansprecht. Wo seht ihr da einen Samplebeginn von QLC für Ende 2016? Ich sehe nur, dass für Ende 2016 eine neue Generation mit unbekannter Layeranzahl (wohl mehr ;)) geplant ist. QLC ist der Folie nach allgemein geplant aber nicht sicher (eingeklammert).
Wart ihr vor Ort und es wurde mündlich noch mehr mitgeteilt?


Tekpoint schrieb:
Mit den Prognosen bin ich vorsichtig, aber Krass ist es schon das jetzt an Kapazität gearbeitet wird, vor paar Jahren ging es eher drum die Dinger günstiger zu bekommen, jetzt steht Kapazität in Vordergrund.
Naja, das ist die logische Konsequenz. Wenn es so teuer ist, dass niemand es bezahlen will, dann brauch ich mir auch keien gedanken um extrem große Laufwerke machen.
Es ist ja jetzt nicht so, dass plötzlich der Durchbruch in Sachen Datendichte bei NAND-Flash erfolgt ist. Dass hat in letzter Zeit eher abgenommen und nimmt jetzt mit 3d-NAND wieder fahrt auf.
Es wurde jetzt mehr am Controller- und Interfacedesign gearbeitet um mehr NAND-Dies vernünftig anbinden und auch performancetechnisch nutzen zu können.
 
Master68 schrieb:
Ich habe selbst schon die Erfahrung gemacht mit einer Plextor 256 GB SSD, die ich knapp ein Jahr in einem USB Gehäuse liegen hatte ohne sie zu benutzen. Gut die Hälfte der Daten waren nicht mehr lesbar, bei der anderen Hälfte habe ich keine Ahnung, wie konsistent die Daten noch sind.
Pextor ist kein NAND Hersteller, da weiß man nie welche Qualitätsstufen die verbauten NANDs wirklich haben, seid diesem Fall einer M5 Pro, der kein Einzelfall bei Plextor ist und auch diesem einer Kingston Hyper X Fury bin ich bzgl. der NAND Qualität in SSDs von Anbietern ohne eigene NAND Fertigung noch skeptischer geworden. Da reicht es wenn denen von Händlern mal ein paar gefakte NANDs untergeschoben werden, also miese Qualitäten die als hochwertige verpackt sind und schon hat man ein Problem. Außerdem können die Hersteller auch bewusst NANDs gewählt haben die wegen ihrer schlechten Data Retention Time abgestuft und daher billig verkauft wurden, dann wer lässt schon seine SSDs lange ungenutzt im Schrank liegen? Dafür sind die SSDs den allermeisten User zu teuer und damit besteht kaum ein Risiko das jemand solch ein Problem haben wird.

Übrigens hatte ich meine OCZ Agility3 die sich als Garantieersatz für die ausgefallen Vertex2 von OCZ bekommen habe nach fast 2 Jahren im Schrank mal wieder angeschlossen, die hatte ich damals nur getestet und konnte alle im September 2013 aufgespielten h2testw Testdateien fehlerfrei lesen! Ebenso die Dateien von 2013 auf meiner Plextor M3S die ebenso etwa 1 1/2 Jahre im Schrank lag.
Master68 schrieb:
Aber da Flash Speicher nunmal durch das "einschließen" von Ladung die Daten halten, kommt es irgendwann unweigerlich zu Datenverlust, wenn die Elektronen mit der Zeit durch die Gates diffundieren.
Das ist korrekt, aber es hängt von vielen Faktoren ab wie lange es dauert. Aber echte Offline-Langzeitarchivierung ist sowieso ein Thema für sich, dafür sind auch HDDs nicht wirklich geeignet, die mögen es auch nicht jahrelang im Schrank zu liegen.
Master68 schrieb:
Auch bei einigen USB Sticks hatte ich schon Datenverlust, wenn ich sie längere Zeit (ein paar Monate) nicht in Benutzung hatte.
In USB Sticks wird schon länger überwiegend der letzte Dreck an NAND verbaut den der Hersteller irgendwo günstig bekommt, da sollte man sich wirklich nicht wundern, wenn diese schnell die Daten verlieren oder gar nicht mehr funktionieren.
Master68 schrieb:
Wenn's um das Thema "Archiv" geht, dann ist weniger als ein Jahr durchaus in die Kategorie "kürzeste Zeit" einzuordnen. Wenn ich Daten archivieren will, dann meine ich damit, dass ich das Medium mindestens 10 Jahre in den Schrank legen kann und danach immer noch sicher sein kann meine Daten unbeschädigt vorzufinden.
Das ist aber nicht was Archive hier mein, das ist für Cool and Cold Data, also Daten die zwar Online sind, aber sich kaum bis gar nicht ändern. Das ist die Anwendung für die auch Seagates Archive v3 HDDs mit SMR gemacht sind, die sind auch nicht dafür gedacht bespielt und 10 Jahre im Schrank gelagert zu werden. Dafür eigenen sich in der Tat weder SSDs noch HDDs, wobei man die SSD gut gekühlt dafür schon nehmen könnte, da die DRT ja von der Temperatur abhängt und sich je etwa 10°C weniger Lagertemperatur verdoppelt. Dann muss man sie nur noch gut vor jeder Art von Strahlung schützen, also auch radioaktiver und kosmischer, dann könnten sie tiefgekühlt die Daten schon locker 10 Jahre und mehr halten.

UrlaubMitStalin schrieb:
Allerdings finde ich es eigenartig das diese QLC Speicher als Archiv angepriesen werden.
Überhaupt nicht, da Archive eben nicht Offline meint, sondern schon Online, also unter Strom. Aber eben für Daten die sich gar nicht mehr oder nur kaum mal ändern und daher mehr oder weniger Read-Only sind. Da bei QLC die Schreibraten und Zyklenfestigkeit noch einmal schlechter als bei TLC sein dürften und dafür die Kapazität höher ist, eignet es sich doch ideal für derartige Anwendungen wo eben kaum mal geschrieben wird.
UrlaubMitStalin schrieb:
Die sind doch noch viel komplexer als TLC und MLC. Da dürften doch dei Daten viel eher verloren gehen.
Gegen Datenverlust gibt es das echte, kalte Archive an das ihr alle zu denken scheint, also wo Strom nur für die Lampen benutzt wird wenn man einer da rein muss. Das ist was anders, da werden diese SSDs nicht rumliegen, daher kann der Controller Zellen die zu viel Ladung verloren haben dann auch refreshen, dass müssen Controller ja sowieso immer wieder machen. Schaut mal bei älteren Sandforce SSDs auf das Verhältnis der Rohwerte von E9 und EA, also des Volumens welches in die NAND und was vom Host geschrieben wird. Da war kürzlich in einem Forum eine Kingston V300 wo es bei 7 lag! Das kommt von den Refreshs der NANDs weil diese Ladung verlieren und die V300 ist ja auch nicht für ihre hochwertigen NANDs bekannt, im Gegenteil.

bensen schrieb:
Jetzt mit 3d NAND ist man in Sachen "Robustheit" wieder in etwa auf dem Niveau des 5x nm NAND und kann dementsprechend auch wieder mehr Bits pro Zelle in Angriff nehmen.
Ja, weil die "Robustheit" eben nur davon abhängig ist, wie viele Elektronen man in einer Zelle speichert und ja mehr man da unterbringen kann, umso mehr Ladungszustände kann man auch unterscheiden, weil der Unterschied zwischen zwei Ladungszuständen eben sehr viele Elektronen ausmacht. Bei den planaren 15nm NAND von Toshiba ist von nur noch maximal so 20 Elektronen pro Zelle die Rede, um dabei noch 4 oder gar 8 Ladungszustände unterscheiden zu können, muss man sie fast einzeln zählen, das ist schon extrem grenzwertig. Mit 3D NAND geht die Zahl um Zehnerpotenzen nach oben.

bensen schrieb:
Es wurde jetzt mehr am Controller- und Interfacedesign gearbeitet um mehr NAND-Dies vernünftig anbinden und auch performancetechnisch nutzen zu können.
Ja zuerst war NAND in Enterpriseumgebungen vor allem wegen der Geschwindigkeit gefragt, jetzt geht es immer mehr in die Breite verschiedener Anwendungen und da zielt Toshiba mit dem QLC eben auf die Cool and Cold Data, will also auch HDDs wie Seagates Archive v2 verdrängen und nicht nur die Mission Critical 2.5" mit 10.000rpm und mehr, denen SSDs schon jetzt ihren Platz im Rechenzentrum streitig machen.
 
bensen schrieb:
Das gibt die Problematik nicht ganz verständlich wieder.
TLC und QLC sind ja 2008-2009 auf den Markt gekommen. Auch QLC war ja quasi "fertig" entwickelt und ging auch in die Massenproduktion.

Hmm, das war lange vor meiner Zeit als SSD-Redakteur. Ich prüfe das morgen mal in Ruhe und werde den Artikel ggfls ändern.

bensen schrieb:
Was ich in der News nicht verstehe ist die Roadmap, die ihr da ansprecht. Wo seht ihr da einen Samplebeginn von QLC für Ende 2016? Ich sehe nur, dass für Ende 2016 eine neue Generation mit unbekannter Layeranzahl (wohl mehr ;)) geplant ist. QLC ist der Folie nach allgemein geplant aber nicht sicher (eingeklammert).
Wart ihr vor Ort und es wurde mündlich noch mehr mitgeteilt?

Nein wir waren leider nicht vor Ort. Das war meine Interpretation der Roadmap, die zugegebener Maßen nicht ganz zwingend ist. Ich versuche auch da Näheres rauszufinden und passe das an. Danke!
 
Also deine Einleitung ist ja nicht falsch, ich würde es eher als knapp bezeichnen. :D
Sandisk hatte selbst Retailprodukte auf QLC-Basis vorgestellt. Glaub das war ne SD-Karte.

EDIT:
Da du schon einen EETimes Artikel verlinkst. Die haben noch massig weitere interessante Artikel zu Speichertechnologien. Zu QLC-NAND ist dieser wohl sehr interessant.:
http://www.eetimes.com/document.asp?doc_id=1172836

Und hier ist noch die PM von Sandisk zur QLC SD-Karte.
http://www.sandisk.com/about-sandis...t-x4-(4-bits-per-cell)-nand-flash-technology/


Leider finde ich nicht mehr das Interview mit nem Micron(?)-Verantwortlichen wo er QLC für tot erklärt. War wohl irgendwann 2011 oder so.
 
Zuletzt bearbeitet:
Ich glaube kaum, dass mit Archiv-SSD gemeint ist man solle sie in den Schrank legen. Dazu werden sie immer noch viel zu teuer sein. Selbst bei optimalen Bedingungen ließe sich wohl kaum 0,01 EUR pro GB in so kurzer Zeit mit Flashspeicher realisieren.
 
Eben, das steht ja auch sehr gut und deutlich im Artikel:
Bei solchen „Archiv-SSDs“ werden Daten meist nur selten oder gar nur einmalig auf den Flash-Speicher geschrieben und stehen dann vor allem zum Abruf bereit, was nur Lesezugriffe bedeutet.
Vielleicht sollte man noch ein ständig einfügen, weil die Pisa Studie hatte ja für Deutschland bei der Lesekompetenz (also Lesen und Verstehen) doch gewissen Schwächen gezeigt und besonders viele von den Betroffen scheinen sich gerne in Computerforen zu tummeln :evillol:
 
Haben solche Techniken überhaupt noch richtig relevanz mit Vorstellung des neuen Intel Speichers ?
 
Das frage ich mich auch.

Es wurde immer die Zahl 1.000 bemüht. So viel sollen sie in allen relevanten Eckdaten zulegen. Mir schwant aber diese Zahl könnte auch für den Preis gelten. Ich meine hätte Intel sich angesichts dieser Revolution noch die Mühe gemacht eigene SSDs zu bauen wenn diese Technik nur Monate, Quartale, Jahr weg wäre von Markteinführung?

Ansonsten wird sich diese Technik soweit die Versprechen eingelöst wird sicherlich ihren Platz finden zwischen Registern von CPU, 1, 2, 3 Lvl CPU Cache, RAM, SSD, HDDs, Optische Medien und Magnetbändern. Ob sie aber wie SSD das Zeug dazu hat die Nachbarn in dieser Geschwindigkeitslinie obsolet zu machen wird sich wohl erst nach der Markteinführung zeigen.

Am wahrscheinlichsten halte ich die Szenario wie bei HDD und SSD. Zuerst als Ergänzung und Koexistenz, dann allmähliches Verdrängen der langsameren Technik in immer kleiner werdenden Nische.
 
Zurück
Oben