News Kioxia Twin BiCS Flash: Neues Speicherzellendesign für PLC mit 5 Bit

  • Gefällt mir
Reaktionen: andi_sco und LamaMitHut
Ich finde die Entwicklung zwar schön für größere Kapazität, aber bitte nicht die Haltbarkeit oder die Performance opfern. QLC ist für mich Müll und dieses hier könnte noch schlimmer werden. Immerhin gibt es noch teurere alternativen für die ich bereit bin mehr Geld auszugeben.
 
Auch wenn viele jammern, lässt sich der Fortschritt dadurch zum glück nicht aufhalten. Ich erinner mich noch gut an die Meinung der Forenexperten zu TLC, und wo steht diese Technologie jetzt?

TLC wird noch lange nicht verschwinden, da man sicher kein Überangebot auf dem Speichermarkt schaffen möchte. Keiner wird gezwungen zu wechseln. :)
 
  • Gefällt mir
Reaktionen: andi_sco
Killer1980 schrieb:
Ich finde die Entwicklung zwar schön für größere Kapazität, aber bitte nicht die Haltbarkeit oder die Performance opfern.
Es gibt sogar viele Enterpriseanwendungen bei denen die Daten nur einmalig geschrieben, danach nie verändert, sondern nur noch gelesen werden und bei solchen Anwendungen machen derartige statische Daten meist den Löwenanteil der Daten aus. Nicht jeder braucht also extrem viele DWPD, sondern viele Anwendungen wollen vor allem günstige Preise pro TB. Damit erschließen sich solche SSDs dann ganz neue Märkte.

Die Anwendung für Enterprise SSD hat sich ja schon massiv gewandelt, die ersten Enterprise SSDs waren vor allem für extrem schreibintensive Anwenungen, meist als Cache für HDDs. Inzwischen ist All-SSD bei Enterprise Storages immer öfter anzutreffen, nur die großen Volumen eher statischer Daten, werden noch auf den 3.5" HDDs gespeichert, deren Kapazität deshalb auch immer weiter steigen muss, damit sie bei der TCO Vorteile behalten. Sobald Performance gefragt ist, spielen HDDs heutzutage sowieso keine Rolle mehr. Die NAND Hersteller werden nun versuchen auch die Bastion der Storage mit der günstigsten TCO pro PB zu erobern.
Killer1980 schrieb:
Immerhin gibt es noch teurere alternativen für die ich bereit bin mehr Geld auszugeben.
Schön für Dich, aber Einzelne Heimanwender zählen für die Industrie nicht, sondern die Masse des Marktes und gerade die Enterpriseanwender rechnen für gewöhnlich mit sehr spitzen Bleistiften und vermeiden unnötig Geld für etwas auszugeben, was sie gar nicht benötigen, was sie von den enthusiastischen Heimanwendern unterscheidet. Dafür ist das Marktpotential dort aber auch ungleich größer.
Akkulaus schrieb:
Wie lange sollen PLC SSDs halten? Die Lebensdauer sinkt ja somit immer weiter.
Solange es keine konkreten Produkte gibt, kann man dies nicht sagen, aber die Lebensdauer hängt gerade bei NAND eben vor allem davon ab, wie viel P/E Zyklen mit der Zeit zusammenkommen. SSD mit PLC werden sich noch weniger als solche mit QLC für schreibintensive Anwendungen sein, aber es gibt eben halt auch die leseintensiven Anwendungen und zwar mehr als so mancher User hier im Forum sich vorstellen kann.
 
Immer wieder das gleiche ^^
MLC? Viel zu unzuverlässig, SLC ist besser. (und teurer)
TLC? Unzuverlässig und langsam, MLC ist besser. (und teurer)
QLC? Unzuverlässig und langsam, TLC ist besser. (und teurer)
PLC? siehe oben XD

Letztlich zählt was unten rauskommt. Bei den ersten 1,44 MB Disketten auf eher winzigen 3,5' gab es auch Leute die sagten dass das nicht gut gehen wird. Vierfache Datendichte der bewährten und zuverlässigen hust Ursprünglichen Disketten auf gleichem Raum? Da reicht doch ein Kratzer, ein defekter Sektor und schon ist nicht nur ein Satz, sondern ein ganzer Absatz in einer Textdatei verloren!
8 TB auf einem 3,5' Laufwerk? Schwarze Magie! Verbrennt die Hexe! XD

Spannender wäre für mich eher wie man mit den unweigerlich auftretenden Fehlern umgeht und ob man die mit Technomagic (Fehlererkennung, -korrektur und schwarzmagischem encodingverfahren) praktisch komplett versteckt bekommt, oder ob es doch irgendwann zu spürbaren Datenveränderungen kommen kann.
Bei SLC war es ja noch einfach, Zelle low oder high, leer oder voll. Dass die so stark Ladung verliert, bzw von irgendwoher eindringt dass unklar ist was davon nun gemeint ist ist eher unwahrscheinlich. Aber ich meine schon bei QLC gab es Schwierigkeiten die recht aufwändige Signalverarbeitung und aufbereitung notwendig gemacht hat.
Wann ist der Punkt erreicht wo der Ladungsdrift schneller wird als der Controller zuverlässig erkennen und korrigieren kann?
Bin leider nicht drin im Thema und habe keine Ahnung mit welcher Spannung die Speicherzellen selbst arbeiten und wie groß entsprechend die Unterschiede bei QLC/PLC zwischen den Zuständen sind, oder wie groß die Ladungsmengen im Vergleich zu den üblichen Leckströmen sind. Vielleicht ist das ja auch noch weit jenseits des kritischen Bereichs und die Probleme liegen nur in der Signalverarbeitung, also dem zuverlässigen erkennen welches Level die Zelle nun gemeldet hat während die Zelle selbst noch stabil ist.

Speichercontroller 1 an Flashcontroller B "Waren das nun 0,6 V oder 0,63 V?"
Flashcontroller B "Keine Ahnung, bei der kurzen Periode weiß ich nicht mal ob das nun Rechteck- oder Dreieckspannung sein soll, ich winke nur noch durch."
 
  • Gefällt mir
Reaktionen: AlphaKaninchen, Bimmy&Jimmy und Kuomo
Bigeagle schrieb:
Spannender wäre für mich eher wie man mit den unweigerlich auftretenden Fehlern umgeht und ob man die mit Technomagic (Fehlererkennung, -korrektur und schwarzmagischem encodingverfahren) praktisch komplett versteckt bekommt, oder ob es doch irgendwann zu spürbaren Datenveränderungen kommen kann.
Man kann sicher sein, dass nur dann SSD mit dem NAND auf den Markt kommen, wenn auch die Fehlerkorrektur gegeben ist, so wie man dies bisher immer gemacht hat, wenn man mehr Bits pro Zelle pro Zelle gespeichert hat oder auch bei HDDs, wenn die Datendichte dort erhöht wurde.
Bigeagle schrieb:
Bei SLC war es ja noch einfach, Zelle low oder high, leer oder voll
Und trotzdem braucht man auch schon bei SLC immer eine ECC die für gewöhnlich hinter jeder Page steht und für die jede NAND Page auch extra zusätzliche Bytes bereitstellt.
Bigeagle schrieb:
Wann ist der Punkt erreicht wo der Ladungsdrift schneller wird als der Controller zuverlässig erkennen und korrigieren kann?
Wenn der Punkt erreicht wird, dann wird man aufhören die Anzahl der Bits pro Zelle zu erhöhen oder sich eine Lösung dafür ausdenken. Man könnte z.B. pro NAND Block einen Bereich mit Referenzzellen einführen in den man nach dem Löschen immer bestimmte Werte schreibt um so die Drift der Ladung abhängig von der Alterung der Zellen auslesen zu können. Die Referenzen sind ja sowieso schon lange dynamisch und nicht einfach nur statisch, da neben dem Ladungsverlust ja auch der Effekt eintritt, dass in den Zellen nach dem Löschen auch Elektronen zurückbleiben.
Bigeagle schrieb:
wie groß die Ladungsmengen im Vergleich zu den üblichen Leckströmen sind.
Die Frage ist eher, wie viele Elektronen pro Zelle gespeichert werden, da war man bei den letzten linearen NANDs mit 14nm bis 16nm schon bei weniger als 2 Dutzend Elektronen pro Zelle und konnte immer noch die 8 unterschiedlichen Zustände von TLC unterscheiden.

Denkt immer dran: Nur weil man selbst nicht weiß wie ein so komplexes Problem gelöst wird, heißt dies doch nicht, dass keiner dies weiß! Die Unternehmen würden ja nicht Milliarden in Forschung und Entwicklung investieren, wenn solche Probleme nicht extrem komplex und so schwer zu lösen wären, dass es eben selbst mit sehr viel Manpower hochspezialisierter Fachleute immer noch viele Jahre dauert, bis man dann ein fertiges Produkt hat.
 
Zuletzt bearbeitet:
Holt schrieb:
Man kann sicher sein, dass nur dann SSD mit dem NAND auf den Markt kommen, wenn auch die Fehlerkorrektur gegeben ist, so wie man dies bisher immer gemacht hat
Also ohne nun eine Diskussion über Kapitalismus vom Zaun brechen zu wollen, aber Unternehmen haben nicht das Ziel im besten Interesse der Kunden zu handeln, sondern Profit zu erwirtschaften. Datenträger die nicht die angepriesene Haltbarkeit hatten gab es zur Genüge. In welchem Bereich gibt es soetwas nicht? Disketten die nur 2 statt 20 Jahre halten, bei CDs das gleiche, bei DVDs ging es halbwegs. Festplatten sterben manchmal nach stunden, manchmal nach Tagen, manchmal nach 10 Jahren. SSDs hatten auch schon ihre größeren Fails, Samsung war das soweit ich mich erinnere. War das Hitachi oder Seagate wo die Firmware überschrieben werden konnte?
Nvidia gibt dem ersten Anlass Grafikkarten zu backen? Oder dem VRAM der nur teilweise voll angebunden war?

Ich finde es sehr naiv zu glauben dass nur ausgereifte und durchdachte Produkte auf den Markt kommen, denn die Realität widerspricht dem klar und deutlich.

Ich wollte aber keine besonderen Zweifel an der Umsetzbarkeit ausdrücken, sondern tatsächlich einfach nur Neugier und die Frage nach Informationen. Ich hoffe doch sehr dass die Hersteller ein möglichst günstig umsetzbares Verfahren zur Lösung der Probleme finden, denn ich will irgendwann meine 8 TB SSD für maximal 200 € bekommen ohne dass die dann nicht mal einen SATA 3 Kanal voll bekommt. Sprich weiterentwicklung der Speicher ohne Stagnation von Preis oder Leistung. Trotzdem wäre ich neugierig ob da nicht langsam neue Konzepte her müssen weil man zunehmend an Problemen knabbert die irgendwann härter werden als das Knabberwerkzeug.

Weniger als 24 Elektronen pro Zelle? Uff ... quelle? Da wirds doch dann recht schwierig mit 32 Ladungsleveln, wehe da rammt ein Elektron doch mal etwas und verliert seinen Kotflügel, ähm einen teil seiner Energie.
 
Bigeagle schrieb:
Unternehmen haben nicht das Ziel im besten Interesse der Kunden zu handeln, sondern Profit zu erwirtschaften.
Das ist klar, aber es ist auch nicht gerade gut für den Profit, wenn man Mist auf den Markt bringt, schau Dir OCZ an, die hatten den Mist an SSDs und gingen dann eben auch pleite.
Bigeagle schrieb:
Festplatten sterben manchmal nach stunden, manchmal nach Tagen, manchmal nach 10 Jahren.
HDDs werden aber auch oft misshandelt, vom Kunden und oft schon vom Händler, vor allem auch wenn es um die Verpackung für den Versand geht. Von HGST gibt es dieses Video über die Empfindlichkeit und korrekt Handhabung von HDDs, mit dem Empfehlung wie die Umgebung aussehen sollte auf denen mit HDDs gearbeitet wird und sie weisen darauf hin, dass die Schäden sich auch erst später bemerkbar machen können.
Es gibt bei WD auf dieser Seite Beispiele guter HDD Verpackung und wie es nicht gemacht werden sollte.

In solchen Fällen wo HDDs nach Tage oder Wochen ausfallen, hat man aber die Gewährleistung des Händlers und außerdem gibt es ja auch noch die Herstellergarantie. 10 Jahre sind schon eher Glück, denn die vom Hersteller geplante Nutzungsdauer beträgt i.d.R. 5 Jahre. Samsung hat früher die geplante Nutzungsdauer auch immer recht offen in die Datenblätter geschrieben, so wie hier:
Bei aktuellen HDDs steht das nur noch sehr selten so offen im Datenblatt, aber indirekt findet man es auch immer noch, so steht bei der ST1000VX005 im Product Manual auch noch
Aus 50.000 insgesamt und 10.000 pro Jahr ergibt sich dann aber doch wieder der Hinweis auf die geplante Nutzungsdauer von 5 Jahren. Es sind Kalenderjahre, da HDDs auch altern wenn sie nicht benutzt werden und daher auch nur beschränkt lagerbar sind.
Bigeagle schrieb:
SSDs hatten auch schon ihre größeren Fails, Samsung war das soweit ich mich erinnere.
Da irrst Du Dich aber gewaltig, die Samsung SSDs waren wohl die mit den wenigsten Problemen, es überdramatisieren nur viele Leute die Probleme mit der geringen Lesegeschwindigkeit bei alten Daten bei den 840 und 840 Evo. Diese haben aber nie zu Datenverlust geführt und waren eben der LDPC Fehlerkorrektur geschuldet, die eben länger braucht und behoben wurde es, indem öfter Refreshs des NAND Inhalts ausgeführt wird. Inzwischen werben Hersteller wie Phison sogar mit ihrem SmartRefresh Feature. Die 840 und 840 Evo waren eben die ersten SSDs mit TLC NAND Flash und Samsung musste als Pionier erst lernen, die anderen konnten dann auf diesen Erfahrungen aufbauen.
Bigeagle schrieb:
Ich finde es sehr naiv zu glauben dass nur ausgereifte und durchdachte Produkte auf den Markt kommen, denn die Realität widerspricht dem klar und deutlich.
Das ist richtig, daher sollte man auch schauen von welchem Hersteller man kauft, denn

Bigeagle schrieb:
Weniger als 24 Elektronen pro Zelle? Uff ... quelle?
Selbst keine Quellen wie zu der Behauptung über Samsung bringen, aber solche von anderen verlangen? Ganz schön unverschämt, aber bitte:
 
Zuletzt bearbeitet: (TLC eingefügt)
  • Gefällt mir
Reaktionen: Bimmy&Jimmy
@Holt entspann dich mal ;)
Festplatten folgen im Ausfall ziemlich gut der Badewannenkurve, d.h. am Anfang gibts eben viele Ausfälle und sofern der Hersteller nicht ausreichend vortestet werden die 'dead after production' und 'dead within 2 hours of runtime' Modelle eben beim Kunden aussortiert. Aufgrund der Masse und des Preisdrucks testet kein mir bekannter Hersteller 'billige' Consumerplatten auf mehr als 'wird erkannt und dreht sich'. Typische Fehler wären defekte Lager die nach kürzester Zeit gänzlich den Geist aufgeben, oder zu sehr heißem und lautem Betrieb führen, aufsetzende Köpfe (hört man ziemlich gut ^^) oder elektrische Verbindungen die nicht richtig ausgeführt sind und nach kurzer Zeit durchbrennen. Wenn eine Festplatte erstmal ein paar Wochen ohne Auffälligkeiten läuft, dann läuft sie fast immer auch weiter. Bei Konstantbetrieb und guten Bedingungen meistens auch länger als 5 Jahre weil eben die Verschleißtreiber die Lastzyklen sind. Starten ist eine hohe Belastung, Köpfe parken vergleichsweise rabiat etc. Tut man das nicht gehts eben auch nicht so schnell kaputt, im Gegenzug spart man eben weniger Strom.
40k Betriebsstunden und mehr? Kein Thema. Man muss seine Hardware nur lieb haben, knuddeln, ihr auch eine Gute-Nacht-Geschichte vorlesen, im Winter warm anziehen und im Sommer in den Schatten setzen :p

Samsung war wohl kaum der erste Hersteller mit NAND Flash. Auch die 840er Serie war ganz sicher nicht die erste damit, weder absolut, noch im Massenmarkt. Musst was anderes meinen. Ich hab hier übrigens eine 840 pro 256 GB mit über 54k Betriebsstunden und fast 300 TBW, hab sie vor einer Weile durch eine 850 evo als Systemplatte abgelöst weil 8 defekte Sektoren drauf waren und 10 als Grenzwert drinstehen. Inzwischen ist sie bei 21 und läuft ziemlich unbeeindruckt weiter als schnelle Platte für Tempdaten und Spiele. Damit ist die evo auch ausreichend entlastet damit die nicht vorschnell graue Haare bekommt.
Was mir aber im Hinterkopf blieb war diese Sache mit den verdunstenden Daten nach längerer Lagerung, was nicht passieren dürfte.
Ansonsten ist Samsung aus meiner Sicht erste Wahl weil (fast?) alles an der SSD aus einem Haus kommt und da hoffentlich die linke Hand weiß was die rechte tut. Außerdem fand ich die technisch ziemlich solide bis gut. Auf jeden Fall besser als ein reiner 'Markenhersteller' der nur seinen Namen draufklebt und alles bei verschiedenen Herstellern zusammenkauft und zusammenbauen lässt. Zumindest wenn man einen 'das soll 10 Jahre laufen' Ansatz verfolgt.

Ansonsten habe ich keine Quelle verlangt, sondern danach gefragt weil es ja sein könnte dass dir eine vorliegt die ich eben nicht so einfach finden konnte. In der Hinsicht -> trink nen Tee beim lesen. Koffeinfrei. Baldrian, Hopfen, Melisse, Passionsblumenkraut, sowas in der Art. Die Welt aggressiver zu sehen als sie ist sorgt nur für unnötig hohen Blutdruck und Bissigkeit.

edit: Natürlich sollte man seine Hardware allgemein gut behandeln. Wer mit seiner Festplatte Fußball spielt, oder sie unsanft auf eine harte Unterlage stellt braucht sich nicht wundern wenn sie Schaden nimmt. Ein rohes Ei ist in mancher Hinsicht weniger empfindlich. Das HDST Video kenne ich, das rangiert irgendwo zwischen lustig, schmerzhaft und der Frage ob man gerade verarscht wird. Wer wirft denn neue Festplatten? Der wirft auch Omas Porzellan.
 
Zuletzt bearbeitet:
Nulight schrieb:
Waren das noch Zeiten mit meiner ersten Super Talent SSD mit 32GB :p

Achja so ne super Talent liegt bei mir auch noch in der ahnengalerie. Mein hype war real, andere haben mich verwundert angeschaut wieso ich nur so wenig Speicherplatz habe...
 
  • Gefällt mir
Reaktionen: Nulight
LamaMitHut schrieb:
...
Ich erinner mich noch gut an die Meinung der Forenexperten zu TLC, und wo steht diese Technologie jetzt?

...

War doch bei MLC nicht anders
 
  • Gefällt mir
Reaktionen: LamaMitHut
Noch kürzere Haltbarkeit?
slc bis zu 10 000 schreibzyklen Kapazität bis zu 512gb (waren nie erhältlich max war 128gb)
mlc bs zu 3500 schreibnzyklen Kapazität bis zu 1TB
tlc bis zu 1500 schreibzyklen Kapazität bis zu 2TB
qlc bis zu 500 schreibzyklen bis zu 4TB (gibt es derzeit nicht wieso auch immer)
plc bis zu 100 schreibzyklen bsi zu 8TB (theporetisch)
gehts noch
Als endkunde komtm mir nix anderes als mlc als OS platte in den PC
Als datenplatte m2 tlc
ich tendiere aber eher zu MLC

Die schreib-raten sind bei high end nand korrekt
Günstigen kann das nochmal um 50% niedriger sein.
Also nur samsung, und toschiba/micron nand nehmen.
Der Controler die was taugen sind intel samsung SM und toschiba.
HK hynix nand sind minderwertiger zu den zahlreichen no name nand (china) ebenso.
ich sehe PLC nur bei Dauerhafte Daten bei Archiven die ständig mit strom versorgt werden. Und kaum bis keine schreibzugriffe bzw einmalige.
den bei 32 Ladezuständen ist die Haltbarkeit der Daten ohne strom sicherlich max 1 Woche.
 
Holt schrieb:
Die 840 und 840 Evo waren eben die ersten SSDs mit TLC-NAND Flash und Samsung musste als Pionier erst lernen, die anderen konnten dann auf diesen Erfahrungen aufbauen.
Ich habe mal ergänzt...
 
  • Gefällt mir
Reaktionen: Bigeagle
Und PLC-Flash schreibt dann langsamer wie ein USB-Stick?

Es ist peinlich, dass schon bei QLC-Flash Festplatten sequenziell schneller sind...

Und die Haltbarkeit dürfte dann auch für Endanwender endgültig begrenzt werden - und dann noch die Kosten für die höherwertigere Elektronik, die 32 Ladungszustände zuverlässig und schnell erkennen kann.
 
woodenforest schrieb:
...
Mein hype war real, andere haben mich verwundert angeschaut wieso ich nur so wenig Speicherplatz habe...

Dafür warst du schon in Windows während die ne Schachtel Zigarren geraucht haben 😂
 
Holt schrieb:
Es gibt sogar viele Enterpriseanwendungen bei denen die Daten nur einmalig geschrieben, danach nie verändert, sondern nur noch gelesen werden und bei solchen Anwendungen machen derartige statische Daten meist den Löwenanteil der Daten aus. Nicht jeder braucht also extrem viele DWPD, sondern viele Anwendungen wollen vor allem günstige Preise pro TB. Damit erschließen sich solche SSDs dann ganz neue Märkte.
Gerade bei solchen Anwendungen hätte ich bedenken. Wie lange ist kann die Spannung bei 16 und hier bei 32 Speicherzuständen richtig ausgelesen werden. Also wie lange bekommt noch die Daten beim lesen zurück die man vor langer Zeit mal geschrieben hat?
 
Vindoriel schrieb:
Ich habe mal ergänzt...
Da wirds klarer, das hatte ich garnicht auf dem Schirm weil ich die 840 pro habe. Genau aus dem Grund dass die MLC und höhere Haltbarkeit versprochen hat ^^
Ich finde nur leider nichts wie diesen oder diesen Test hier für QLC SSDs, alles schon etwas älter.
 
Zurück
Oben