News V-NAND V7: Samsung setzt für 160 Layer oder mehr auf Double-Stack

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.387
  • Gefällt mir
Reaktionen: aid0nex
Wirklich irre werden diese Zahlen für mich erst, wenn man die Strukturgrößen in Relation zu z.B: roten Blutkörperchen setzt. Da merkt man erst, auf welch kleinem Raum wir uns bewegen.
 
  • Gefällt mir
Reaktionen: aid0nex und Adrenalin2
Wäre zu begrüßen wenn mit den vielen Schichten und Bit pro Zelle auch mal die Preise pro GB und Kapazität in die Regionen von NAS Platten gehen würden.

SATA Geschwindigkeit würde dicke reichen und TBW sind ja weniger das Problem.
Stromverbrauch und das gute Gewissen sich nicht von den HDD Herstellern bescheißen zu lassen wären auch Grund genug etwas mehr zu bezahlen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: derSafran, TIMOTOX und v_ossi
SLC, Single-Level Cell, 1Bit pro Speicherzelle, 2 Zustände müssen unterscheidbar sein
MLC, Multi-Level Cell, 2Bit pro Speicherzelle, 4 Zustände müssen unterscheidbar sein, 100% Zuwachs der Speicherdichte gegenüber SLC
TLC, Triple-Level Cell, 3Bit pro Speicherzelle, 8 Zustände müssen unterscheidbar sein, 50% Zuwachs der Speicherdichte gegenüber MLC
QLC, Quad-Level Cell, 4Bit pro Speicherzelle, 16 Zustände müssen unterscheidbar sein, 33% Zuwachs der Speicherdichte gegenüber TLC
PLC, Penta-Level Cell, 5Bit pro Speicherzelle, 32 Zustände müssen unterscheidbar sein, 25% Zuwachs der Speicherdichte gegenüber QLC

Damit kann man zwar die Speicherdichte erhöhen, mit jeder Stufe um weniger Prozent, aber man erkauft sich einen weit höheren Verwaltungsaufwand pro weitere Stufe.

Außerdem sinkt mit jeder Stufe die Haltbarkeit, denn es müssen immer mehr Informationen pro Zelle valide gespeichert werden
und durch Degradation fallen mit jeder Stufe größere Blöcke aus.

Und die Geschwindigkeit des Laufwerk sinkt mit jeder Stufe, da Schreib-/Lesevorgänge und Fehlerkorrektur immer aufwändiger werden.
In einer SLC-Speicherzelle muss lediglich zwischen 0 und 1 unterschieden werden können. Das ist kein Aufwand, geht schnell und zuverlässig.

Sollen mehrere Bits unabhängig voneinander in eine Speicherzelle geschrieben werden, so unterscheidet man diese in der Ladungsmenge,
aus dieser Ladung bzw. Spannung und einem anliegenden Strom ergibt sich ein elektrischer Widerstand, der letztlich den gewünschten Inhalt der Speicherzelle repräsentiert.

Eins SLC-Speicherzelle hat entweder 10K Ohm, was einer 0 entspricht oder den 1.000fachen Wert 10M Ohm, was einer 1 entspricht.
Je mehr Bits in eine Zelle sollen, desto mehr Widerstandswerte muss man unterscheiden und der Abstand dieser Werte voneinander wird immer kleiner.

Wer auf Schnelligkeit und Haltbarkeit setzt, sollte sich gut überlegen ob QLC- oder gar kommender PLC-Speicher das richtige wäre...

Warum z.B. 16 Zustände bei einem QLC-Speicher?
1111, 1110, 1101, 1100, 1011, 1010, 1001, 1000,
0111, 0110, 0101, 0100, 0011, 0010, 0001, 0000
Diese Zustände müssen alle unterscheidbar sein und jeder dieser Zustände entspricht einem anderen Widerstandswert der Zelle.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: dersuperpro1337, Brrr, C4pTuReD und 15 andere
QLC bricht bei Erreichen der Cache-Grenze auf HDD-Niveau ein. Ob das für den Home-User relevant ist oder nicht, muß man zwar auch betrachten, aber faktisch ist es erst einmal wahr.

Wäre demnach mal ganz interessant zu sehen, auf welches Niveau PLC nach Erreichen der Cache-Grenze einbricht.
 
  • Gefällt mir
Reaktionen: kobiobi89 und Sbibi
fox40phil schrieb:
Also ich nehme gerne eine 3,5“ ala u2 Anbindung mit 4-8TB. Da passen bestimmt jetzt schon locker 10-14TB rein. Wenn man sieht was auf eine kleine M.2 oder gar Speicherkarten mit PCIe Verbindung. Nur eben nicht für 2-10k€ bitte ^^
Warum 3,5Zoll? Gibt es doch schon in 2,5Zoll -> Micron 9300 Pro NVMe
Bei Samsung wird es dann noch extremer -> 30TB
Ergänzung ()

Marflowah schrieb:
Wäre demnach mal ganz interessant zu sehen, auf welches Niveau PLC nach Erreichen der Cache-Grenze einbricht.
Nochmal circa die hälfte an Speed :heul:
 
  • Gefällt mir
Reaktionen: Nagilum99 und fox40phil
Marflowah schrieb:
QLC bricht bei Erreichen der Cache-Grenze auf HDD-Niveau ein. Ob das für den Home-User relevant ist oder nicht, muß man zwar auch betrachten, aber faktisch ist es erst einmal wahr.

Wäre demnach mal ganz interessant zu sehen, auf welches Niveau PLC nach Erreichen der Cache-Grenze einbricht.


Viel spannender ist für mich, dass TLC mit jeder Generation schneller und haltbarer wird, gleiches gilt für QLC.

In einigen Jahren wird es kaum einen Unterschied mehr machen, ob nun QLC oder TLC verwendet wird.
 
  • Gefällt mir
Reaktionen: estros und AlphaKaninchen
Das war eben schon immer so, als MLC kam, haben manche wegen Haltbarkeit und Geschwindigkeit gejammert, als TLC kam, auch, bei QLC ebenso. Das wird so weitergehen.

Ein großer Pseudo-SLC Cache + enorme Speichermenge dankt QLC/PLC etc. ist und wird die Zukunft. Damit hat man all die Nachteile im Alltag auch nicht. So macht es Sinn. Leider dauert der Schritt von 2TB zu 4TB sehr lange momentan, bis auf professionelle Lösungen gibts nichts im M2.
 
  • Gefällt mir
Reaktionen: fox40phil und LamaMitHut
@KnolleJupp
Vor allem wird auch der Gewinn immer kleiner. Der Schritt zu PLC bringt dann nur noch +25% Kapazität. Dafür ist dann ein großer Aufwand nötig, der auch Kisten verursacht.

So schnell wird das nicht kommen. Und dann auch nur für Nischen. Die Marktdurchdringung geht ja immer langsamer von statten. MLC und auch noch TLC haben sich schnell in alle Bereiche durchgesetzt. Mit QLC geht's deutlich langsamer. Ich bin mal auf die nächste Generation gespannt, ob die die Performance erhöhen können.

@MichaG
Wenn du schon schreibst, dass die Anzahl der Layer nicht alles ist, dann beziehe da doch bitte auch auf die Speicherdichte.
Wenn außer Samsung alle jeweils zwei Dies stecken um ihre Speicherdichte zu erreichen, sehe ich nicht, wo Samsung jetzt ordentlich aufholen müsste. Muss man mal abwarten was die V7 Generation an Daten abwirft.
Ansonsten ist das ja Apfel gegen Birne.
 
Ist MLC wirklich immer 2Bit/Cell? Meiner Meinung nach sollte diese Abkürzung gar nicht verwendet werden.
Das hier steht auf der Samsung Homepage in den Specs der 970 Pro
1587148902576.png

https://www.samsung.com/de/memory-storage/970-pro-nvme-m-2-ssd/MZ-V7P1T0BW/
 
MLC, also Multi-Level Cell kann man auch als Oberbegriff für alle Speicherzellen mit mehr als 1Bit nutzen. Ist aber ungenau.

Achtung, gefährliches Halbwissen:
Die 970 PRO nutzt in der Tat 3Bit Speicherzellen, also TLC-Speicher. Allerdings werden von diesen 3Bit nur 2Bit tatsächlich verwendet (IMHO).
Das führt zu einem deutlich höheren Preis, aber auch zu deutlich höherer Geschwindigkeit und Haltbarkeit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DynamaxX und derSafran
Sehr schön dass Samsung eine etwas niedrigere Dichte hat, die Speicher halten nach meiner Erfahrung auch etwas besser - die TBW Daten sind jedenfalls deutlich höher als bei anderen Herstellern.
Habe mir kürzlich eine Samsung Endurance microSD gekauft und vorher mal mit Transcend und Sandisk verglichen - die Entscheidung fiel leicht. Dafür zahle ich auch gerne 2€ mehr. Nach dem Gau mit den ersten TLC SSD hat sich Samsung deutlich verbessert.

BTW: Musste jetzt einen Transcend 128GB USB Stick entsorgen, der nicht viele Schreibzyklen hatte und eine 64GB microSD die ne Weile im Tablet war - auch mit rel. wenig Schreibenzyklen soweit man das im Tablett beurteilen kann (war wohl beides TLC da rel. günstig und lahm). Bei den MLC SD von Transcend hatte ich noch keine Ausfälle.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil
KnolleJupp schrieb:
SLC, Single-Level Cell, 1Bit pro Speicherzelle, 2 Zustände müssen unterscheidbar sein
MLC, Multi-Level Cell, 2Bit pro Speicherzelle, 4 Zustände müssen unterscheidbar sein, 100% Zuwachs der Speicherdichte gegenüber SLC
TLC, Triple-Layer Cell, 3Bit pro Speicherzelle, 8 Zustände müssen unterscheidbar sein, 50% Zuwachs der Speicherdichte gegenüber MLC
QLC, Quad-Level Cell, 4Bit pro Speicherzelle, 16 Zustände müssen unterscheidbar sein, 33% Zuwachs der Speicherdichte gegenüber TLC
PLC, Penta-Level Cell, 5Bit pro Speicherzelle, 32 Zustände müssen unterscheidbar sein, 25% Zuwachs der Speicherdichte gegenüber QLC

Damit kann man zwar die Speicherdichte erhöhen, mit jeder Stufe um weniger Prozent, aber man erkauft sich einen weit höheren Verwaltungsaufwand pro weitere Stufe.

Außerdem sinkt mit jeder Stufe die Haltbarkeit, denn es müssen immer mehr Informationen pro Zelle valide gespeichert werden
und durch Degradation fallen mit jeder Stufe größere Blöcke aus.

Und die Geschwindigkeit des Laufwerk sinkt mit jeder Stufe, da Schreib-/Lesevorgänge und Fehlerkorrektur immer aufwändiger werden.
In einer SLC-Speicherzelle muss lediglich zwischen 0 und 1 unterschieden werden können. Das ist kein Aufwand, geht schnell und zuverlässig.

Sollen mehrere Bits unabhängig voneinander in eine Speicherzelle geschrieben werden, so unterscheidet man diese in der Ladungsmenge,
aus dieser Ladung bzw. Spannung und einem anliegenden Strom ergibt sich ein elektrischer Widerstand, der letztlich den gewünschten Inhalt der Speicherzelle repräsentiert.

Eins SLC-Speicherzelle hat entweder 10K Ohm, was einer 0 entspricht oder den 1.000fachen Wert 10M Ohm, was einer 1 entspricht.
Je mehr Bits in eine Zelle sollen, desto mehr Widerstandswerte muss man unterscheiden und der Abstand dieser Werte voneinander wird immer kleiner.

Wer auf Schnelligkeit und Haltbarkeit setzt, sollte sich gut überlegen ob QLC- oder gar kommender PLC-Speicher das richtige wäre...

Warum z.B. 16 Zustände bei einem QLC-Speicher?
1111, 1110, 1101, 1100, 1011, 1010, 1001, 1000,
0111, 0110, 0101, 0100, 0011, 0010, 0001, 0000
Diese Zustände müssen alle unterscheidbar sein und jeder dieser Zustände entspricht einem anderen Widerstandswert der Zelle.
Erinnert ein bisschen an Funk/Kabel-Technik mit Modulationsverfahren bis hin zu 4096QAM, nur dass die Anzahl der zu unterscheiden Zustände da noch Pippifax gegen ist. Wenn es 4096 Zustände gäbe wären wir bei 12LC oder wie auch immer man das nennen möchte.
Ich denke nicht dass das direkt miteinander vergleichbar ist, aber, es zeigt wohin die Reise in Zukunft gehen könnte, ich denke QLC und PLC sind erst der Anfang und die derzeitigen Probleme wie Haltbarkeit oder Geschwindigkeit wird man auch in den Griff kriegen.
 
Zuletzt bearbeitet:
Ich habe das ja weiter oben schon ein bisschen erklärt.

Man darf sich das nicht so vorstellen das man eine Speicherzelle baut, die groß genug ist z.B. bei QLC 4Bit unterzubringen.

Sondern man baut eine Speicherzelle, in die man eine bestimmte Ladung (Menge Elektronen) bringen kann
und die so gefertigt ist das sie diese sehr genau definierte Ladung halten kann und man diese korrekt wieder auslesen kann.

Bei QLC müssen 16 verschiedene Ladungszustände klar unterscheidbar sein, was natürlich weit aufwändiger ist als nur halb so viele bei TLC.
Der Kaufpreis sinkt aber, da man pro Speicherzelle mehr Informationen unterbringen kann und deshalb weniger Zellen braucht, um die gleiche Datenmenge unterzubringen.

Unsauber ausgedrückt:
Man bringt eine bestimmte Spannung in die Zelle. Die Zelle hält die Spannung. Dann lässt man Strom durch die Zelle fließen, weil man will ja Informationen transportieren, lesen oder schreiben.
Dadurch ergibt sich ein bestimmter Widerstand der Zelle und dieser Widerstand entspricht dem Inhalt der Zelle.

TLC-Speicher. Es soll gelesen werden. Dateisystem usw., egal. Der Controller weiß, er hat die angeforderte Information in Zelle 37 an zweiter Position abgelegt.
Dann wird diese Zelle "gelesen", also eine Widerstandsmessung durchgeführt. Der Wert ist xx Ohm. Das entspricht den Bits 101. Super, die Information "0" wurde korrekt gelesen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DynamaxX, fox40phil und AlphaKaninchen
Marflowah schrieb:
Wäre demnach mal ganz interessant zu sehen, auf welches Niveau PLC nach Erreichen der Cache-Grenze einbricht.
Das Leben ist ein Kreislauf und bis zu den knapp 15 kb/s von einfachen Disketten ist es noch ein weiter Weg. Bis dahin können wir uns die Zeit mit PLC und HLC vertreiben ^^

Dass Samsung so hinterherhinkt finde ich allerdings etwas überraschend. Lohnt das noch nicht von den Kosten her, oder haben die Probleme beim upgrade der Fertigung? Oder spielt am Ende etwas ganz anderes eine Rolle?

Je kleiner die Zelle, desto schwerer wird es auch noch zuverlässigkeit und haltbarkeit darin unterzubringen. Muss also für 'uns' kunden garnicht so tragisch sein wenn nicht jeder hart auf maximale speicherdichte optimiert.
 
Bigeagle schrieb:
Dass Samsung so hinterherhinkt finde ich allerdings etwas überraschend. Lohnt das noch nicht von den Kosten her, oder haben die Probleme beim upgrade der Fertigung? Oder spielt am Ende etwas ganz anderes eine Rolle?

Bei Samsung ist das 1 Die, bei der Konkurrenz sind das Stapel aus mehreren DIEs aufeinander.
Wenn man das nur auf einen DIE rechnet, kann man bei den anderen Herstellern die Dichte mindestens halbieren.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Bigeagle
Ko3nich schrieb:
Ich weiß nicht wie du auf 64 kommst aber 2^12 ist 4096.
64^2
Aber du hast recht, man rechnet in dem Fall ja gar nicht zum Quadrat.
Das heißt mit 4096 Zuständen kann man gerade mal 12 Bit unterscheiden?
Blöde Exponenten immer 😂
2^x und x^2 sind fies da kommt man schnell durcheinander und beide Spielen eine wichtige Rolle.
 
Zurück
Oben