• ComputerBase erhält eine Provision für Käufe über eBay-Links.

Bericht 6 Jahre 4 Bit: QLC-Speicher für SSDs gibt es heute auch mit TLC-Tempo

Corpus Delicti schrieb:
Hatte durchaus Interesse an 3D-XPoint-Laufwerken, doch die 900p/905p gab es nur als Add-In-Karte, die wieder 8 PCIe-Lanes der CPU geklaut hätte

Also; die 905p in meinem Threadripper kam als U.2...
 
@Araska Meinte auch eher eine vernünftige Lösung für Endkunden mit 0815-Mainboards und CPUs vom Händler nebenan.

Wobei ich U.2 oder U.3-Anschlüsse auf Mainboards heute besser fände, als m.2-Anschlüsse.

Das m.2 mal für mobile gedacht war, und schon längst an seine Grenzen gekommen ist, merkt man bei Kapazität/Kühlfähigkeit heutiger SSDs nur zu gut.
 
  • Gefällt mir
Reaktionen: Araska
Corpus Delicti schrieb:
Wobei ich U.2 oder heute U.3-Anschlüsse auf Mainboards heute besser fände, als m.2-Anschlüsse.
Von M.2 auf U.2 oder U.3 adaptieren ist zum Glück kein Problem: Es sind so oder so 4 PCIe-Lanes und lediglich ein anderer Stecker. Klar, so ein Adapter bedeutet Zusatzkosten, das Kabel kopstet auch noch.
 
Corpus Delicti schrieb:
Das m.2 mal für mobile gedacht war, und schon längst an seine Grenzen gekommen ist, merkt man bei Kapazität/Kühlfähigkeit heutiger SSDs nur zu gut.

Amen. Allein; die Anschlüsse sind billig, daher bei MB-Herstellern beliebt - und die Armee der Aquarienbesitzer, die ja nur kein STÖRENDES KABEL in ihrem ÄSTHETISCH AUSGEARBEITETEM PC sehen wollen, wird gefühlt immer größer.

Ansonsten:

PCIe x4 - Steckkarten für U.2 oderU.3 kosten Krötenstücke.
Ist dann sogar mit ohne Kabel; geht natürlich nicht bei vertikalem Grafikkarteieinbau oder 5-Slot-Monstakühlerz.

Delock hat z.B. ein M.2-auf-U.2 - Adapterkabel; damit bekommst du auch eine U.2 auf jedes Board - sind dann natürlich gleich zwei Kabel, und du mußt noch ein belüftetes Plätzchen für die SSD suchen...
 
Zu schade, dass U2-SSDs pro TB teurer als M2-SSDs sind. Ätzend.
Ich hätte gegen U2 nichts einzuwenden. Dass man M.2-SSDs unter die Grafikkarte packt, ist einfach nur Quatsch.
 
Monarch2 schrieb:
Wer außer deinem Gefühl sagt denn, dass eine hypothetische "QLC-MX100" deine Nutzung nicht ebenso gut überlebt hätte?
Weil
KitKat::new() schrieb:
Genormt auf die TBW pro Gigabyte hätte ich sämtliche Haltbarkeiten bereits überschritten..

Aus welchen Gründen Crucial auf MLC gesetzt hat, ist da ziemlich irrelevant
 
Krik schrieb:
Zu schade, dass U2-SSDs pro TB teurer als M2-SSDs sind. Ätzend.

Japp; im Zuge der allgemeinen SSD-Preiswelle sind die Enterprise-SSDs (und Consumer-U.2 hamma ja nich) massiv überproportional gestiegen.

Die 15.36TB Micron 7450 Pro aus meiner Signatur habe ich damals für ca. 1080 Euro bekommen (Ja; ist immer noch teuer) - derzeit ist unter 2.300 Euro da nichts zu wollen :(

Ebenso meine 7.68TB 9400 Pro - die war mal klar unter 850 - jetzt über 1500.

Wenn ich jetzt noch bedenke, daß ich im November noch Kingston DC1500m 7.68TB (okay; ist ein gemächliches PCIe3.0-Laufwerk, schreibt aber auch mit gut 2500 MB/s dauerhaft) noch für unter 400 Euro bekommen habe...

Die haben doch alle den Schuß nicht mehr gehört.
 
  • Gefällt mir
Reaktionen: Corpus Delicti und massaker
Araska schrieb:
Hamma nich. Für 180 Euro mehr kann ich dir eine TLC anbieten, die stur wie Panzer ihre 550MB/s durchschreibt.
Kingston DC600m 7.68TB.
Das ist für mich mehr wie "Preis meist gleichauf". Und das schon ohne der Betrachtung, dass ich den aktuellen Preise der 870 QVO 8TB viel zu teuer finde.

lynx007 schrieb:
Was jetzt nun? Reicht einmal im Jahr anschalten oder auch dann nicht?
Schau Dir einefach einen beliebigen Thread hier im Forum zu read speed degradation von (einigen) SSDs an, die nahezu täglich unter Strom stehen und trotzdem nach einem Jahr extrem langsam werden im Lesen, wenn man sie nicht vorher manuell refreshed.

lynx007 schrieb:
Ich möchte eignletich nur das meine DVD Sammlung "unzerstörbar" Archivierbar ist
Da hilft nur mehrfache, regelmäßig auf korrekte Lesbarkeit geprüfte Redundanz. Jedes Medium kann oihne Vorwarnung ausfallen. Man kann nur die Wahrscheinlichkeit eines totalen Datenverlustes minimieren. Auch HDDs können von heute auf morgen unlesbar werden. Da nützt auch ein Scrubbing von BTRFS/ZFS nichts, die Daten müssen neu geschrieben und nicht nur gelesen werden.

RKCPU schrieb:
Im Mobilbereich wäre QLC eh klar
Für mich nicht. Wenn ich jetzt meine CFExpress-Card auf die mobile SATA SSD kopiere, dann dürften dabei 500 MB/s Geschwindigkeit rauskommen (auch bei 200 GB am Stück). Bis bezahlbare QLC SSDs auf sowas kommen wird es noch lange dauern. Die CFExpress Card könnte mit 1700 MB/s lesen, aber dazu fehlt der zweite passende USB-C Port am Tablet.

Alexios123 schrieb:
Ich verstehe nicht, warum Hersteller diese Technologie auf den Markt gebracht hatten, als diese noch völlig unausgereift und deutlich im Nachteil war bzw. immer noch ist.
Es gab genügend User, denen 200€ Ersparnis für eine der SSDs bei gleicher Kapazität wichtiger war wie die Performance, die sie damals für diees Laufwerk nicht benötigt haben.

Meine Intel 660p von 01/2019 hat bis heute erst 30TB geschrieben. Aber so lange ich sie so einsetze, wie sie schon zum Kaufzeitpunkt gedacht war (also nicht, um ständig 200-300 GB am Stück darauf zu schreiben) wird die auch noch lange halten. Was daran unausgereift sein soll, ist mir unklar.

Es war schon immer so, dass sich nur die jeweils größten Kapazitäten für QLC finanziell für den Endkunden gelohnt haben. 2019 waren das 2TB (210€ für die Intel 660p, 410€ für die Samsung 970 EVO, jeweils mit 2TB) und heute eher 8TB.

Alexios123 schrieb:
Die P3 bricht schnell ein, in den Datenraten.
Schreibend ja, was aber schon vor dem Kauf der SSD bekannt war. Gab es die P3 (ohne Plus) jemals in sinnvollen Größen ab 2 TB?

0xffffffff schrieb:
Mittlerweile habe ich 4x 2TB M.2 NVMe weil die halt einfach billiger zu haben waren als SATA und halt keinen zusätzlichen Platz und Stecker brauchen.
Vier NVMe SSDs in einem PC ohne Zusatzkarte? Was ist das für eine CPU?

Bei einem Threadripper wird man wohl direkt was vernünftiges einbauen anstatt Mini-SSDs mit 2TB Kapazität (außer, man bekommt sie vom AG geschenkt).
 
gymfan schrieb:
Vier NVMe SSDs in einem PC ohne Zusatzkarte? Was ist das für eine CPU?

Ich würde sagen, beispielsweise ein handelsüblicher 7000er Ryzen.

Asrock X670-E Steel Legend.
MSI X670-E Carbon Wifi.
MSI X670-E Tomahawk.
Gigabyte X670-E Aorus Master.

Gibt ne Menge X670-E Boards mit 4 M.2-Slots...
 
@gymfan
Das eine hat mit dem anderen nichts zu tun! Ein Raid =! Backup, das weiß ich. Darum macht man ja auch nen Backup und diese Backup min 2 mal, und rotiert. Dafür ist ja Drive 4 fürs Backup im NAS(Drive 0 ZFS, Drive 1-3 raid-z) und wird rotiert, getauscht in festen intervallen....

Mir geht es ja eher darum warum eine SSD nicht als Backup Drive geeignet ist, stichwort Bitflipping... Und die lösung wäre ja in der theorie nciht schwer, dafür gäbe es ja mirroring und praitätstabellen....
Und das eine SSD ausfallen kann, hat erstmal ncihts mit Bitflipping zu tun. Dafür gibt es unterschidlcihe lösungen. Dafür hat, oder sollte man mindestens 2 Backup drives haben, abseitz vom Raid.

UNd jetzt war halt nur die frage, ob meien korumpierten Dateine nur ein ZUfall waren, kann sein das schon beim Archivieren ein Problem auftratt.... , was untypisch ist, weil ich mache beim sichern eine lesbarkeits prüfung... , aber auch nen Layer 0 auch nicht den wert 0 geben kann. Oder ob es normal ist, wen die Dinger paar Monae rumligen, das dann die bits flippen... Denn das Problem hat eine HDD nicht.... und das 2 HDDs, im gleichen Zeitraum, ohne vorwahrnugn , zum exakt gleich zeitpunkt ausfallen, und gleichzeigt noch der Nas mir allen Drives, das sehr unwahrscheinlcih... , aber nicht Null! Ein Meteor, mit paar Meter durchmesser auf mein Haus, unwahrscheinlich, aber nicht unmöglich.... Deshalb kann der ganz Verrrückte wen er will, mittels true-scale, virtualisert also, über verschiedene standort hinweck alles aublasen... bis die Ausfallsichereheit bei 0,99999999...

Aber darum geht es nciht... ich will ja eine möglichst komfortable und praktikable, private lösung haben, wo halt die daten nicht dauernd korumpieren. Und da ist halt die Frage, ist das bei einer SSD immer der fall oder nicht ... und da hört man halt unterschiedliche Sachen. Ne HDD ist halt lam wie die hölle, wärend eine SDD fix ist, gefühlt unendlich bandbreite, und mitleriwe uach speicher hat....

Zb meine System SSD, 1TB ist geradem mal zu 33% gefüllt... und selbst die 33% bestehen zu 50% aus Müll, daten die man löschen könnte... warum wird der nicht genutzte speicher zur parität und mirroring verwendet? bei ner systemplatte kann ich das ja noch verstehen... abnutzutng, geschwindkeit.... aber bei ner platte die im schrank liegt, wäre das kein Problem. Und plötzlich würde bitflippen, aber auch verwendest OS keien rolle spielen, es wäre unglaiblich praktisch, nur bietet es leider kein SSD hersteller an.
 
Zuletzt bearbeitet:
@lynx007 weil du damit pauschal die kostbaren PE-Zyklen der Flashzellen verbrennen würdest was vielleicht auch nicht jeder will oder braucht.

Deinen Wunsch kannst du dir aber selbst erfüllen. Archiviere deine Daten beispielsweise als RAR mit xx % Widerherstellungsinformationen. Oder nutze halt so etwas wie PAR.
 
Zuletzt bearbeitet: (typos)
  • Gefällt mir
Reaktionen: lynx007
@0xffffffff
Werde ich wohl machen müssen... schon komsich sich 2024 WinRAR zu kaufen....
PAR war ich auch schon, aber das ist noch nicht so wirklcih ausgereift.... bzw ich bin zu dumm, faul dafür.

Was meinst du mit PE-Zyklen? Wen man eine Archivierungs SSD rausbringen würde, ein Datengrab, welches inkrementel ein paar bit hin und herschusbst, da wird doch nciths verbrannt.... Aber villeicht bin ich da auch zu wenig in der materie von Flashzellen... Ich denke halt immer nur das siind zich tausen xbit zellen, die man da auch virtualisert in ein arrar ballern kann, die ohnehin keine Fragmentierung kennen, und es wäre nur ein frage eine Controlleres... bzw der Firmware..... Selbst wen die SSD dadruch "laaaaangsam" wird... sind zwischen SSD und HDD gefühlt paar 10er potenzen...

Ich weiß, seit meiner EOS30D... 20, 15 jahre.... das FLashzellen scheiße sind zum Archevieren.... warum das bis heute nicht einfach gefixt werden kann, selbst jetzt wo praktisch "unednlcih" viel SSD spreich vorliergt, das will nicht so in meinen Kopf.... den da denke ich halt matematsich stochastik.... vor 20 Jahren gab es beim RAM eines billigen Homeservers, ECC, Scrupping, Mirroring, Locksteping... also "uraltes" knowhow, welches "nur" in nen controler drauf fotografiert werden müsste.... klar es ist nur sehr vereinfacht... aber ja gut, lebe ich halt noch etwas länger mit HDD bzw test mal was Bitflip mit WinRaR auf der SSD anstellt.
 
Zuletzt bearbeitet:
Alexios123 schrieb:
Unterschiede zwischen einer QLC SATA SSD und einer TLC m.2 nehme ich allerdings schon sehr deutlich wahr.
Darfst halt nicht den Fehler machen die billigste QLC SSD mit einer TLC M2 zu vergleichen.
Der faire Vergleich wäre das QLC Produkt mit einem im gleichen Preissegment mit gleichem Interface zu vergleichen... worst case ist das dann eben die TLC SATA SSD ohne RAM Cache etc. die auch der letzte "Müll" dann ist. ;)

Egal ob TLC oder QLC... auf der falschen SSD kann beides Mist sein.
 
  • Gefällt mir
Reaktionen: Rickmer
lynx007 schrieb:
.. warum wird der nicht genutzte speicher zur parität und mirroring verwendet? .. nur bietet es leider kein SSD hersteller an.
Das machen alle modernen SSDs. Und zwar nicht freiwillig, sondern gezwungenermaßen aus dem von dir genannten Grund, das über die Zeit NAND Zellen ihre Ladung verlieren und damit logisch gesehen den Wert ändern.

Lange kam man mit einfachen ECCs aus. Irgendwann sind die nicht mehr genug gewesen und man ist auch innerhalb des Flashes auf RAID artigen Schutz umgestiegen. Micron hat vor über 10 Jahren z.B. das hier vorgestellt: RAIN.

Schaut man in Datasheets von aktuellen Controller, wie z.B: den Phison E18, den allerwelts Gen4 Controller, sieht man im Datenblatt:

‧‧Triple-CPU architecture with built-in Arm Cortex-R5
Phison 4th generation LDPC ECC & RAID ECC
‧DDR ECC engine

Das ist nen stinknormaler Consumer Consumer Controller, hat aber ne RAID basierte ECC und wie man sieht auch nicht die erste Iteration. Und die Fehlerkorrektur ist auch der Grund, warum selbst einfach Consumer Controller wie hier oben z.B. drei Kern SOCs sind. Der Großteil der Rechenleistung wird für die Fehlerkorrektur genutzt. Weil selbst wenn man Prüfsummenberechnung natürlich in HW gießt, dass Verwalten der Daten bei voller Interface Geschwindigkeit frisst Rechenleistung ohne Ende. Im Enterprise Bereich gibt's mittlerweile Controller mit 8 Kernen.

lynx007 schrieb:
Was meinst du mit PE-Zyklen? Wen man eine Archivierungs SSD rausbringen würde, ein Datengrab, welches inkrementel ein paar bit hin und herschusbst, da wird doch nciths verbrannt.... Aber villeicht bin ich da auch zu wenig in der materie von Flashzellen...
Bits hin und her schubsen, kann die SSD ja nur unter Power, so kann man SSDs natürlich als Archiv verwenden. Kauf ne x beliebige SSD, schreib deine Daten, regelmäßig an Strom anschließen und Daten zurücklesen (für den Refresh schwacher Flash Zellen) und schon hast du ein Speicher der Jahrzehnte deine Daten hält. Nur das regelmäßige Power On und Refresh der Daten ist den meisten zu aufwändig.

Ohne das regelmäßige Refresh ists aber auch nicht so pauschal schlecht wie manche das darstellen wenn man die richtige SSD als Ausgangslage verwendet. Als Beispiel mal die TSEs die vor ein paar Jahren in den News waren weil alle Registrierkassen damit ausgerüstet werden mussten. Das sind in aller Regel SD Karten und USB Sticks mit MLC und die müssen nach Lebensende (nach erreichter Maximalmenge an Zertifikaten) noch 10 Jahre stromlos ihre Daten halten. MLC SSDs gibt's auch heute noch zu kaufen, wenn auch vielleicht eher nicht im Consumer Bereich.
 
  • Gefällt mir
Reaktionen: lynx007
lynx007 schrieb:
Was meinst du mit PE-Zyklen?
Das steht für "Program/Erase", also wie oft man etwas neu beschreiben kann. Im Internet findest Du dazu Tabellen die sich pro NAND-Speicherart unterscheiden. Ganz grob sagt man, dass SLC NAND so um die 100.000 P/E-Zyklen mitmacht, während es bei QLC NAND nur noch 100 - 1.000 P/E-Zyklen überstehen soll. Aber da spielen auch einige Faktoren rein, daher etwas vage.

Wenn man sich mal vom Consumer-Bereich wegbewegt und richtung industrieller Anwendungen schielt findet man derartige Infos auch endlich mal in den Datenblättern. Zufälliges Beispiel.
 
@Chuuei
Ok, vielen dank für die PDF.:daumen: Immer wieder schön hier Leute zu treffen die noch so Deep in der Materie sind. Das schon bereits "Server" Rendundanz drauf ist, und so im anschlag, und das erklärt auch den vermehrt "ausfalle" meiner SSDs.

Ich habe die halt mitlerweile zu dutzendene vom 64gb, bis hin zum 500gb "Zeithalter" hier rumgammeln, die ich für irgendwelche "Projekte" verwende. Und da kam es schon relativ oft vor, das Windows "zickt" und sagt da ist ein Problem. Oder auch bei den verschlüsselten Festplatten, wo ich nen Linux Distro drauf hab, womit ich wohl aufhören sollte, wen es nicht zwingend notewendig ist, bzw mich da dnäher einlesen sollte. Weil das wäre ja dann Gift, wen die Distro vom vom erstn bis zum letzten block ne crypt zu knallt, weil ich ja da wohl die Fehlerkorektur vermulich wiirklich das kostzen anfängt.... Oder muss ich mir da zum glück keine sorgen machen bei modernen LInux Distros?

Wie gesagt ist selten. Kann auch einbildung und nciht miteinander zu tun haben. Aber es wirkte schon regelmäsig oft, das ich von ner plattebooten wollte, und die crypt nicht mehr auflösbar war, obwohl ich mein standart-projektpasswort habe... ich das "scheiß Ding" wieder plattmachen darf. Muss nicht zusammenhängen, aber auszuschließen ist das nun auch nicht wen die platte schon paar Monate bis Jahre irgendwo rumlag, oder?!?!

Kann aber auch Quatsch sein, paraneua.... nur wen ne distro ne VOllverschlüsselung macht, dann gibts ja praktisch keine echte Nullen mehr.... weil ja alle nen rieseiges crypt VOL ist... also die Fehlercorrektur auf 100%? Aber das kann ich mir nicht vorstellen, das die Linux Distros das nicht berücksichtigen.. Aber ich will auch nicht vons 100ste ins 1000ste. Danke dir nochmal.
 
Zuletzt bearbeitet:
lynx007 schrieb:
@Chuuei
nur wen ne distro ne VOllverschlüsselung macht, dann gibts ja praktisch keine echte Nullen mehr.... weil ja alle nen rieseiges crypt VOL ist... also die Fehlercorrektur auf 100%?
Korrekt so weit, das geschriebene Nullen für den Controller natürlich auch ganz valide Daten sind und damit ein Device komplett belegt wäre. Ob alle Verschlüsselungen wirklich immer das komplette Device beschreiben, weiß ich aber nicht.

Für die Fehlerkorrektur als solche ist das aber egal. Der ganze Paritätenkram etc. passiert in Flash Bereichen, die nicht den Userdaten zur Verfügung stehen. Die Fehlerkorrektur wird bei einem vollen Device nicht schlechter. Was aber natürlich drunter leidet ist die Lebensdauer, weil Wearleveling, GC und Co am Limit arbeiten und wenig Spielraum haben.
 
Krik schrieb:
Zu schade, dass U2-SSDs pro TB teurer als M2-SSDs sind. Ätzend.
Dafür gibt es eine große Auswahl gebrauchter u.2 SSDs die man sich bei Ebay anschauen kann.
Das sind dann nicht mehr die neusten, aber die sind immernoch für 99,9% der Anwendungen locker schnell genug und auch mit ein paar Petabytes vom Vorbesitzer drauf geschrieben haben sind die bei 7.68TB Kapazität noch fast wie fabrikneu...

So hatte ich mir letztes Jahr auch eine 7.68TB CD6-R für ~420€ gekauft.

Wenn ich ein bisschen schaue... 15.36TB PCIe 4.0 für 800€ gebraucht aus China sind machbar, z.B.:
https://www.ebay.de/itm/196562661645
https://www.ebay.de/itm/166875949633

(Okay, da kommt noch Zoll drauf... sofern der Händler dem Zoll nicht dreist ins Gesicht lügt.)

0xffffffff schrieb:
Ganz grob sagt man, dass SLC NAND so um die 100.000 P/E-Zyklen mitmacht, während es bei QLC NAND nur noch 100 - 1.000 P/E-Zyklen überstehen soll. Aber da spielen auch einige Faktoren rein, daher etwas vage.
100 P/E Zyklen sind dann aber richtiger Kernschrott an NAND.

1000 P/E Zyklen waren schon Stand der Technik als 2018 die Micron 5120 ION vorgestellt hatte. Seitdem hat sich auch von QLC die Haltbarkeit verbessert. Siehe z.B. die Folie zum BiCS8 'capacity optimized' QLC mit '+60% endurance'.
 
  • Gefällt mir
Reaktionen: lynx007, Monarch2 und Krik
gymfan schrieb:
Schreibend ja, was aber schon vor dem Kauf der SSD bekannt war. Gab es die P3 (ohne Plus) jemals in sinnvollen Größen ab 2 TB?
Ich habe sie gekauft, weil es eine günstige und verfügbare 4TB SSD war. Nutze sie jetzt im Gaming PC. Da ist die Performance noch mehr als ausreichend.
Vertrauen in QLC habe ich nicht, wenn man bedenkt, wie die Daten geschrieben werden. Hab ich schon in TLC nicht. Daher speichere ich Archive ausschließlich auf HDDs und MDiscs. Eine HDD kann viele Jahre ohne Strom bleiben und hält die Daten. Eine SSD kann das nicht. Eigene Erfahrung. Und ich vermute mal, je mehr Spannungszustände unterschieden werden, desto geringer die Datensicherheit. Auch wieder etwas, was für den Gaming PC egal ist. ;-)
 
Zurück
Oben