Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News860 QVO: Händler enthüllen Samsungs erste QLC‑SSD
Ich gehe stark davon aus dass die QVO nicht so stark einbrechen wird wie andere QLC-SSDs. Eher dann Richtung 200-400MB/s. Wobei ich mich ja besonders frage, wie man QLC sinnvoll bei NVME-SSDs nutzen möchte...
Welche Software meinst du da? Die einzige SW ist die Firmware des Controllers und ohne die kann selbst eine SSD mit SLC nicht arbeiten, von daher ist die Aussage die müsse nur "durch die Software irgendwie am Leben gehalten werden" total Unsinn.
Das gilt für jede SSD und auch jede HDD ebenfalls, außer für die Intel Optane. Bei HDDs sind auf den äußeren Spuren mehr Sektoren pro Spur als auf den inneren und damit hängen die Transferraten davon ab wo die Daten landen, bei jeder SSD fällt die Schreibrate, wenn keine freien NAND Pages mehr vorhanden sind und der Controller sich diese erst beim Schreiben schaffen muss, also im Steady State und solltest Du nur den Pseudo-SLC Schreibcache gemeint haben, so haben praksich alle SSDs mit TLC NAND einen und sogar einige mit MLC (2bpc) NAND. Außer den Intel Optane kann also kein Massenspeicher eine wirklich konstante Schreibrate bieten, aber dies ist doch auch gar nicht wichtig, solange die Schreibrate ein ggf. nötiges (z.B. bei Videomitschnitt) Mindestmaß nicht unterschreitet.
-Ps-Y-cO- schrieb:
Heute findet man SLC meist in form eines Caches auf MLC, TLC oder QLC SSDs.
Das ist aber kein SLC NAND, sondern ein Teil des normalen MLC/TLC/QLC NAND bei dem eben nur ein Bit pro Zelle beschriebe wird. Deshalb nennt man dies ja auch Pseudo-SLC.
frankkl schrieb:
Weiss noch nicht wie ich diese QLC SSD einordnen soll,
Beim Schreiben, aber wenn dies ein Problem ist, dann hat man sowieso die falsche SSD für den Einsatzzweck gekauft. Es gilt eben die passende Hardware für den Zweck zu kaufen, genau wie es gilt die passende Kleidung auszuwählen. Wer sich bei einer SSD mit QLC NAND beschwert die Schreibrate oder die TBW wären zu gering, ist wie einer der in der Badhose Ski fährt und sich wegen der Kälte beschwert die Badehose würde nicht taugen.
yetisports schrieb:
gehe stark davon aus dass die QVO nicht so stark einbrechen wird wie andere QLC-SSDs.
Das erwarte ich auch, denn bei den QLC SSDs von Intel und Micron müssen die Daten immer durch den Pseudo-SLC Schreibcache und wenn der voll ist, werden gleichzeitig die Daten von dort in den normalen QLC Bereich geschrieben um dort wieder Platz zu schaffen.
Bei der Intel 660p kommt noch hinzu, dass deren DRAM Cache bei allen Kapazitäten kontant nur 256MB beträgt, während normalerweise 1GB DRAM pro TB Kapazität verwendet werden.
Bei Samsung dürfte bei vollem Pseudo-SLC Schreibcache direkt in den normalen QLC Bereich geschrieben werden, was schneller geht und außerdem schafft es Samsung ja auch bei den TLC SSDs die schnellsten Schreibraten bei vollem Pseudo-SLC Schreibcache zu liefern, bei QLC NAND dürfte dies also wohl auch so sein.
60MB/s... 200 Writes/Cell
Das ist mal eine Hausnummer, so langsam ist nämlich die M2-SSD 660p von Intel wenn der interne schnelle Cache voll ist. Aber noch viel schlimmer, die QLC-Geräte halten nur 100 bis 200 Schreibvorgänge pro Zelle aus. Das ist verdammt nochmal garnichts. Die Total Writes der 660p erreicht man selbst mit einem frisch installiertem Firefox auf der Website about:blank nach zwei Jahren...
Bisher scheinen alle QLC-Laufwerke derartige Einschränkungen zu haben.Meine Meinung: Finger weg von QLC bis es besser wird.
Belegen? Ich hab gerad 4*8TB zu ca 75% belegt.
Werde mir demnächst n NAS aufbauen mit 8*6TB und doppel Parity und dann die 8TB'S als Blockdevice im RAID10 dranhängen.
60MB/s 200Writes/Cell
Diese Werte stammen von der Intel M2 SSD 660p 2TB sobald der schnelle Puffer vollgelaufen ist. Das ist unerträglich lahm und unerträglich unzuverlässig. Die Total Writes erreicht das Laufwerk selbst mit einem frischen Firefox auf about:blank nach zwei Jahren, sogar wenn sonst garnichts, auch kein Windows, Swap oder sonstwas auf dem Gerät laufen.
Ich rate jedem dazu von diesem Schrott die Finger zu lassen.
Zumal derzeit die Crucial MX500 2TB bei Amazon noch ein paar Stunden lang für €250 zu haben ist.
Da ignoriert man sogar den Streß mit OPAL/EDRIVE, siehe https://answers.microsoft.com/en-us...isioning/87148920-e749-4e8a-b674-d8d8d551981dKurzfassung: Windows 8 und neuer verschlüsseln während der Installation dauerhaft OPAL-fähige Laufwerke intern und deaktivieren weitgehenst alle ATA-Funktionalitäten. Dem DAU mag das egal sein, dem Profi macht es nur Ärger....
Ich bin offen für QLC - dort wo es Sinn macht. Aber ohne DRAM-Cache und bei ca. 1/2 der TLC-TBW erhoffe ich mir deutlichere Preisdifferenzen.
Sonst werden die meisten ein paar Prozent mehr, für's deutlich bessere Produkt ausgeben.
Inzwischen vermute ich ja, dass meine 830 mit dem guten alten NAND (laut Anandtech "2x-nm Toggle MLC", d.h. ein geübter Chinese schnitzt das noch mit dem Brotzeitmesser) das gleiche Problem hat - nur der NAND taugt mehr, und so tritt der Spaß nur alle 2-3 Jahre auf, trotz dauervoller SSD dank LUKS-LVM übers gesamte Laufwerk. Schreibt man dann den Datenbestand einmal neu und macht nen Powercycle, ist alles wieder dufte. Davor hat man HDD-Performance...
Cl4whammer! schrieb:
Also wenn ich mir das Review von Linus angucke, sieht das echt nicht gut aus. Teilweise werden die dinger langsamer als HDDs?!
Offenbar also nix Neues, es tritt nur früher auf, bzw. kann man es mit Benchmarks relativ einfach provozieren.
jackii schrieb:
Die zwei kleinsten 850 Evo haben 75, meine hat bereits 32TB erreicht und ich sehe keinen Grund warum ich sie in den nächsten 6 Jahren ohnehin wegschmeißen wollten sollte.
Also so irrelevant ist es auch nicht. Es wird immer gesagt man kann z.B. 40GB ein Jahr lang jeden Tag schreiben und das macht ja niemand. Ja okay, aber wer bitte nutzt sie denn nur ein Jahr.
51TB / 200 Schreibzyklen in 6 Jahren inklusive ein bisschen Probiererei bei der letzten HDD-Phase (~2-3TB?), macht 22,6 GB pro Tag. Bei nem für heutige Verhältnisse kleinen 256GB-Laufwerk (die 6GB aus der Rundung nutzt man heute ja eh immer als Cache und Reserve, die 830 hat also nur die Differenz GB<->GiB zur Verfügung). 'tschuldigung, da mach ich mir auch bei runtergerechnet nur 90TBW nicht in die Hose. Wenn du weißt, dass du massiv mehr draufballerst, dann nimm halt eine MLC oder gute TLC. Gibts eigentlich noch MLC, oder nur noch zu "och nöö"-Preisen?
Wie der Pseudo SLC verwaltetet wird ist doch beim schreiben egal, wenn eh der QLC limitiert. Mich würden da Steigerungen sehr wundern. Außerdem muss umgeschichtet werden. 200GB Pseudo SLC kosten 800GB QLC Speicher. Damit ist ein TB "voll".
Wenn man sie an einer Stelle einsetzt wo dies "garnichts" ist, dann hat man die falsche SSD für diesen Einsatz gekauft. Wie schon gesagt, es ist wie nur mit Badehose Skifahren und sich über die Kälte beschweren.
Crass Spektakel schrieb:
Ich rate jedem dazu von diesem Schrott die Finger zu lassen.
Alle Badehosen sind dann also auch Schrott, weil sie nicht zum Skifahren taugen? So wie man die richtig Kleidung für den jeweiligen Anlass auswählen muss, muss man dies auch bei der Hardware machen. SSDs mit QLC NAND sind nicht für alle Anwendungsfälle geeignet, deshalb aber eben noch lange nicht Schrott.
Crass Spektakel schrieb:
deaktivieren weitgehenst alle ATA-Funktionalitäten
Nein, es deaktiviert die ATA Sicherheitsfeatures, weil eben die von OPAL an deren Stelle genutzt werden und beide zusammen zu nutzen, geht nun einmal nicht.
Nein hat sie nicht. Schau Dir den MX100 schon defekt? mal an, da habe ich im Post #53 erklärt, warum diese Low-Level Benchmarks wie HD Tune nicht dazu taugt festzustellen ob der Bug vorhanden ist und warum diese oft viel niedrigere Werte liefern.
Ergänzung ()
Botcruscher schrieb:
Wie der Pseudo SLC verwaltetet wird ist doch beim schreiben egal, wenn eh der QLC limitiert.
Nein ist es nicht, denn bei dem Vorgehen wie es Intel bei der 660p und Micron bei der P1 machen, müssen die Daten immer zweimal geschrieben werden, einmal in den Pseudo-SLC Schreibcache und dann in den normalen QLC Bereich. So wie Samsung es bisher bei den SSD mit TLC NAND macht, werden nur die Daten zweimal geschrieben die in den Pseudo-SLC Schreibcache passen, wobei der zweite Schreibvorgäng damm im Idle erfolgt und die anderen Daten werden direkt in den normalen NAND Bereich geschrieben, ohne den Umweg über den Pseudo-SLC Schreibcache, der in dem Moment dann voll ist, aber eben gar nicht angefasst, also auch nicht geleert wird.
Nein, da bei einem Bit pro Zelle ja auch nur ein Viertel der Kapazität zur Verfügung steht, kosten 200GB Pseudo-SLC dann natürlich 800GB. Die Intel 660p 1TB hat daher auch nur 12GB bis maximal 140GB Pseudo-SLC Schreibcache, je nachdem wie voll sie ist.
Nein hat sie nicht. Schau Dir den MX100 schon defekt? mal an, da habe ich im Post #53 erklärt, warum diese Low-Level Benchmarks wie HD Tune nicht dazu taugt festzustellen ob der Bug vorhanden ist und warum diese oft viel niedrigere Werte liefern.
Zwei Bilder anzuschauen war da wohl schon zuviel, denn erstens zeigt HD Sentinel ja erst katastrophale Zugriffszeiten und nach dem Refresh wieder SSD-typische Werte, zweitens bin ich nur auf den Trichter gekommen dass da was nicht stimmt, weil OO Calc, GIMP und andere Programme mit zerfledderter Dateistruktur tatsächlich ne Minute Ladezeit brauchten, was genau auf HDD-Niveau liegt, und drittens kann der Controller gar keine leeren Zellen mit Nullantwort in Rekordzeit liefern, denn ich hab die SSD ja nicht gebackupt, gelöscht und alles zurückgespielt, sondern die verschlüsselten Daten sektorweise refresht. (Raw) Lesen, Schreiben, Verifizieren. Was vielleicht auch der Grund dafür sein könnte, warum da bald einstellige MB/s rauskamen und der komplette Vorgang bei lausigen 256GB ACHT STUNDEN gedauert hat.
Ich habe bei meiner Samsung 840 (nicht EVO und nicht PRO) 250GB ein Firmware update gemacht .
Hat das den in den Kommentaren erwähnten Fehler behoben ?
Die Frage ob eine SSD überhaupt als externes Datengrab tauglich wäre stellt sich mir aber trotzdem.
Wenn die Zellen ihren Ihren Inhalt schneller als ne HDD verlieren dann denk ich eher nicht.
Ich glaub solche SSDs könnten sehr interessant für Spiele werden. Die schreibt man meist ein mal drauf und bleiben dann erst mal ne lange Zeit da und werden eigentlich nur gelesen.
Also sowas als Steam-Platte könnte schon taugen.
Du liest doch lange und schreibst auch oft genug hier um eigentlich wissen zu müssen, dass die JEDESC in der JESD218 für Client SSDs eine DRT (Data Retention Time) von 12 Monaten bei 30°C Lagertemperatur vorschreibt die die SSDs bis zum Erreichen der TBW einhalten sollten. Je 10°C (andere Quellen nennen 5°C) weniger verdoppelt sich die Zeit und je neue NANDs halten die Daten langer also solche die schon viele P/E Zyklen hinter sich haben. Wenn es also eine ordentliche SSD ist deren Hersteller die JEDEC Vorgaben einhält, sie nicht zu alt ist und kühl gelagert wird, dann sollte sie die Daten weit mehr als ein Jahr halten können. Aber mehr als 1 Jahr Lagerbarkeit spezifizieren die HDD Hersteller auch nicht, denn die HDDs sind auch nicht unbeschränkt lagerbar.
Dazu schreibt Seagate z.B. hier und auch in einigen anderen Product Manuals:
Wenn also die Lagerbedingungen nicht eingehalten werde, sind 90 Tage und zwar in der ungeöffneten Originalverpackung, sonst bestenfalls 1 Jahr. Nach dem Öffnen sollten HDD nicht länger als 30 Tage stromlos sein.
Bei der neuen Barracuda Pro 10TB mit Heliumfüllung schreibt Seagate:
Also hier nur ein halbes Jahr in der ungeöffneten originalen Versandverpackung von Seagate und sonst 2 Monate, nur bei optimalen Bedingungen bis zu einem Jahr.
HGST schreibt für die meisten Modelle wie z.B. für die Megascale:
Das bedeutet nicht, dass die HDDs dann automatisch Schaden nehmen oder gar komplett kaputt sind, wenn man diese Vorgaben nicht einhält. Aber ganz ignorieren sollte man es nicht, denn im Thread Festplatten sterben wie die Fliegen - was mache ich falsch? sind jemandem der ein halbes Jahr im Ausland war, binnen 3 Monaten 4 HDDs gestorben. Die HDDs waren wohl in einem NAS im Keller, also nicht unter optimalen Bedingungen gelagert und natürlich müssen solche Angaben auch unter den ungünstigsten der erlaubten Bedingungen noch eingehalten werden. Unter optimalen Bedingungen dürften die Platten auch eine weitaus längere Zeit ohne Probleme überstehen.
@Holt
Naja ich lagere meine HDDs bei Zimmertemperatur und trocken natürlich.
Aber ein paar schließe ich natürlich nicht alle 3 Monate mal an.
Kann schon mal länger sein.
Und hey. Ich habe sogar noch gebrannte CDs und Disketten aus den frühen 90ern und alle sind noch lesbar.
Kann aber natürlich sein dass mal irgendwo ein Bit gekipt ist.
Aber ich denkte dafür greift dann eh die CRC Korrektur.
p.s. Kennst du ein Tool wo man bei SSDs die Zellen auffrischen kann oder braucht man das gar nicht mehr?
Irgendwo geisterte da mal ein Tool herum. Namen habe ich vergessen.
Und wie ist das bei HDDs.
Magnetisieren sich dann die Bits wieder automatisch sobald Strom angehängt wird?
Glaub das ist bei CDs/DVDs automatisch um Kratzer etc. auszugleichen.
Und die Korrektur Algos bei Laufwerken sogar in der Firmware eingebaut wenn mich nicht alles täuscht.
Und einige Schlauberger haben diese CRC Bereiche bei manchen AudioCDs als Platz für den Kopierschutz missbraucht.
Da braucht es dann nur noch ganz wenig Fehler um eine CD nicht mehr lesen zu können.
Ergänzung ()
@Holt
Kennst du nun so ein Tool was ich in #57 schrieb?
Die Zellen kann nur der Controller auffrischen, aber man kann dies durch Neuschreiben der Dateien erreichen und dazu sollte im Prinzip schon ein chkdsk /R reichen. Oder man nimmt eines der Refresh Tools für HDDs dafür, aber es sollte nicht nötig sein, wenn die SSD lange genug am Strom hängt, macht ein ordentlicher Controller dies auch selbst.