Fred_EM schrieb:
Zudem verwenden gute SSDs intern DRAM - als Cache.
Damit kriegt die CPU ihre Daten erst mal los
Die DRAM Cache dienen in erster Linie als Cache für die Verwaltungsdaten des Controller, also vor allem die Mappingtabelle mit der externe Adressen auf die internen NAND Adressen umgesetzt werden. Userdaten werden dort kaum abgelegt, sondern nur in einem Umfang um die dann zusammengefasst schreiben zu können, wodurch die hoch IOPS bei zufälligen 4k Schreibzugriffen entstehen.
Fred_EM schrieb:
Bei Optane SSDs werden die Daten sofort weg-geschrieben, ohne Umwege und Wartezeiten.
Weil Medium (also das 3D XPoint), wenn die ganzen Latenzen wegen der PCIe Anbindung und dem Controller doch oben drauf kommen, schon fast so schnell wie DRAM ist. Die Optane schaffen dann fast die Schreibperformance wie sie SSDs mit NANDs schaffen, wenn sie noch in ihren DRAM Cache schreiben können.
Fred_EM schrieb:
Die Vorteile von Optane bzw. 3D XPoint dürften sich nur bei anspruchsvollen,
Daten-intensiven Anwendungen bemerkbar machen
bei denen viele Daten sequentiell weggeschrieben werden.
Workstations, wissenschaftliche Anwendungen, Server, etc.
Nicht sequentiell, da sind auch SSDs mit NAND schneller und es gibt welche die schneller als die Optane sind, aber wenn es zufällige Schreibzugriffe sind und die über eine ganze Zeit, wo NAND SSDs dann in den Steady State kommen, da haben die Optane einen Vorteil, da es sowas wie einen Steady State bei denen nicht gibt, die Leistung bleibt immer gleich. Dann sind sie noch sehr gut, wenn es gemischte Schreib- und Lesevorgänge gibt, was bei SSDs mit NAND auch immer zu Performanceeinbussen gegenüber reinen Schreib- oder reinen Lesezugriffen führt.
Fred_EM schrieb:
NAND FLASH Speicher sind per se Daten-unsicher.
Nur durch ausgeklügelte Error Correction Methoden sind sie überhaupt einsetzbar.
Je mehr Bits pro Speicherzelle, desto katastrophaler.
Praktisch ist dies aber kein Problem, die Controller können damit umgehen und auch die Optane haben eine deutlich Fehlerkorrektur, was man auch den schwachen Schreibraten und geringeren Nutzkapazität gerade der kleinen Optane Memory sieht. Bei den 900P und DC P4800X dürfte die Fehlerkorrektur noch aufwendiger sein, die haben nämlich sehr viel mehr OP ab Wert und eigentlich kann man diese nur damit erklären, dass die Daten dort mit noch mehr Redundanz gespeichert werden.
Selbst HDDs sind sehr fehleranfällig und haben daher auch immer eine ECC hinter jedem physikalischen Sektor, damit man sie überhaupt nutzen kann. Trotzdem wird von den Herstellern in Form der UBER extra angegeben mit welche Häufigkeit man mit unkorrigierbaren Bitfehlern rechnen muss, was dann aber nicht dazu führt das eine Platte korrupte Daten rausgibt, sie gibt stattdessen einen Lesefehler aus und markiert den betroffenen Sektor als schwebend.
Fred_EM schrieb:
In diversen industriellen Anwendungen kommt daher vorzugsweise NOR FLASH zum Einsatz.
Ein Bit nimmt da eine Speicherzelle vollständig in Anspruch.
NOR wird aber nicht deswegen verwendet, sondern weil es bitweise gelesen und zumindest in eine Richtung ohne Löschen auch überschrieben werden kann. Außerdem ist es wie RAM oder 3D XPoint linear adressierbar, was die Nutzung in Schaltungen gegenüber Speichern die blockweise adressiert werden müssen, extrem vereinfacht.
Der Nachteil von NOR sind die kleinen Kapazitäten und höheren Kosten, aber wenn man keine sehr große Kapazität braucht, ist dies zu verschmerzen, wozu sollte man ein NAND nehmen, bei dem heute schon Diesize von 128Gbit klein sind, wenn man nur einen Bruchteil davon braucht?
Fred_EM schrieb:
3D XPoint ist als Technologie gegenüber FLASH grundsätzlich wesentlich Daten-sicherer.
Da man darüber noch zu wenig weiß, würde ich mich nicht so weit aus dem Fenster lehnen, denn ohne einen scheinbar doch recht deutlichen Fehlerkorrekturaufwand kommen die Optane nicht aus und die DIMM Module verzögern sich auch. Der Grund dafür ist nicht bekannt, es könnte durchaus sein, dass die bisherige Fehlerkorrektur für RAM nicht reicht, aber dies wird man auch erst wissen, wenn die Optane DIMM dann mal auf dem Markt sind.
Fred_EM schrieb:
Für einige Anwendungen ist das sehr wichtig, für andere wiederum nicht.
Die Sicherheit der Daten auf dem Medium ist immer wichtig. daher werden die Daten ja auch bei allen Massenspeichern per ECC vor Korruption soweit geschützt, dass damit ein praktikables Mass an Sicherheit erzielt wird.
Fred_EM schrieb:
Auf einer NAND FLASH SSD befinden sich üblicherweise viele Foto-, Video- und Musik-Dateien.
Wenn da mal ein Bit hin und wieder falsch ausgelesen wird
merkt das wahrscheinlich keiner - who cares.
Es werden ja keine Bits falsch geliefert, es werden Lesefehler geliefert, wenn die ECC nicht ausgereicht hat um die Fehler der Daten zu korrigieren. Unerkannte Fehler können allenfalls auf den internen Datenpfaden der Laufwerke oder Host Controller oder auch im RAM des Rechners entstehen, aber die Laufwerke selbst, egal ob HDD oder SSD, haben immer eine Fehlerkorrektur und die Übertragung zum Host hat ebenfalls eine Fehlerkennung, da müssen fehlerhafte Übertragungen dann eben wiederholt werden. Die Annahme ein Bit wäre von dem Medium falsch geliefert und bis zur Anwendung durchgereicht worden, ist ein Märchen, dies gibt es nicht. Man kann allenfalls mit bestimmten Befehlen oder Konfigurationen erreichen das Platten auch Daten liefern die nicht korrekt gelesen werden, die ATA Streaming Befehle für Echtzeitvideoaufzeichnungen machen dies z.B. und bei SAS Platten die auf 520/528 Byte pro Sektor formatiert werden, passiert dies auch, aber da legt der RAID Controller dann selbst eine ECC auf diese 8 oder 16 zusätzlichen Bytes jedes Sektors damit er selbst Lesefehler erkennen und dann mit Hilfe der Redundanz des RAID beheben kann. Das alles hat aber mit normalen PCs nichts zu tun.