News D5-P4320: Intels QLC-SSD ist auf 1.600 Schreibzyklen ausgelegt

Stunrise schrieb:
Nach dem Desaster der ersten Generation von TLC Speicher bei Samsung, bei dem die Performance um ein vielfaches nachgelassen hat, wenn die Dateien schon etwas älter sind
Man konnte die Daten doch noch lesen, nur eben langsamer, wenn dies schon ein Desaster ist, wie nennst du es dann erst wenn die SSD ganz ausfällt oder auch nur wie die Crucial m4 beim 5184 Stunden Bug aufhört zu reagieren und den Rechner zum Absturz bringt?
RYZ3N schrieb:
wenn’s da Bedenken an der Haltbarkeit gäbe
Was für Bedenken bei der Haltbarkeit? Intel dürfte mehr als genug Erfahrung mit der Entwicklung und Fertigung von NAND haben, dass sie die versprochene Haltbarkeit auch einhalten werden und auch die Bitfehler- und Ausfallraten. Wenn der Hersteller also keinen Grund hat Bedenken an der Haltbarkeit zu haben, dann allenfalls der Anwendung, aber der erfährt ja vorab wie viele Daten er auf die SSD schreiben kann und Enterprisenutzer wissen dies auch meistens vorab sehr genau, eben um die passende HW auswählen zu können und passend bedeutet eben auch nicht überdimensioniert, denn sonst wäre sie meist nur unnötig teuer. Allenfalls Heimanwender die die Bedürfnisse ihrer Anwendungen an die HW nicht abschätzen können, haben also ggf. Bedenken wegen der Haltbarkeit, was dann aber nur dem Mangel an Wissen geschuldet ist.
r4yn3 schrieb:
Die Read Latency schreckt mich aber.
Die könnte von der Pagesize kommen, je größer die Diesize geworden ist, umso größer wurden ja meist auch Pages und man muss ja eben immer eine ganze Page lesen. Normalerweise ist auch die ECC immer pro Page, da hilft es auch wenn die Pagesize größer ist, denn wenn man z.B. 80 Byte ECC auf 8k Daten hat, so ermöglicht dies eine stärkere ECC als wenn man 40 Byte ECC über 4k Daten nimmt, obwohl die ECC im Verhältnis zu den Daten nicht größer ist. Die Folge wäre aber halt auch eine größere Latenz beim Lesen.
 
  • Gefällt mir
Reaktionen: Beitrag und SVΞN
Das bedeuted, das man fünf jahre lang täglich ein fünftel dieser 7,x TB platte beschreiben kann also etwas in richtung 1,x TB pro Tag, also da kann ich mit leben...
 
LaZz schrieb:
Das bedeuted, das man fünf jahre lang täglich ein fünftel dieser 7,x TB platte beschreiben kann also etwas in richtung 1,x TB pro Tag, also da kann ich mit leben...


Man sollte bedenken, dass dies nur der garantierte Wert ist. Die tatsäliche Haltbarkeit wird deutlich darüber liegen.
 
Holt schrieb:
Man konnte die Daten doch noch lesen, nur eben langsamer, wenn dies schon ein Desaster ist, wie nennst du es dann erst wenn die SSD ganz ausfällt oder auch nur wie die Crucial m4 beim 5184 Stunden Bug aufhört zu reagieren und den Rechner zum Absturz bringt?
Der Fehler ist natürlich auch eine Katastrophe gewesen, war aber eine Generation vorher und wäre mir persönlich lieber, in meinem und meiner Frau ihrem System läuft jeweils ein regelmäßiges Backup mit Veeam und ein einmaliger und kalkulierbarer Datenverlust hätte bei mir nur ein paar Minuten Aufwand zur Folge (sofern man die SSD mit einem Update wieder lebendig bekommt), bei dem Samsung TLC Ärger gab es dagegen gar keine Lösung, bei der 840 gab es überhaupt kein Update und bei der 840 Evo haben eben diese in Langzeittests versagt. Das kommt einer Enteignung gleich, während man die M4 in mindesten Fall austauschen lassen konnte
 
Also für die 840 Evo gab es mit dem zweiten Versuch dann ein FW Update welches meines Wissens das Problem löst und inzwischen gibt es auch eines für die 840. Crucial hat hingegen der M500 anders als der M550 nie ein Bugfix für den Queued TRIM Bug der M500 spendiert, solange Windows kein Queued TRIM unterstützt mag dies kaum jemandem auffallen, aber wenn sich das mal ändert....
 
r4yn3 schrieb:
Die Read Latency schreckt mich aber. Oder ist hier der hohe Wert einem DC üblichen Worst Case Szenario geschuldet?
Ist das einzige, was mich wirklich interessiert bei modernen SSDs.

Gibt es irgendwo eine Vergleichsliste diesbezüglich? Immerhin ist das der Aspekt, welcher den größten Performanceboost für die Desktopexperience bringt.
 
Sowas, mit 4TB Speicher,SATA, 550M/s R/W und 100€ Preis würde ich sofort mehrmals kaufen
 
Ich mag falsch liegen aber ich meine, dass andere SSDs gewöhnlich auch im Berecih 0,x ms liegen bei der Latency. Hab sowas mal bei Toms Hardware gesehen.
 
Zuletzt bearbeitet:
Eine Optane z.B. liegt ja irgendwie bei 10µs. Beim suchen nach Zahlen bin ich aber über diese Folie gestoßen:
Optane Latency.png


Da liegen die Werte einer Optane auch "höher" bei den QoS. Ohne zu recherchieren, vermute ich mal die Werte sind wie die 0,1% bei Frametime Angaben? Also wie vermutet eine Art Worst Case Fall.
 
Zuletzt bearbeitet:
new Account() schrieb:
Gibt es irgendwo eine Vergleichsliste diesbezüglich?
Suche Dir die Angaben von anderen Intel SSDs wie denen der DC P4510 Vorgängergeneration, die haben 77µs Read Latency.
new Account() schrieb:
Immerhin ist das der Aspekt, welcher den größten Performanceboost für die Desktopexperience bringt.
Ob 77µs oder 138µs macht den Kohl auch nicht so fett, für die 540s 1TB gibt Intel sogar nur 50µs an. Da die eine SATA SSD mit 16nm NAND ist, denke ich das es an der Organisation der NANDs liegt, aber die Latenz bei einem einzelnen Zugriff ist für Enterprise SSDs nicht so relevant wie der QoS, also wie die Latenzen denn sind wenn es viele parallele Zugriffe gibt.
Joshua2go schrieb:
Sowas, mit 4TB Speicher,SATA, 550M/s R/W und 100€ Preis
Du willst also eine Consumer SATA SSDs, was dann was anderes ist und 4TB für 100€ wirst Du vermutlich niemals bei Neuware bekommen. Es wird aber mit der 660p eine Consumer NVMe SSD mit QLC geben, aber wohl keine SATA SSD mehr, da Intel nicht mehr auf SATA sondern voll auf NVMe setzt.
r4yn3 schrieb:
bei den QoS. Ohne zu recherchieren, vermute ich mal die Werte sind wie die 0,1% bei Frametime Angaben?
Mit Frametimes hat dies nichts zu tun, sondern eben mit den Antwortzeiten und ja, es geht um den Fall das es eben mehrere Anfragen gibt, hier also (Queue Depth) 16 mit je 4k und 99,999% dieser Anfragen werden dann in weniger als 150µs von der Optane beantwortet. Für Enterpriseanwendungen ist die QoS viel wichtiger als die Latenz für einen Zugriff, da bei Enterprise SSDs fast nie nur ein Zugriff zur Zeit erfolgen dürfte.

Im Grunde sind daher solche Diagramme wie die Storagereview.com z.B. hier im Review der Seagate Barracuda SSD zeigt:[IMG]https://www.storagereview.com/images/StorageReview-Seagate-SSD-1TB-RndRead-4K.png[/IMG]

Hier sieht man wie die Latenzen sich bei immer mehr Zugriffen verhält, bis sie irgendwann nahe am Limit immer weiter ansteigt, während die IOPS kaum noch steigen.

Beim Schreiben ergeben sich dann durch den (Pseudo-SLC) Schreibcache teils seltsame Linienverläufe, wie man hier bei der Seagate sieht, wo die IOPS plötzlich fallen während die Latenz massiv steigt um dann wieder zu fallen:

[IMG]https://www.storagereview.com/images/StorageReview-Seagate-SSD-1TB-RndWrite-4K.png[/IMG]

Sowas ist für Enterprise Anwender natürlich Mist, da man dann kaum noch vorhersagen wie die Leistung sich verhalten wird, während die MX300 eben bei mehr IOPS die Latenz auch deutlich weiter steigt, während die bei den Samsung 860 eben erst deutlich steigt, wenn man nahe am Limit ist und wie man sieht unterscheiden sich die Linien der 1TB Evo mit TLC und der 512GB Pro mit MLC hier kaum, es kommt also nicht nur auf die Anzahl der Bit pro Zelle der NANDs an wie die Performance einer SSD ist.
 
Belege? Hast Du den Link in dem Satz nicht gefunden?
 
Wenn hier so viele Angst haben, das QLC und irgendwann PLC nur noch Datenverlust bringt, was müsst Ihr denn erst über SD Karten in Kameras und Smartphones denken?
 
Marflowah schrieb:
Bei QLC ist die Kotzgrenze erreicht.
Der benötigte Aufwand für die Fehlerkorrektur (!!!), um die Schreibzyklen auf ein halbwegs erträgliches Maß zu
heben, sagt es ja bereits: Die Fehlerrate hat sich im Vergleich zu TLC und MLC massiv erhöht. Ich denke, man
sollte hier einen Schlußstrich ziehen. QLC macht die SSDs günstig? Sieht für mich aus, als würde QLC die SSDs
eher billig machen.
Da schließe ich mich an. Steigerung der Speicherkapazität ist schön und gut,
aber die Integrität der Daten sollte dabei nicht zuletzt kommen. Gier führt zu nichts Gutem.
Ergänzung ()

andi_sco schrieb:
Wenn hier so viele Angst haben, das QLC und irgendwann PLC nur noch Datenverlust bringt, was müsst Ihr denn erst über SD Karten in Kameras und Smartphones denken?
Digitalkameras nutzen keine Auslagerungsdateien und führen auch keine "Tagebücher".
Sie speichern einfach Photo (Datei) für Photo (Datei)i nacheinander auf die SD-Karte.
D.h. sie vermerken keine "zuletzt zugegriffen am"-Liste, wie es ein PC mit NTFS macht.
http://help.migraven.com/last-access-time/

Mit Smartphones kenne ich mich nur wenig aus,
danke aber, dass nur Filme/Spiele und die Binaries der Anwendungen auf der SD-Karte landen.
Veränderliche Dinge, wie z.B. die Einstellungen/der Cache bzw. sonstige Anderungen befinden
auf dem Smartphone-Speicher.

Im Grunde stimme ich aber zu.. SD-Karten nutzen erfolgreich Billigspeicher..
Man sollte sich immer darüber im klaren sein, dass SD/SDHC/SDXC Konsumer- und Massenware sind.
Ähnlich wie billige Einwegrasierer oder Erdbeeren aus China. ;)
 
Zuletzt bearbeitet:
joshy337 schrieb:
Da schließe ich mich an. Steigerung der Speicherkapazität ist schön und gut,
aber die Integrität der Daten sollte dabei nicht zuletzt kommen. Gier führt zu nichts Gutem.

Gier? Durch QLC werden jede Menge Rohstoffe eingespart, das sollte man auch mal bedenken. Die Langlebigkeit von consumer hardware wird durch QLC sogar deutlich erhöht, weil mangelnder Speicherplatz oft zum Neukauf anregt.
 
joshy337 schrieb:
aber die Integrität der Daten sollte dabei nicht zuletzt kommen.
Aus welchen Grund zweifelst Du die Integrität der Daten an? Es gibt noch gar keine Erfahrung mit SSDs mit QLC NAND und auch bei den Samsung 840 / 840 Evo die immer als Beispiel für anfängliche Probleme mit TLC aufgeführt wird, gab es keine Probleme mit der Integrität der Daten, sondern nur mit der Geschwindigkeit mit der sie gelesen werden konnten.
joshy337 schrieb:
D.h. sie vermerken keine "zuletzt zugegriffen am"-Liste, wie es ein PC mit NTFS macht.
Hast Du überhaupt gelesen was da steht:
Dieses Feature hat Microsoft schon ab Vista per Default wieder deaktiviert.
 
Zurück
Oben