News Zoned Storage: Samsung und WD treiben Speichertechnik vereint voran

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.387
  • Gefällt mir
Reaktionen: estros, Conqi, evilhunter und 3 andere
Das liest sich für mich, als wäre das im Prinzip dasselbe wie ein SSD-Cache an einem HDD-RAID?!
 
  • Gefällt mir
Reaktionen: C4rp3di3m
Artikel-Update: In einem weiteren Artikel wirbt Samsung mit den Vorzügen von Zoned Storage und hebt dessen Relevanz für die gesamte Datenspeicherbranche noch einmal hervor.

Wir sind in eine goldene Ära für Datenverbrauch, -analyse und -speicherung eingetreten . Einer der sichersten Wege, all das Gute zunichte zu machen, wäre, wenn die Industrie widersprüchliche Systeme und Standards implementieren würde“, wird Cheolmin Park, Vice President of Memory Global Sales & Marketing bei Samsung Electronics zitiert. „Von Wechselstrom gegen Gleichstrom in den alten Elektrokriegen bis hin zu Betamax gegen VHS lehrt uns die Geschichte, dass Branchen, denen es an klaren Standards und Formaten mangelt, Zeiten verpasster Gelegenheiten und verschwenderischer Ausgaben erleben. Die Einführung effektiver Standards wird die Komplexität minimieren, Ineffizienzen beseitigen und die Kosten von Produkten und Dienstleistungen senken, was sowohl Anbietern als auch Endbenutzern zugute kommt. Wenn die Datenspeicherung den zukünftigen Anforderungen der Endbenutzer gerecht werden soll, braucht die Branche jetzt einen breiten Konsens über Zoned Storage.

Wim De Wispelaere, Vice President, Strategic Initiatives bei Western Digital erklärte zudem: „Die Implementierung und Weiterentwicklung von Zoned Storage wird die Speicherbranche in die Lage versetzen, durch den Einsatz intelligenter Architekturen ein Gleichgewicht zwischen Kosten, Latenz und Leistung zu finden“.

Doch weniger an der Hard- als vielmehr an der Software muss gefeilt werden, um die Branche für Zoned Storage zu rüsten. Um die gezielt sortierte und effizientere Datenspeicherung in Rechenzentren zur Norm zu bringen, müssen allerdings noch mehr Partner in der Zoned Storage Technical Work Group an einem Strang ziehen. Dafür rühren Samsung und Western Digital jetzt kräftig die Werbetrommel.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]

Samsung schrieb:
Als innovative Speicherlösung hat Zoned Storage unkonventionelle Regeln zum Schreiben von Daten. Zonen können sequentiell beginnend am Anfang einer Zone geschrieben werden, und die Daten innerhalb einer Zone können nicht willkürlich überschrieben werden. Daher ist es äußerst wichtig, dass sich die Branche auf den Host-Software-Stack ausrichtet, der es Speichersystemen ermöglicht, die Leistung von Zoned Storage optimal zu nutzen. Diese Ausrichtung des Host-Device-Modells ist ein entscheidendes Thema der Gesamtinitiative. Samsung, Western Digital und andere Ökosystempartner verpflichten sich, die erforderlichen Softwarekomponenten beizusteuern, die es Zoned Storage ermöglichen, über die Open-Source-Community zu gedeihen.
 
Hab erst "Stoned Storage" gelesen... -> Bildschirmpause
 
  • Gefällt mir
Reaktionen: Ernie75, Salierfähig, guzzisti und 3 andere
ZNS bedeutet für mich Zentrales Nervensystem.
Das wäre dann aber wirklich fortschrittlich :D
 
WAF ist der Frauen Akzeptanz Faktor. Der Rest klingt nach Bullshitbingo oder zumindest dem Fehlen substanzieller technischer Details.

PS: Das Schaubild sieht nach der guten alten Defragmentierung aus. Die haben wir extra für SSD über Board geworfen. Auch der Rest ist absolut nichtssagend.
 
  • Gefällt mir
Reaktionen: Zerhacker
Bei HDDs ist das ja recht gut (zonen defragmentierung) aber bei SSDs?
Flash-Zellen nutzen sich ab. Wenn sich eine Zone mehr abnutzt als die andere ist das Ding schneller für den Müll. hmm... eigentlich ein Vorteil für den Hersteller-> mehr Umsatz
 
Diese einzigartige Zusammenarbeit hat auch wirklich einen recht zwingenden Hintergrund. Denn die Hersteller werden sich...
Das Missverhältnis wird als Write Amplification Factor (WAF) beschrieben, der oftmals bei 3 oder 4 liegt, was bedeutet, dass real die dreifache oder vierfache Datenmenge geschrieben wird. Da Zellen im NAND-Flash erst gelöscht werden müssen, bevor sie neu beschrieben werden, sorgt die Umverteilung für viele Schreibvorgänge, was die Haltbarkeit beeinträchtigt.

ZNS-SSDs sollen wiederum einem WAF von 1 nahe kommen und somit deutlich haltbarer sein. Im Gegenzug könne auf Reservespeicher verzichtet und somit die nutzbare Speicherkapazität erhöht werden.
...wenn das alles Realität wird, tatsächlich vieles sparen können. Insbesondere können sie den MLC-Faktor weiter erhöhen, also von 4bit-MLC (auch genannt QLC) zu noch drastisch härteren Faktoren wechseln, ohne, dass die Laufwerke den Geist aufgeben. Die höhere Haltbarkeit wird dementsprechend wahrscheinlich nicht eins-zu-eins weitergeben, sondern dafür genutzt, an anderen Stelle Haltbarkeit hinten anzustellen. Schlimm ist das nicht, aber man sollte es sich bewusst halten.

Hiermit...
Die Einführung effektiver Standards wird die Komplexität minimieren, Ineffizienzen beseitigen und die Kosten von Produkten und Dienstleistungen senken, was sowohl Anbietern als auch Endbenutzern zugute kommt.
...wird das auch gut positiv zusammengefasst.
wern001 schrieb:
Wenn sich eine Zone mehr abnutzt als die andere ist das Ding schneller für den Müll. hmm... eigentlich ein Vorteil für den Hersteller-> mehr Umsatz
Nicht bei den etablierten Garantiedauern auf SSDs und genausowenig im Serverbereich.
 
  • Gefällt mir
Reaktionen: MichaG
vor allem wird gegenseitig ein Wettbewerber eliminiert :-D ob das wirklich zu besseren Preisen für die Kundschaft führt?
 
Botcruscher schrieb:
PS: Das Schaubild sieht nach der guten alten Defragmentierung aus. Die haben wir extra für SSD über Board geworfen. Auch der Rest ist absolut nichtssagend.
Für mich sieht das Schaubid eher nach dem aus, was man u.U. mit unterschiedlichne Speichermedien im PC/NAS derzeit von Hand tut:
man sortiert die Daten nach Nutzung, benötigter Zugriffsgeschwindigkeit und Änderungswahrscheinlichkeit auf unterschiedlich schnelle Speichermedien:
  • VMs landen auf der NVMe SSD
  • Installationsdaten oder selten geänderte Daten landen auf der SATA-SSD
  • tägliche Backups oder andere sich häufiger änderende/gelöschte Daten landen auf der CMR HDD im NAS
  • das Bildasrchiv, das sich bis zum Austausch der HDD niemals ändern wird, landet auf der (ältern) SMR HDD im NAS.

Warum soll eine per Host-SW verwaltete SSD (oder auch HDD) nicht ähnlich arbeiten, wenn der Host die Daten entsprechend klassifizieren kann?

CDLABSRadonP... schrieb:
Insbesondere können sie den MLC-Faktor weiter erhöhen, also von 4bit-MLC (auch genannt QLC) zu noch drastisch härteren Faktoren wechseln, ohne, dass die Laufwerke den Geist aufgeben.
Wenn ich mir ansehe, wie lange viele der Daten, die auf meinen NVMe SSDs liegen, nicht mehr geändert wurden, dann könnte das System bei mir gerne eine Optimiereung innerhalb der meist chronisch zu kleinen M.2 Kärtchen vornehmen. 4-8 TB Speicherplatz, von dem aber nur 25-50% wirklich PCIe 4 erreicht (das dann aber endlich mal über den gesamten schnellen Bereich lesend und schreibend mit PCIe 4 Geschwindigkeit). Daten, die ich längere Zeit nicht mehr verändert habe, kann die SSD gerne auch in den langsamen QLC Bereich verschieben. Das ganze jedoch nicht nur, wie bei QLC SSD, mit einem mickrigen SLC Caches im max. zweistelligen GB Bereich.

Aber ich warte vermutlich als einziger immer noch auf die ersten QLC Fehler meiner anbelich seit gut 3 Jahren so unterirdisch unzuverlässigen und langsamen Technik meiner System-SSD.

ShutdownButton schrieb:
vor allem wird gegenseitig ein Wettbewerber eliminiert :-D ob das wirklich zu besseren Preisen für die Kundschaft führt?
Hat die Definition des SATA-Standards zu höheren Preisen geführt? Mehr entnehme ich der Aussage "einzigartige Zusammenarbeit zur Standardisierung" nämlich nicht. Anstatt dass jeder Hersteller seine eigene Spec erfindet (wie das bei host managed SMR HDDs der Fall gewesen sein dürfte) wird zusammen gearbeitet, damit die Laufwerke der Hersteller danach auf Befehlsebene kompatibel sind.
 
  • Gefällt mir
Reaktionen: DFFVB und Scheitel
Vielleicht sehe ich es falsch. Aber werden hier jetzt nicht Lösungen für Probleme gesucht, die die Entwicklung erst hat entstehen lassen? Früher gab es SLC ("Single Level Cell"), bei der diese Problematik nicht existierte, da exakt ein Bit pro Zelle gespeichert wurde. Dann gab es irgendwann MLC ("Multi Level Cell"), bei der bereits mehr als ein Bit - meist zwei bits - pro Zelle gespeichert wurden. Dies sollte die Variante verbilligen - bei gleichzeitiger Reduktion von Schreibzugriffen. Später ging es noch mit TLC ("Triple Level Cell") weiter. Im Ziel wurden immer mehr Informationen pro Zelle gespeichert... dafür musste aber bei jeder Änderung eines Bits jedes Bit der Zelle mit neu geschrieben werden.

Am Ende sucht man jetzt also Lösungen für selbst geschaffene Probleme. Wäre da ein "back to the roots" nicht möglicherweise besser gewesen? Durch Massenproduktionen und anderen Fertigungstechnologien sollte doch inzwischen eigentlich auch der Preis dabei reduziert sein.
 
Botcruscher schrieb:
Das Schaubild sieht nach der guten alten Defragmentierung aus. Die haben wir extra für SSD über Board geworfen. Auch der Rest ist absolut nichtssagend.
Es gibt eine offizielle Dokumentation, die wesentlich besser hilft, aber sich nicht für Pressemitteilungen eignet:
https://zonedstorage.io/docs/introduction/zoned-storage
Das Ganze wird schnell komplex und bricht mit einigen Konventionen, hat aber definitiv seine Daseinsberechtigung.

wern001 schrieb:
Bei HDDs ist das ja recht gut (zonen defragmentierung) aber bei SSDs?
Flash-Zellen nutzen sich ab. Wenn sich eine Zone mehr abnutzt als die andere ist das Ding schneller für den Müll. hmm... eigentlich ein Vorteil für den Hersteller-> mehr Umsatz
Um die Abnutzung zu vermeiden, dürfen die Zonen nur sequentiell beschrieben werden, was Writeamplification tendenziell stark reduziert. Schau dir auch mal die Dokumentation an, da haben ernsthaft Leute nachgedacht :)


@luckyfreddy
Flash Speicher muss man immer im ganzen (physischem) Block schreiben. Da hat die Anzahl der codierten Bits je Zelle wenig mit zu tun.
 
  • Gefällt mir
Reaktionen: MichaG, SoDaTierchen und Scheitel
luckyfreddy schrieb:
Wäre da ein "back to the roots" nicht möglicherweise besser gewesen? Durch Massenproduktionen und anderen Fertigungstechnologien sollte doch inzwischen eigentlich auch der Preis dabei reduziert sein.
Heute zahlst du ca. 100 € pro TB bei SSDs mit TLC - der üblichen Massenware. TLC = 3 Bit pro Zelle. Rechne um auf SLC und du bist bei 300 € pro TB. Da müssten reine SLC-Flashzellen schon sehr viel kleiner sein, dass es sich lohnt und das sind sie wahrscheinlich nicht.

Flash-Speicher hat dasselbe Problem wie DRAM: Die Information wird in Form von Ladung gespeichert und daher kann man nicht immer weiter miniaturisieren - irgendwann wird die Ladung zu klein, um sie handeln zu können. Und da die benötigte Chipfläche den Preis bestimmt, ist das oberste Optimierungsziel die Erhöhung der Speicherdichte. Das geht bis zu einem gewissen Grad mit Multi-Level-Cells nun mal sehr gut.
Warum sollte man auf diesen Vorteil verzichten? Rein auf SLC setzten wäre dumm - allein schon, weil gerade Privatpersonen die damit mögliche Schreibleistung nie im Leben erreichen würden und dieser Nachteil von MLCs dann gar nicht zum Tragen kommt.

Und wenn man wie hier von Samsung und WD angedacht durch reine Softwareoptimierungen die Lebensdauer ehöhen kann, dann ist das doch super.

Und und btw: Lösungen für selbst geschaffene Probleme suchen zu müssen, das gibt es an vielen Stellen. So ist das nun mal. Mit den Lösungen ändern sich auch die Probleme. Macht die alte Technik idR aber nicht überlegen.
 
  • Gefällt mir
Reaktionen: luckyfreddy
Botcruscher schrieb:
PS: Das Schaubild sieht nach der guten alten Defragmentierung aus. Die haben wir extra für SSD über Board geworfen.
Genau das habe ich auch gedacht :D

Das Grundkonzept besteht darin, die Daten gemäß der spezifischen Leistungsparameter von schnellen SSDs und günstigen HDDs effizient zu verwalten.
Das heißt, habe ich keine HDDs, brauche ich keine Zonen, richtig?
 
luckyfreddy schrieb:
Früher gab es SLC

Früher hab ich für ne 500 GB Samsung 950 Pro auch 300 Euro gezahlt…. Finde den Fehler…
 
Erinnert mich an das gescheiterte SSHD oder wie das hieß, brauch ich nicht. Wenn dann sollen sie eine völlig neue Speichertech erfinden die weder HDD noch SSD ist, am Ende ist beides nicht optimal zum dauerhaften Speichern von großen Datenmengen und zu teuer.

mfg
 
Piktogramm schrieb:
Es gibt eine offizielle Dokumentation, die wesentlich besser hilft, aber sich nicht für Pressemitteilungen eignet:
https://zonedstorage.io/docs/introduction/zoned-storage
Das Ganze wird schnell komplex und bricht mit einigen Konventionen, hat aber definitiv seine Daseinsberechtigung.
Danke. Das Gedankenspiel mit der Defragmentierung ist sowohl richtig als auch grundlegend falsch. Das gleiche gilt für die Bilder im Artikel und die Überschrift. Extrem grob vereinfacht ist eine Sortierung der Daten auf Ebene des Filesystems geplant. Dazu kommen "Pointer" um den "Zustand" des Laufwerkes an Adresse XY zu kennen. Heute werden quasi die Daten unsortiert auf das Speichermedium geworfen und später "sortiert". Das kostet Leistung und ist aufwendig. WD und Samsung verlagern die Arbeit natürlich ganz uneigennützig von den Laufwerken zum BS. Das spart an den Controllern und am Speichermedium. Vorteil: billig kann noch billiger werden. Nachteil: Die Skalierung geht nach oben und unten. Gerade Sequenzielle Daten werden profitieren. Der Rest kackt durch die höhere Verwaltung vermutlich noch mehr ab.
 
@Botcruscher So kann man es sicherlich beleuchten, nichtsdestotrotz ist das wahllose "Ausschütten" von Daten auf die SSD verschenktes Potenzial, vor allem dann wenn das OS im Gegensatz zum SSD Controller in vielen Fällen weiß um welche Daten es sich handelt und wie man sie klassifizieren/priorisieren könnte. Das wäre in etwa so wenn der Chef zu seinem einzigen Mitarbeiter bei jedem Auftrag sagt "Bitte ASAP durchführen, ganz wichtig", da kommt das Burnout schon nach 2 Jahren und nicht erst nach 5 :D
 
Zerhacker schrieb:
Das heißt, habe ich keine HDDs, brauche ich keine Zonen, richtig?
Wie @Piktogramm ja angerissen hat steckt da mehr dahinter. Bei HDDs mit SMR löst es das grundlegende Problem von SMR-HDDs, da die Blöcke nur sequentiell beschrieben werden dürfen. Dadurch ist ein unnötiges Überschreiben der "Shingles" entfernt. Bei SSDs ist das aber ein ähnliches Problem, was adressiert wird, die Write amplification, also überflüssige Mehrfachbeschreibung desselben Blocks, weil man verschiedene Daten im Block in getrennten Schreibaktionen beschreiben will, wird ebenfalls größtenteils eliminiert.

Zoned Storage erfüllt bei beiden Technologien die Aufgabe, die Langlebigkeit der Datenträger mehr als nur messbar zu erhöhen. Bei HDDs mit SMR adressiert es zusätzlich das größte Performance-Problem. Zoned Storage wird leider von "der Presse" oft nur mit sehr wenigen Informationen gefüttert, das ist mir bei mehreren Artikeln schon aufgefallen. Da steckt aber tatsächlich eine enorm sinnvolle Technologie dahinter, auch wenn sie ihre Stärke nicht bei jedem Workload ausspielen kann.

Im Client-Bereich wird Zoned Storage mangels Anwendungsfall aber vermutlich keine allzu große Rolle spielen. Die Datenträgerlasten sind dort zu "zufällig", das Konzept würde untergehen. Im Datacenter-Bereich und auch bei NAS-Geräten dürften die Vorteile der größeren Langlebigkeit und bei HDDs auch der größeren Leistung resultieren durchaus eine Rolle spielen.
 
  • Gefällt mir
Reaktionen: Zerhacker
Zurück
Oben