Diablokiller999 schrieb:
Naja mal schauen ob so viele IOPS für den Endanwender überhaupt noch relevant sind.
Da die IOPS auf QD 1 bezogen sind, sind die auch für private Endanwender extrem relevant! Die Maximalwerte bei QD32 oder noch mehr, die normalerweise bei SSDs immer angegeben und beworben werden, die interessieren den Heimanwender eher nicht, der hat so viele parallele Zugriffe ja gar nicht, aber QD1 bedeutet ein Zugriff zur Zeit und zeigt damit die reale Latenz und Zugriffszeit.
Das verwechselst Du hier vermutlich.
Diablokiller999 schrieb:
schließlich gibt es in dem Bereich momentan nicht mal einen Mitbewerber außerhalb des NAND Bereichs.
HGST hat sein Phase Change Memory (PCM) ja angeblich auch fertig und auf der
FMS 2015 eine SSD damit gezeigt.
Faust2011 schrieb:
Laut den (spärlichen) Folien nicht schneller
So sieht es wohl aus, DRAM bleibt bzgl. der Geschwindigkeit wohl noch vorne, aber wo das nicht so eine große Rolle speilt, kann das XPoint seiner besseren Datendichte und auch der Leistungsaufnahme punkte, das XPoint muss ja anders als RAM nicht refresht werden, damit dürfte es für die Leistungsaufnahme auch egal sein wie viel davon verbaut ist, denn nur was gerade angesprochen wird, dürfte überhaupt eine Leistung aufnehmen. Dazu wie hoch die Leistungsaufnahme ist, habe ich aber noch nichts gelesen.
[F]L4SH schrieb:
aber hat noch nicht ein Sterbenswörtchen zu Transferraten verlautbaren lassen.
Die Geschwindigkeit ergibt sich ja aus der Latenz und dann aus der Parallelität. Schau Dir die Werte eine SM951 oder Intel 750 mit dem AS-SSD an, die kommen bei 4k Lesend auf so 30 bis 40MB/s, das ist was ein NAND Die eben so hergibt und beim sequentiellen Lesen dann auf über 2000MB/s, weil da die Parallelität voll ausgenutzt werden kann.
bensen schrieb:
Hätte nicht gedacht, dass das so schnell Marktreif wird.
Das hätte ich auch nicht, die müssen da entweder schon lange dran forschen oder hatten bei der Arbeit am 3D NAND eine geniale Idee die funktioniert hat.
bensen schrieb:
Allein die performance werden die sich vergodlen lassen und die Herstellung wird auch nicht billig sein.
Die Datendichte ist ja wohl recht hoch, womit die Fertigung selbst dann wohl nicht so teuer werden dürfte, aber die Anfangsinvestitionen wird man natürlich wie immer möglichst schnell wieder einfahren wollen und Intel ist ja auch nicht gerade für seine bescheidenen Margenansprüche bekannt.
Wenn es stimmt das
XPoint auf einem 20nm Prozess beruht, dann könnten die Fertigungskosten sogar sehr günstig sein, weil man damit gegenüber den 3D NANDs die mit 3xnm bis 40nm Prozessen gefertigt werden, dann wohl eine weitaus bessere Datendichte haben würde. Die Frage ist dann eigentlich nur, wie viele Layer man beim XPoint übereinander bekommt und ob es da beim Prozesse oder den Materialien irgendetwas gibt, was die Kosten ungewöhnlich in die Höhe treibt.
bensen schrieb:
Ich denke mal Consumerhardware wird da noch länger warten müssen.
Das widerspricht aber der Meldung in der es heißt:
Im Rahmen der Eröffnungs-Keynote gab Intel an, diese 2016 nicht nur für das gehobene Marktsegment im Bereich der Rechenzentren einzusetzen, sondern bis hinab in das Ultrabook anzubieten.
Für Ultrabooks wäre wohl M.2 als Formfaktor anzunehmen und das ist auf jeden Fall Consumerhardware.
bensen schrieb:
Aber vielleicht bringen die ja SSDs mit nem XPoint-Cache von 8-16 GB, so wie es heute teilweise den pSLC-Cache gibt.
Das wäre schade, denn gerade die geringe Latenz beim Lesen ist ja das für Heimanwender wirklich interessante an der Technik, von der Haltbarkeit reicht auch normales NAND dicke aus. Hätte man nur so einen Schreibcache gäbe es in den Benchmark wie bei AS-SSD zwar ganz tolle Werte bei 4k Lesend, aber die hätten mit der Realität genauso wenig zu tun wie wenn diese RAM Caches ala RAPID genutzt werden. Darauf kann ich verzichten.
bensen schrieb:
(sinnvoll max. 8GB/s über PCIe) oder eh vorher schon der Controller.
Bei PCIe 3.0 x8 ja, aber da Intel ja auch neue Controller und ein neues Interface angekündigt hat und als Hersteller von SSD Controllern, CPUs und Chipsätzen sowas auch sehr einfach um- und durchsetzen kann, dürfen wir da mal gespannt sein.
bensen schrieb:
Also wer die Billigschiene s1151 kauft wird sicherlich nicht für ein paar Tausender ne XPoint-SSD dazu kaufen.
Wer sagt das die ein paar Tausend Euro kosten müssen? Es müssen ja nicht gleich SSD im TB Bereich sein, 256GB oder 512GB tun es für die meisten Heimanwender ja auch.
Neben der Datendichte und dem Aufwand bei der Fertigung, wird der Preis wohl auch sehr davon abhängen wie schnell man die Fertigung davon hochfahren kann, also auch bestehende Fertigungslinien von NAND auf XPoint umstellen kann und dies will. Dazu wäre es eben wichtig zu wissen, ob es noch nicht genannte Nachteile gibt, die einer generelle Ablösung von NAND durch XPoint im Wege stehen, aber wenn das nicht der Fall ist und wenn die reinen Fertigungskosten unter die von 3D NAND fallen können, dann muss man sich schon fast fragen, warum Micron überhaupt noch 3D NAND fertigen will? Das wäre dann doch allenfalls um es an Kunden zu verkaufen, während XPoint dann nur in eigenen Produkten eingesetzt würde, was den Marktanteil von Intel und Micron bei SSD sicher gewaltig steigen lassen würde.
Eine interessante Frage wäre noch, wie sich schlechte und gute Qualitäten auswirken. Bei CPUs, GPUs und RAM geht das vor allem auf die Geschwindigkeit, gut geratene Exemplare können höher getaktet werden, bei NAND macht dagegen vor allem die Haltbarkeit den Unterschied. Wenn es bei XPoint wie bei NAND ist, wären die Chancen sicher besser das die schlechten Qualitäten früher für Consumer SSD verwendet werden, die Haltbarkeit wäre bei der Nutzung als NAND Ersatz dann wohl höher als bei heutigem NAND und das ist schon für Heimanwender weit mehr als ausreichend.
Eine andere Frage ist, ob und wie es aussieht, wenn ein kleiner Fehler auf einem Die ist. Bei CPUs und GPUs kann man eine Restverwertung machen indem der/die betroffene(n) Kerne deaktiviert werden, bei NAND ebenso und ab Werk defekte Blöcke sind da auch fast die Regel, aber wenn XPoint als Ersatz für RAM verwendet werden kann, muss es ja auch Random Access erlauben, Dies mit fehlerhaften Bereichen kann man dafür nicht verwenden, außer man baut einen Mechanismus ein um diese umzumappen. Bei Verwendung als Ersatz für NAND in einer SSD ist das kein großes Problem, sondern eben eine Aufgaben für den Controller. Die SSD wäre dann etwas langsamer und hätte weniger Kapazität, für die Enterprise SSDs nicht so toll, für den Heimanwender aber kein Drama wenn er dafür an günstigere Modelle kommt.