Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsWafer-Level SSD: Kioxia erwägt Wafer als direkten Massenspeicher
Keine Ahnung, aber es würde mich wundern, dann man muss ja auch da Dies zusammenfügen, die etwas die gleiche Qualitätsstufe haben, also ungefähr die gleiche Anzahl an P/E Zyklen aushalten werden, da ja das zusammengefügte Die als Ganzes unbrauchbar wird, wenn bei einem der beiden Teildies die Zellen am Lebensende angekommen sind. Daher und weil es wohl auch unpraktischer wäre das Stacking mit einem Wafer von 30cm Durchmesser als mit einem so 100mm² großen Die, würde ich vermuten das die Dies einzeln gesteckt werden. So spart man sich dies auch bei denen die unbrauchbar sind.
Die kann man nicht kaufen, die bekommt man als Werbegeschenk
Keine Ahnung ob solche Qualitäten in USB Sticks landen oder in Spielzeug oder sonstwo. Es geht vor allem darum, dass es eben am Ende viele verschiedene Qualitäten gibt, obwohl alle Wafer von der Produktion her gleich behandelt werden und eben auch auf jeden Wafer nicht alle Dies gleich gut gelingen. Dies ist auch was man unter der Qualität versteht und nicht wie es manche immer meinen, QLC wäre im Vergleich zu MLC von schlechter Qualität. Dabei meinen sie, dass es eben unterschiedliche technische Eigenschaften haben, was aber nichts mit Qualität zu tun hat.
Der Wafer muss dann natürlich ALLES beeinhalten, also den FLASH genauso wie den oder die Speichercontroller sowie die notwendigen Leiterbahnen. Und dann muss man ein Gehäuse drumherum bauen mit Außenanschlüssen für die Server-Racks. Wieviel Speicher wohl auf einen üblichen 300 mm Wafer passt? Und wie viele Lagen an NAND-Transistoren übereinander kann man einen Wafer belichten? Den das "Stacking" mit bis zu 100 Lagen übereinander funktioniert dann ja nicht mehr.
Wer sagt, dass man Leistung braucht? Wir sprechen hier von einem technischen Ansatz, der vllt. 5-10 Jahre in der Zukunft liegt und ggf. sogar eher fürs Datengrab dient?
.......
Die Welt wird datenintensiver, selbst beim Lesen. Für das Datengrab gibt es auch das Bandlaufwerk und da wird es sicher lange dauern, bis NAND nicht nur von der Kapazität, sondern auch Preis und Datenbeständigkeit mithalten kann.
Würde jedenfalls Geld und andere Ressourcen kein Problem darstellen, wären die Entwicklungen sicher ausgereifter und besser umgesetzt.
Der Wafer muss dann natürlich ALLES beeinhalten, also den FLASH genauso wie den oder die Speichercontroller sowie die notwendigen Leiterbahnen. Und dann muss man ein Gehäuse drumherum bauen mit Außenanschlüssen für die Server-Racks. Wieviel Speicher wohl auf einen üblichen 300 mm Wafer passt? Und wie viele Lagen an NAND-Transistoren übereinander kann man einen Wafer belichten? Den das "Stacking" mit bis zu 100 Lagen übereinander funktioniert dann ja nicht mehr.
Was ich mich schon die ganze Zeit frage, eigentlich könnte man doch den ganzen Storage Server auf den Wafer packen, so dass nur noch Strom und Netzwerk verbunden werden muss. Davon sollten dann 3 - 10 in ein HE passen (je nachdem wie eng man das packen kann)
Was ich mich schon die ganze Zeit frage, eigentlich könnte man doch den ganzen Storage Server auf den Wafer packen, so dass nur noch Strom und Netzwerk verbunden werden muss. Davon sollten dann 3 - 10 in ein HE passen (je nachdem wie eng man das packen kann)
Prinzipiell schon. Aber das Netzteil muss extern bleiben, da es über passive Bauteile verfügt (z.B. fette Spulen oder Kerkos), die man nicht auf einem Wafer ausbelichten kann.
Prinzipiell schon. Aber das Netzteil muss extern bleiben, da es über passive Bauteile verfügt (z.B. fette Spulen oder Kerkos), die man nicht auf einem Wafer ausbelichten kann.
Zumal die Stromverteilung IMHO auch nicht über den gesamten Wafer funktionieren würde, da wäre der Verlust viel zu hoch über bis zu 30cm...
Aber allein die Möglichkeit bei zu vielen defekten Sektoren einfach nur den Wafer und nicht die ganze zusätzliche Technik (Controller dürfte ja extern bleiben) sollte tatsächlich kosten Sparen können in Rechenzentren. Aber die Anschaffungskosten und das Handling der Wafer sind vermutlich der Killer...
Die Beiträge sind hier lustig. Ihr wisst, was so ein ganzer belichteter Waffer kostet? Und so viel mehr Soeicherdichte bringt es auch nicht. Schließlich hat so ein Waffer nur eine Chip-Schicht. In aktuellem V-NAND hat man 96 Layer pro Chip - ultra dünn geschliffen, das sind doch schon fast 5% so eines Waffers. Dann ist das ding auch noch übelst empfindlich... Ich kann mir keine Verwendung, außer dem Nutzen von "Ausschuss-Waffern" (wo nichtmal mehr das Ausschneiden der intakten chips lohnt) anstelle von Tape-Libraries zu verwenden. Ergo Roboter die das ins "Laufwerk" einlegen. Nix end-user.
Dann ist das ding auch noch übelst empfindlich... Ich kann mir keine Verwendung, außer dem Nutzen von "Ausschuss-Waffern" (wo nichtmal mehr das Ausschneiden der intakten chips lohnt) anstelle von Tape-Libraries zu verwenden. Ergo Roboter die das ins "Laufwerk" einlegen. Nix end-user.
Aber allein die Möglichkeit bei zu vielen defekten Sektoren einfach nur den Wafer und nicht die ganze zusätzliche Technik (Controller dürfte ja extern bleiben) sollte tatsächlich kosten Sparen können in Rechenzentren.
Wenn man bei derartigen Kapazitäten die Kosten für die NAND mit denen des Controller (plus dem DRAM Cache) betrachtet, dann ist letzeres fast irrelevant. Außerdem wären unzählige Verbindungen zwischen dem Wafer und dem Controller nötig, schau Dir nur mal an wie viele Pins so ein NAND Package hat und da sitzen maximal 16 Dies drin und dies mit Einschränkungen bzgl. der Möglichkeiten sie parallel anzusprechen. Aber die Parallelität braucht man um die Performance zu erreichen. Da wäre es sinnvoller den Controller auf dem Wafer zu integrieren.
Ehrlich gesagt sehe ich das ganze Thema eher als Versuch im Gespräch zu bleiben und den neuen Namen Kioxia bekannt zu machen als eine ernsthafte Produktüberlegung an.
Stand wirklich was von 96 NAND-Schichten auf einem Wafer im Artikel? Zudem ja bereits eine einzelne NAND-Schicht in mehreren Schritten (also in mehreren Schichten) ausbelichtet werden muss. Somit hätte man bei 96 NAND-Schichten mehrere hundert Belichtungsschritte und hier habe ich zumindest starke Zweifel, dass das so einfach möglich ist.
Erinnert mich an eine CPU, die ich einmal gesehen habe. Das war aber noch ein 12cm Wafer. Eine CPU. Hat sich nie durchgesetzt.
Hier könnte man sehr großzügig mit Sparesektoren arbeiten. Warum nicht. Ein Wafer wird dennoch bei 100.000€ liegen. Wenn man dafür dann aber X Petabyte bekommt, warum nicht?
Warum wohl? Die Jungen müssen eben immer alles in Frage stellen was die alten Hasen schon immer so gemacht haben, merken dann aber irgendwann warum sie es so gemacht haben und das dies nicht kompletter Blödsinn war, sondern gute Gründe hatte.
Würden wir nichts in Frage stellen, säßen wir heute noch in Höhlen am Lagerfeuer.
Tatsache ist: Es ist gut, immer wieder Dinge in Frage zu stellen, weil manche Regeln einfach nicht mehr gültig sind.
Andersrum gibt es aber auch Dinge, die nach wie vor nicht sinnvoll sind und das vermutlich auch lange so bleiben ("immer" ist hier ein schwieriges Wort).