News ISSCC: Microns 768-Gbit-NAND-Flash erreicht 2,77 Tbit/Zoll²

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.310
Auf der ISSCC 2016 wurde unter anderem auch über die NAND-Flash-Fertigung und deren Zukunft gesprochen. Bei Microns Präsentation stand ein neuer Meilenstein auf dem Weg zu einer höheren Speicherdichte im Vordergrund: Ein erster Flash-Chip mit 768 Gigabit wurde entwickelt.

Zur News: ISSCC: Microns 768-Gbit-NAND-Flash erreicht 2,77 Tbit/Zoll²
 
768 GBit pro Die? Damit kann man ganz schön große SSD realisieren und groß muss die Kapazität wohl auch sein, wenn man eine gute Performance haben will, so viele Dies die man dann noch parallel ansteuern kann, wird es sonst ja nicht geben.
 
Gute entwicklung!
Weiter so Micron!
Micron gehört für mich sowieso an die Spitze der NAND Hersteller!
Okay die letzten Produkte waren ... Nicht sehr prickelnd! (wenn cache voll dann -> hdd geschw.)
Aber sonst? Top! Seit damals C300 sind sie Führend und Ich Hoffe es geht so weiter!
Samsung kam nur an die Spitze durch Marktpenetration (ist genau ihr ding...)
Die Qualität der Pro's ist zwar zZt das beste wenn man dann noch Garantie mitnimmt
Aber Micron traue Ich trotzallem mehr bei der sache! Kommen mir Kompetenter und vorallem Ehrlicher vor
 
-Ps-Y-cO-, bei den SSDs sehe ich Micron nicht führend, die C300 war es damals und auch die m4, aber die m500 war schon eher lahm, gerade beim Schreiben und die MX200 sowie die BX200 sind jeweils schwächer als ihre Vorgänger, die BX200 besonders. Eine glückliche Modellpolitik sieht anders aus und große Dies zu bauen ist ja auch nicht die große Kunst und bringt bei der Performance dann wieder Nachteile, gerade bei kleineren Kapazitäten. Also eine Führungsrolle kann ich bei Micron weder bei den NANDs sehen, die 3D NANDs sind ja immer noch nicht auf dem Markt und schon gar nicht bei den SSDs erkennen. Außerdem hat Crucial schon seid der C300 immer wieder mit Energiespareinstellungen wie LPM Probleme gehabt und selbst für die MX200 musste da noch ein FW Update her um das in den Griff zu bekommen, das zieht sich also echt wie ein roter Faden durch die ganzen Baureihen mit Marvell Controllern und sowas dürfte einem wirklich frührenden Hersteller nicht passieren. Fehler kann jeder mal machen, er sollte diese aber eben nicht dauernd wiederholen.
 
Uh das wird spannend, mal schauen wie lang meine beiden HDDs im Raid0 noch mit machen. Sobald eine den Geist aufgibt, werden die durch eine SSD ersetzt und je länger sie durch halten, desto besser für mich :D
Ja ich weiß, ich quetsche meine Hardware immer bis zum Letzten aus (siehe meinen Phenom X6 mit 3,8GHz) xD
 
Das hat sich vermutlich schon geklärt, aber ja 768 Gbit pro Die sind gemeint.
Ich finde es wirklich spannend, dass Micron/Intel (IMFT) einen ganz anderen Weg eingeschlagen hat und bin sehr gespannt auf die ersten SSDs mit 3D-NAND von IMFT.

@Hallo32: Das freut mich, danke! :)
 
@CB:

Ich bin gerade über diese Textstelle gestolpert:

sondern benötigt zusätzliche Schaltungen um ordnungsgemäß zu funktionieren und für Langlebigkeit zu sorgen. Dieser als logic circuitry beschriebene Overhead benötigt ebenfalls Platz und nimmt einen gewissen Teil der Chipfläche ein.

und wunder mich, dass die Logik im Flash Die auch für die Langelbigkeit sorgen soll.
Was ist denn damit genau gemeint? Das Wear-Leveling wird doch eigentlich vom Controller geregelt.
Ich hätte eigentlich gedacht, dass die Logik im Flash-Die einzig und allein die Schnittstelle nach außen realisiert und vielleicht noch den Flash beim Power-Up in einen Ordnungsgemäßen Zustand versetzt.
 
Zuletzt bearbeitet:
Hatte vor einigen Tagen 512GB SSDs als M.2 und 2.5 Zoll auf dem Tisch. Wer gesehen hat wie winzig die M.2 Version ist wird die Fläche oder genauer das Volumen der Flashspeicher kaum als eines der dringenderen Probleme sehen.
 
haha, die Logik hat mit dem Wear Leveling nichts zu tun und es gibt weit mehr als nur das Wear Leveling was für die Langlebigkeit von NANDs in SSDs verantwortlich ist. Bei der Logik auf den Chips geht es mindestens um die Signalverarbeitung und die Schwellwerte für die Thresholds, ggf. aber auch um eine zusätzliche Fehlerkorrektur. Das gibt es schon seid den 25nm bei NANDs und wird dort als Clear NAND bezeichnet.
 
Wattwanderer schrieb:
Wer gesehen hat wie winzig die M.2 Version ist wird die Fläche oder genauer das Volumen der Flashspeicher kaum als eines der dringenderen Probleme sehen.

Hersteller von Ultra-Notebooks sehen das offensichtlich ganz anders!
 
Bitte verzichtet auf Quadratzoll! Es gibt eine ISO und wir müssen nicht jeden amerikanischen Unsinn übernehmen.
Davon abgesehen sind in der Grafik durchaus Quadratmillimeter angegeben.
 
Die Technologie kommt aber eben in wesentlichen aus den USA und da sind diese Einheiten noch üblich. Selbst in den deutschen Datenblättern von HDDs wird, wenn der Wert mal angeben ist, er in Gbit/in² angegeben und es redet ja auch keiner von 8,9cm HDDs, sondern von 3.5". Die gebräuchlichen Einheiten legt eben der fest, der die Technologie entwickelt und bestimmt. Trotz der ISO Einheiten bekommen Piloten ihre Flughöhe vom Boden aus auch in Fuß und nicht in Meter mitgeteilt.
 
Ich bin ja gespannt wie lange die beschrieben werden können ;)

Und wie weit man in Zukunft noch das Steigern kann an Kapazität. Großer Sprung ist es alle mal erste mal :)
 
Nicht wie lange, wie oft ist die Frage, aber darüber geben die Hersteller immer seltener Auskunft.
 
Tekpoint schrieb:
Und wie weit man in Zukunft noch das Steigern kann an Kapazität.

Was aktuell möglich ist sieht man an Micro SD Karten. Stapele in ein 2,5" bzw. 3,5" HDD Gehäuse so viele davon bis es voll ist. Das Problem ist nur, dass es nur wenige geben wird die bereit sind mehr als 10.000 EURs pro Laufwerk auf den Tisch zu legen.

Desktopplattentauglich sind die Preise für SSD jetzt schon. Wenn sie aber datengrabtaulich werden sollen ist der Preis die dringendste Baustelle. Die Frage nach mehr Speicher pro Volumen wird erst akut werden wenn sie auf HDD Niveau fallen.

Was solls. Eine Schlagzeile sei ihnen gegönnt. Immerhin besser als einen Totenkopf auf den Deckel malen.
 
@amigo99
Da stimme ich dir voll und ganz zu.

An den Autor, Michael Günsch:
Welchen Sinn ergibt das bitteschön die Chipfläche in Quadratmillimetern aber die Speicherdichte in TBit pro Quadratzoll anzugeben?
Soll man als Leser die Einheiten selber umrechnen oder weshalb können da nicht einheitlich SI-Einheiten verwendet werden?
Ok, die US-Leute verwenden Einheitsangaben wohl gerade wie denen der Sinn danach steht, habe ich echt den Eindruck
 
Zuletzt bearbeitet:
Holt schrieb:
es redet ja auch keiner von 8,9cm HDDs, sondern von 3.5". Die gebräuchlichen Einheiten legt eben der fest, der die Technologie entwickelt und bestimmt.

Nicht das Entwicklungsland ist entscheidend, das Marketing ist es.
Vor ein paar Jahren noch hatte niemand einen Fernseher, dessen Größe in Zoll angegeben war.
Und noch früher, als IT noch gleichbedeutend mit Großrechern von IBM, CDC und Co. war, wurde ALLES eingedeutscht. Die (d)englischen Begriffe kamen erst mit der Schlampigkeit der PC-Ära.

WinnieW2 schrieb:
Soll man als Leser die Einheiten selber umrechnen oder weshalb können da nicht einheitlich SI-Einheiten verwendet werden?

Daran herumzunörgeln ist doch hoffnungslos.
Schon an der Angabe "Gbit" in der Überschrift ist in Bezug auf SI-Einheiten alles falsch, es müßte schließlich "Gib" heißen.
 
Zuletzt bearbeitet von einem Moderator:
Wie Holt schon richtig erklärt hat: Tbit/in² oder Tbit/Zoll² ist die gebräuchliche Einheit. Bei HDDs wird diese zum Vergleich genutzt und auch bei SSDs, damit diese mit HDDs vergleichbar sind. Siehe auch diese Grafik.
Aber ich kann gerne noch zusätzlich Gbit/mm² hinzufügen. <- Erledigt!

Die Kapazität von NAND Flash wird schon immer in Gigabit (abgekürzt Gbit oder Gb) angegeben. 64 Gigabit, 128 Gigabit, 256 Gigabit ...
 
Zuletzt bearbeitet:
Zurück
Oben