Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsSK Hynix: TLC-NAND-Speicher mit über 300 Layern geht in Serie
Den im Sommer vorgestellten 321-Layer-NAND fertigt SK Hynix jetzt in Serie. Das hat das Unternehmen heute öffentlich bekanntgegeben. Erstmals wird die 300-Layer-Marke überboten. Es handelt sich um TLC-NAND mit 3 Bit pro Zelle und 1 Tbit pro Die.
Liest sich ja ersmal interessant, doppelte Speicherdichte aber wie sieht es bei den Kosten aus, kann man dann auch erwarten später mehr GB für weniger Euro zu bekommen oder ist die Herstellung einfach nur anders und ändert nichts am Preis, der Platz ist zumindest bei den 2280 ja kein Problem.
Eine merkwürdige Anzahl an Layern. Also klar, 321 kann man aus drei Blöcken a 107 Schichten zusammensetzen. Aber danach ist halt Schluss mit gleichmäßigen Teilblöcken, Primzahl bleibt Primzahl.
Gibt es irgendeine Erklärung, was zu dieser Anzahl an Ebenen geführt hat?
Inwiefern danach? Die Dies werden mit ziemlicher Sicherheit niemals außerhalb des 1Tb stacked Die Gespanns irgendwo zu finden sein (warum auch?).
Die Layeranzahl, welche insgesamt pro Logikdie gestapelt werden, wird aus der Kombination aus Kapazität des Logic Dies, der Anzahl an Schichten pro Flash Die und den Interconnects zwischen den gestapelten Flash Dies und der Logik unten im Stack bestimmt. Das wird im Rahmen der Möglichkeiten das Kostenmäßige Optimum gewesen sein.
Dafür wie viele 1 Tb Stacks man dann in ein Package packt, um die gewollte Speicherkapazität zu erreichen, hat die Layer Zahl keinerlei Einfluss.
wären bestimmt auch jetzt schon möglich - nur wenn man sich die Preisgestaltung so fortsetzt, das man für 250 € 4 TB bekommt, aber >700 € für 8 TB löhnen soll, werden dafür kaum Abnehmer vorhanden sein. Denn das aktuelle Preisgestaltungsmodell ist eher krank.
Denn im Normalfall sollte eine Verdoppelung des Preises bei doppeler Leistung vorsehen
Der Regelfall ist aber, das man mit doppelte Leistung etwas weniger als den doppelten Preis zahlt. Weil dadurch eine psychologische Wirkung entsteht, das man spart, obwohl man das nicht braucht und so mehr Leistung kauft. Und für die Hersteller bringt das mehr Umsatz, das die Herstellung von Produkten mit mehr Leistung normalerweise nicht sehr viel Mehraufwand bedeutet, so das die Marge bei den Produkten größer ist.
Was aber gerade bei den SSDs passiert, widerspricht beiden Modellen. Dort werden Preise von mehr als dem Doppelten für doppelte Leistung aufgerufen, was Käufer eher dazu kleinere Speichergrößen zu kaufen, dafür aber ggf mehr Stückzahlen, wo aber auch die Herstellermarge idR geringer ausfällt.
Ich frage mich dort ernsthaft, welche Logik dahinter steckt.
Es sollte keine Preisverdopplung geben wenn man die Kapazität erhöht.
Du brauchst einen Controllerchip, eine Platine... die Speicherchips erhöhen sich in Menge oder Kapazität.
Demnach sollten wir mit jeder Steigerung einen Nachlass im Preis sehen pro GByte.
Leider ist der Markt "zu faul" und träge um darauf zu reagieren. Bei Arbeitsspeicher funktioniert es doch auch.
Mittlerweile ist schneller DDR5 günstiger wie älterer DDR4 Speicher (hier mal als Vergleich 64 GB), kann man jetzt sogar 96 GB nehmen.
Die kranken Preiszuschläge bei den höherwertigen Modellen sind kaum noch zu rechtfertigen.
Darauf reagieren tun natürlich auch die Shops, immer mehr neue Markennamen fluten da jetzt die Schnäppchenliste.
Es ging mir um die umgekehrte Richtung: Also wie setzt man die 321 Layer zusammen. Oftmals schichtet man nun einmal systematisch und setzt sogar Teilstacks zusammen. Letzteres klappt hier gut und zwar mit drei Teilstacks. Aber 107 Layers lassen sich ungünstig systematisch schichten...
Yosup schrieb:
Ohne es zu wissen stelle ich die Vermutung auf, dass es mit eingeplanten Defekten zu tun hat.
Ja, das war auch mein erster Gedanke. Also dass es z.B. eigentlich 384 Layer als 3x 128 wären und dort eben direkt eingeplant wäre, dass stets nur 107 aktiv geschaltet werden.
Flash Packages mit großen Densities sind teurer als kleine Densities. Ein Flash Package mit z.B. 8 Dies ist mehr als doppelt so teuer wie ein Package mit 4 Dies.
Angenommen du produzierst 100 Packages von jeder Flashart mit rein hypothetischen 95% Yield (Ausbeute). Dann hast du beim Flash mit 4 Dies bei 5 defekten Packages insgesamt 20 Dies Verlust. Bei der andere Art aber 40 (5*8) Dies Verlust. Daher ist die dichter gepackte Flash Variante teurer im Verhältnis, obwohl die Fertigung gleich gut ist.
In der Praxis spielen bei der Preisfindung natürlich noch andere Faktoren rein. Aber der obige Punkt ist auf technischer Seite der Hauptgrund für die konterintuitive Preisgestaltung die man so kaum woanders findet.
wären bestimmt auch jetzt schon möglich - nur wenn man sich die Preisgestaltung so fortsetzt, das man für 250 € 4 TB bekommt, aber >700 € für 8 TB löhnen soll, werden dafür kaum Abnehmer vorhanden sein. Denn das aktuelle Preisgestaltungsmodell ist eher krank.
Bei Festplatten wird das Modell mit der höchsten Kapazitätsstufe entwickelt und setzt dann den Spitzenpreis verkauft. Die kleineren Modelle sind in der Herstellung nicht nennenswert günstiger, üblicherweise haben sie Defekte und erreichen deshalb nicht die volle Kapazität, werden aber gegenüber dem Spitzenmodell mit deutlichem Preisabschlag verkauft. Dennoch bekommt man die halbe Kapazität nicht zur Hälfte des Preises, sondern zahlt relativ gesehen mehr.
Das ist jedoch bei Flash-Speicher völlig anders und deshalb sind hohe Kapazitäten entsprechend teuer.
Hmm... der Flash mit 321 Layern geht in Serie - aber von der im März vorgestellten P51 mit dem guten alten 238-Layer-Flash fehlt weiterhin jede Spur...
das mag sein, dennnoch musst du bedenken, das kaum den Produktionspreis inkl. Einkauf der Komponenten mehr als verdoppelt. Denn selbst wenn sich der EK Preis für die Flash Packages verdoppelt gegenüber den kleineren Varianten (was kaum der Fall sein wird), entstehen normalerweise nur geringe zusätzliche R&D Kosten, da man ja die Basis schon hat und "nur" den Code im Controler ggf anpassen muss.
Wenn man dann aber den Preis mehr als verdoppelt, vergrößert sich dann die Marge. Denn der Bruttoproduktionspreis hat idR eine flachere Linie als der Verkaufspreis eben aufgrund geringerer R&D Kosten etc.
Das einzigste wäre, wenn die neuen Flash Packages das 3, 4 oder sogar 5 fache von dem kleinerer Desities kosten. Aber DAS ist im B2B Bereich eher unüblich, das würde auch viele Einkäufer nicht mitmachen.
selbst wenn es so wäre, würde das dennoch nicht die Preisgestaltung erklären. Denn Hersteller wollen ihr Produkt verkaufen. Was aber bei den hohen Preisen nunmal nur recht behäbig funktioniert. Das lineare Modell würden noch viele Kunden mitmachen, aber nicht das exponentielle, da sind auch die blauäugigen und viele ungeduldigen zu abgeneigt dagegen.
Bei Arbeitsspeicher funktioniert es doch auch.
Mittlerweile ist schneller DDR5 günstiger wie älterer DDR4 Speicher (hier mal als Vergleich 64 GB), kann man jetzt sogar 96 GB nehmen.
Wen sie ähnlich schnell sind? Also DDR5 kostet mich immer noch mehr...
leider auch bei 64gb
Mag vielleicht, wen es nicht um Latenz sonder (nur) um bandbreite geht anders sein... aber wen Latenz eine Rolle spielt ist DDR5 selbst im Jahr 2024, leider immer noch nicht günstiger...
Was auch nicht schlimm ist. Macht nen zwischen UPgrade auf 5700x3D nur noch attraktiver.
Duran schrieb:
Die kranken Preiszuschläge bei den höherwertigen Modellen sind kaum noch zu rechtfertigen.
Darauf reagieren tun natürlich auch die Shops, immer mehr neue Markennamen fluten da jetzt die Schnäppchenliste.
Earlyadobterpreise sind wiklich nicht neues. Auch kommt der Schweinzyklus urspünglich vom RAM. Wer sich letztes Jahr nicht eingedeckt hat, selber schuld. Aber es kommen auch sicher wieder Tage wo fertigungskapazität abbezahlt sind und lager überquillen und leer werden müssen.
Bitte sehe das nicht jetzt als Angriff auf dich. Aber die Zeiten wo alt verramscht wird und wo man neues doppelte Leistung fürn halben Preis bekommen hat, diese Zeiten sind bei Halbleiter schon lange vorbei. Ist ärgerlcih, ich kenn das. Aber wir können das nicht ändern. Und wen man es mit GPU vergleicht, dann geht es uns mit den Flashzellen noch richtig gut...
@lynx007
Ich habe 140 Euro für 32 GB DDR4 4000 gezahlt. Jetzt gibt es massig "low cost" DDR5 in den Regalen.
Bei MF zu jeder Zeit DDR5 6000 oder 6400 um die 99 - 110 Euro.
Und natürlich musst du auch die Performance berücksichtigen. Mehr Bandbreite ist mehr Bandbreite. Man vergleicht auch nicht HDD mit M.2.
Ich habe noch 2 TB M.2 gekauft als sie preislich attraktiv waren... 69-79 Euro waren das, jetzt wenn ich mir anschaue was am Blackfriday als interessant eingestuft wird darf man erschrecken.
Selbst die 4er Version war höchstens 10 Euro darüber.
Es braucht einfach Fortschritt. Wenn ich auf ewig bei dieser Menge festhänge gibts auch keinen echten grund für ein Upgrade. Damit schadet sich der Markt nur selbst.
Für ein höheres "Schnittstellencap" latzen kann man sich im Prinzip sparen, da warte ich doch besser auf ein Laufwerk mit mehr DRAM oder doppelten Speicher.
Ich habe jetzt schon seit ein paar Jahren nichts mehr mit NAND Flash und Memristor Entwicklung am Hut, aber zumindest vor 5-6 Jahren hat man die Layer pro Die ganz normal sequentiell gemacht, aber halt versucht mit möglich wenig Ätz, Dispositions und Belichtungsschritten auszukommen. Deswegen hat man sich am Anfang auch so gegen EUV gestreubt. Durch das kleinere Scanfenster der frühen Maschinen brauchte man plötzlich deutlich mehr Belichtungsschritte pro Lage, was sich dann eben schnell aufaddiert.
CDLABSRadonP... schrieb:
Ja, das war auch mein erster Gedanke. Also dass es z.B. eigentlich 384 Layer als 3x 128 wären und dort eben direkt eingeplant wäre, dass stets nur 107 aktiv geschaltet werden.
Glaube ich nicht. Dafür müsste die Kontrollogik deutich komplexer ausfallen. Das sich das lohnt, müssten die Yields schon massiv in den Keller gegangen sein.