Muxxer schrieb:
bis SSD Bezahlbar ist in den Regionen. Die HDD Preise sind einfach unverschämt
HDD Preise sollen unverschämt sein, aber SSDs sind ja noch teurer. Woran machst Du das eigentlich fest das die HDD Preise unverschämt wären? Nach den
letzten Quartalszahlen von Seagate (bei denen machen HDDs das Hauptgeschäft aus, während WD und vor allem Toshiba zu viele andere Unternehmensbereiche haben um die Zahlen der HDDs genau erkennen zu können) war die GAAP Operating Margin gerade 13,8%, von 2718 Millionen Umsatz blieben also 320 Millionen Gewinn. Da kann man grob überschlagen wie viel die Preise maximal nachgeben dürften, bevor Verluste eingefahren würden und kein Unternehmen kann es sich erlauben über längere Zeit Verluste zu machen. Vergleiche die Zahlen mal mit anderen Hardwareherstellern, gerne auch mal mit Apple, dann siehst Du das Preise bei manch anderer Hardware noch weit "unverschämter" sind.
Muxxer schrieb:
wird zeit das die SSDs ma durchstarten und endlich ma 10-30TB modelle aufschlagen , bezahlbar.
Da ist das Problem, die NAND Hersteller machen auch nur noch wenig Gewinn,
SK Hynix hatte im letzten Quartal gerade 11% Operating Margin (im Vorjahresquartal waren es noch 20%), bei denen ist wie bei Micron NAND und DRAM praktisch die einigen Nennenswerten Geschäftsfelder.
Micron hatte bei 4,8 Milliarden Umsatz 542 Millionen Gewinn, also auch nur 11% Gewinnmarge (S.18, im Vorjahresquartal waren es noch 34%). Auch hier ist also nicht viel Luft für Preissenkungen bei NAND und NANDs machen nun einmal den Löwenanteil der Kosten von SSDs aus, vor allem bei denen mit größeren Kapazitäten.
matze313 schrieb:
Das stimmt, ich frage mich auch immer wieder, wieso man nicht einfach ein 3,5" Gehäuse nimmt für eine Desktop-SSD Serie.
Weil Platz nicht das Problem ist, sondern die Kosten der NANDs.
matze313 schrieb:
Damit spart man sich den zweiten Controller etc. Oder liege ich da falsch?
Der macht nicht viel aus und man braucht für mehr Kapazität dann auch andere Controller die überhaupt so viele NAND Dies ansprechen können. Die meisten Controller für Consumer können bestenfalls 2TB ansprechen, einige Topmodelle vielleicht auch 8TB, aber darüber wird die Luft dünn. Zumal man dann auch mehr Rechenleistung braucht, da die Verwaltung größerer Daten auch mehr Aufwand ist, so ist die Größe der Mappingtabelle proportional zur Kapazität und wenn die Performance nicht grottig sein soll, dann braucht man pro TB Kapazität auch 1GB DRAM Cache für die Verwaltungsdaten.
Die Kosten von SSDs hängen vor allem von den NAND Kosten ab und die sind zwar 2018 und 2019 deutlich gefallen, aber vor allem auf Kosten der Gewinne der Hersteller, wie es eben in der Phase des Schweinezyklus in dem das Angebot die Nachfrage übersteigt, üblich ist. Die Margen sind nun aber schon ganz schön weit unten und damit können weitere Kostensenkungen nur über Einsparungen kommen, vor allem die Steigerungen der Datendichte spart normalerweise Kosten. Dies ging jahrelang durch Verkleinerung der Strukturen, nur ist man damals bei unter 20nm dann auf ganz andere Probleme und bei so 15/16nm an die Grenze gestoßen, da passten dann einfach nicht mehr genug Elektronen in eine Zelle:
Bzgl. Schreibgeschwindigkeit und Haltbarkeit (manche 16nm MLC NANDs hatten gerade mal 1000 spezifizierte P/E Zyklen) und QLC wäre damit unmöglich. Daher ging alle Hersteller dann zu 3D NAND über, aber auch da erfordert jeder Layer viel zusätzliche Bearbeitungsschritte und die Kosten nicht nur Geld, sie erhöhen auch das Risiko durch Fehler den Wafer zu versauen. Schon vor Jahren hat man daher das wirtschaftlich realisierbare Limit bei etwa 128 Layern vermutet:
Bei den 128 Layern scheint man zu optimistisch gewesen zu sein, da selbst Klassenprimus Samsung setzt nach den
„industry's first 100+ layer single-tier design“ der 6. V-NAND Generation nun bei der
7. Generation auf Stacking mit 160 Layern oder mehr "Die technische Beschreibung im Artikel lässt noch viel Interpretationsspielraum, doch deutet sich an, dass Samsung auf ein Design mit zwei Layer-Türmen (Double-Stack) umschwenkt.". Damit wird die Zahl der Layer pro Die, es werden ja zwei Dies übereinander gepackt und durchkontaktiert, es müssen dann also zwei Dies hergestellt werden die durchkontaktiert und danach für die Datendichte als nur ein Die betrachtet werden. Man spart zwar einmal die Logik, die braucht so ein Turm ja nur einmal, aber die Anzahl der Layer und damit die Datendichte einfach durch Stacking zu verdoppelt, verdoppelt auch fast die Kosten.
Samsung ist übrigens der Klassenprimus wenn es um 3D NAND geht, weil alle anderen schon bei 64 Layern auf das Stacking gesetzt haben und selbst wenn Intels angekündigtes 144 Layer NANDs aus nur zwei gestackten 64 Layer Dies und nicht aus 3x48 Layern besteht, wären die 72 nativen Layer weit weniger als
die über 90 Layer von Samsungs V-NAND der 5. Generation von Juli 2018, sondern nur etwas mehr als die
64 Layer Layern der 4. Generation die Mitte 2017 vorgestellt wurde. Wenn Samsung nun also bei Stacking die Anzahl der nativen Layer wieder unter die 90+ der Generation 5 senkt, so dürften mehr Fertigungskosten bei 90+ Layern höher als bei 80+ Layern sein und die kann eigentlich nur an zu viel Ausschuss liegen.
Aber dies schreibe ich nur, falls jemand davon träumt das
800 Layer NANDs wie die SK Hynix für 2025 in Aussicht gestellt hat, dann gegenüber den aktuellen 96 Layer NANDs die 8 fache Kapazität zum gleichen Preis bieten werden, denn dies ist nicht zu erwarten. Die Kosten können nur noch optimiert werden indem man die Fertigung optimiert und damit noch ein paar mehr native Layer wirtschaftlich herstellen kann, indem man mehr Bits pro Zelle speichert oder indem man die Größe und Abstände der Zellen, die beim Wechsel auf 3D NAND deutlich gestiegen sind, wieder verringert. Wobei man mit letzterem wieder auf die Probleme stoßen wird die man zuletzt bei 2D NANDs hatte und es sich mit mehr Bits pro Zelle beißt, da man dann ja auch wieder weniger Elektronen in einer Zelle unterbringen kann und damit die Unterscheidung der Ladungszustände schwerer wird.
Der Sprung zu größeren Volumen dürfte auch keine gewaltigen Kostenvorteile mehr bringen, dafür sind die allgemeinen Kosten wie F&E einfach zu gering, diese liegen bei etwa 10%, selbst wenn man also die Produktionskapazitäten verdoppelt und nicht mehr für F&E ausgibt, spart man also nur rund 5% ein. Daher sehe ich nicht, so da noch ein gewaltiges Potential für Kostensenkungen sein soll, es wird also sicher nicht so weitergehen wie in den letzten beiden Jahren oder im Mittel der 10 Jahre, also man die low hanging fruits ernten konnte.
Das ist aber bei HDDs genauso, die Steigerung der Datendichte ist da auch in den letzten 8 Jahren gewaltig ins Stocken geraten.
Am 26.12.2019 hat WD die erste 18TB HDD ohne SMR mit 9 Platter angekündigt, also erstmals ohne SMR eine Datendichte von 2TB pro Platter erzielt, wenn auch mit einer nicht näher spezifizierten „energy-assisted magnetic recording technology“. Die
erste HDD mit 1TB pro Platter erschien im September 2011, also mehr als 8 Jahre vorher! Die
erste mit 500GB Platter ist vom März 2009, damals hat es also nur 2½ Jahre gedauert die Datendichte zu verdoppelt und danach über 8 Jahre um dies wieder zu erreichen! Das die maximalen Kapazitäten in den letzten 8 Jahren deutlich stärker gestiegen sind, liegt nur daran das man eben mehr Platter untergebracht hat, statt der früher üblichen 4 oder maximal 5 Platter sind es jetzt schon bis zu 9. So viele Platter erfordern nicht nur eine Heliumfüllung, die eine aufwendige Abdichtung erfordern, sondern auch entsprechend flache Platter und Ausleger für die Köpfe. Außerdem ist jeder Platter bei einer HDD ein deutlicher Kostenfaktor. Deshalb sind die HDDs mit den höchsten Kapazitäten heutzutage auch deutlich teurer als damals.
Aber anders als bei NAND, dessen Preis die Kosten von SSDs bestimmt, ist bei HDDs zumindest noch ein Techologiesprung in Sicht, nämlich HAMR dem Seagate und WD das Potential mindestens zur Vervierfachung der Datendichte zutrauen und danach noch HDMR, welches dann nochmal eine Verdoppelung ermöglichen soll. Dann wären wir bei HDDs mit rund 150TB und auch wenn die Kosten (vor allem am Anfang) durch die neue Technologie höher ausfallen, so werden sie kaum linear zur Kapazität steigen. Allerdings muss man sich angesichts der ganzen Verzögerungen die es bisher bei HAMR gab schon fragen wann und sogar ob überhaupt, es jemals gelingt diese Technologie großserientauglich zu machen.