smalM schrieb:
Das Stichwort lautet angekündigt.
Marvell führt den 88SS1093 schon lange unter Products und auch
Phison hat den PS5007-E7 schon unter Products gelistet. Das sind aber eben SSD Controllerhersteller und keine SSD Hersteller, da muss erst noch ein SSD kommen und damit ein Produkt realisieren bevor man die kaufen kann.
smalM schrieb:
Das liegt daran, daß es immer eine zur jeweilig eingesetzten Technik passende Mindestgröße der SSDs gibt.
Bei planar-TLC liegt die aktuell bei 1TB.
Da wäre ich mir nicht so sicher, denn schau Dir mal
diesen Test hier der BX200 480GB und 960GB an, die sind beide nachdem die 6GB bzw. 12GB Pseudo-SLC Schreibcache voll waren auf etwa 75MB/s gefallen. Das deckt sich etwa mit den was auch
tomshardware mit HD Tune ermittelt hat, HD Tune wegen der auf nur 64k voreingestellten Zugriffslänge eben meist etwas schlechtere Werte anzeigt. Von der doppelten NAND Kapazität kann die BX200 also zumindest nicht profitieren! Und unter 80MB/s sind unterirdisch für eine so große SSD, aber die
OCZ Trion schafft als 480GB auch nur eben über 100MB/s ohne Cache schreibend.
Es ist ja auch so, dass je größer die Kapazität einer SSD ist, umso größer der Aufwand für den Controller wird diese zu verwalten. Da gibt es bei jedem Controller eine optimale Kapazität bei der die größere Anzahl an Dies für mehr Performance sorgt als der Mehraufwand für deren Verwaltung kostet und danach steigt vielleicht die seq. Schreibrate noch ein wenig wenn der Controller überhaupt genug Kanäle hat und auch sonst überhaupt in der Lage ist mehr Dies parallel anzusprechen, aber vor allem die Random Performance fällt meist deutlich ab, erst recht im Steady State. Daher hat letztlich immer jede Kombination von Controller und NANDs einen Sweet Spot bei der Kapazität, aber nicht das NAND alleine. Enterprise SSDs haben ja auch deswegen so dicke Controller, da diese halt auch richtig viele Resouircen verwalten können müssen und an so einem würde das TLC NAND dann auch bei über 1TB Kapazität auch noch weiter skalieren.
smalM schrieb:
Das ist den meisten halt zu teuer, also wird auch kleineres mit den bekannten Nachteilen verkauft. Wer bei SSDs zu sehr spart, spart am falschen Platz. Das ist den meisten halt nur schwer zu vermitteln.
Das sage ich ja die ganze Zeit, aber letztlich ist das dann wohl auch schwer zu vermitteln nachdem die SSDs sich vor dem Erscheinen dieser Budget-SSDs eine Weile gar nicht mehr sehr in der Performance unterschieden haben und eigentlich jede SSD schnell genug war, auch weil so ganz lahme Dinger wie die v4 mit dem alten Phison S5 oder solche Nieten wie die Kingston V200 mit dem JMicron praktisch vom Markt verschwunden waren.
smalM schrieb:
Da nur ein winziger Teil der Produktion bei XP941 und SM951 nicht direkt an die Hersteller ging (mit dem Löwenanteil an Apple und Dell), dürfte das für Samsung keine Rolle gespielt haben.
So verstehe ich jetzt nicht worauf Du hinaus willst, aber da es OEM SSDs hat es für Samsung konkret erst einmal keine Auswirkungen jemand die kauft und nicht davon booten kann, Support gibt Samsung dafür nicht wenn der Kunde meint die wäre kaputt und damit ein Garantiefall, muss er sich ebenfalls an den Händler wenden weil er da bei Samsung nur auf taube Ohren stößt, wenn es um OEM SSDs geht.
Samsung kann es daher zunächst mal egal sein, wie viele dieser OEM SSDs in den freien Handeln gelangen, wäre da nicht das Image welches jedes mal leider wenn wieder einer nicht davon booten kann und dann eben einfach weder versteht wieso noch zwischen den Modellen unterscheidet und einfach nur sauer irgendwo postet: Samsung M.2 SSD won' t boot!
Das war der Punkt warum ich denken das sich Samsung dort ein Eigentor geschossen haben könnte. Da hätte man entweder der Vanila-FW für die Modelle die eben nicht an Großkunden wie Apple oder Lenovo gehen ein Option-ROM spendieren sollen oder eben Großhändlern keine verkaufen sollen.
smalM schrieb:
Die 950 Pro ist ja auch erstmals für den Endkunden-Markt gedacht.
Eben und die hat ein Option-ROM, auch wenn das eben nicht auf der Platine sichtbar ist und daher dessen Existenz auch nicht selten abgestritten wird.
smalM schrieb:
Samsung ist Ende Q4 '14 in die 14LPE Vollproduktion eingetreten, TSMC vor gut einem halben Jahr in die 16FF+. Der UBX-Controller dürfte in 28LPP produziert werden, der UAX wurde es wahrscheinlich auch.
Angekündigt wurd die SM951 zwar schon vorher, aber vor der Vollproduktion läuft ja auch schon eine Fertigung und
die Massenproduktion der SM951 begann erst 2015, zeitlich würde es also passen und technologisch auch, basiert der UBX doch auf 3 ARM Kernen und ARM CPUs fing doch die 14nm Serienferigung auch an. Dass der UBX aber noch mit dem gleichen Prozess wie der UAX der XP941 gefertigt wird, halt nicht nur ich für unwahrscheinlich:
smalM schrieb:
Der UBX-Controller stand deutlich früher zur verfügung als V-NAND (der 2. Generation).
Der ging mit der SM951 im Januar 2015 in die Massenproduktion, zeitlich ist dort die 14nm Technologie möglich, aber da dazu nichts sagt, bleibt es Spekulation. Aber schon komisch das
in der Mittelung vom Februar 2015 über die Massenprodktion des ersten "mobile application processor using the advanced 14-nanometer (nm) FinFET process technology" gleich noch ein Hinweis auf die V-NANDs steht, wer weiß was Samsung damit sagen wollte oder warum dem Schreiber der Mittelung das seid 2013 produzierte V-NANDs eingefallen ist, als er für die ersten Mobil-CPU in 14nm berichtet hat
Phison gibt jedenfalls für den PS5007-E7 "28nm CMOS process" an und ebenso
Marvell für den 88SS1093: "Advanced 28nm CMOS process". Beim 88SS9187 macht Marvell hingegen
keine Angaben zum Fertigungsprozess, SMI sagt dazu für
z.B. den SM2256 auch nichts und
Phison sagt zum den S10, der ja noch reich neu ist: "Fabricated in 55 nm CMOS process". Von 55nm beim SATA auf 28nm beim PCIe 3.0 x4 Controller, das zeigt schon wie wichtig das Thema Fertigungsprozess und Abwärme bei den PCIe Controllern für NVMe SSDs ist und wenn Samsung die Temperaturprobleme des UAX beim UBX eben durch Umstellung auf 14nm Fertigung in den Griff bekommen hat, dann wird man bei den anderen Anbietern wohl warten müssen bis diese ebenfalls ihre Controller in 14nm oder 16nm fertigen lassen können und erst dann wäre die 950 Pro nicht mehr alleine auf weiter Flur. Die Alternative Controller zu bringen die ständig überhitzen und drosseln müssen, wäre sicher keine wirklich Alternative um konkurrenzfähig zu sein und Samsung hat nun einmal alles im Hause um den Wettbewerbern da einen Schritt voraus zu sein, sie wären dumm diesen Vorteil nicht zu nutzen.
smalM schrieb:
Die ersten PCIe-SSDs mit dem UBX-Controller sind bereits im Oktober '14 aufgetaucht, da war der 14LPE noch in der Riskproduktion. Der 14LPP ging erst dieses Jahr in die Vollproduktion.
Und die SM951 die diesen Controller zuerst genutzt hat ist eben im Januar 2015 in die Massenproduktion gegangen, davor gab es nur Samples, das passt also doch zeitlich wunderbar. Das es da Bedarf an einem Controller aus einer Fertigung gibt die maximale Energieeffizienz erlaubt, sollte auch klar sein. Es würde mich daher wirklich sehr wundern, wenn der UBX nicht in 14nm gefertigt wird.
AW312 schrieb:
Weil er dann schon zum höheren Preis gekauft hat
Als Geldanlage taugen SSDs nichts, das war aber schon immer so und maximal kurzfristig gehen die Preise mal wieder etwas hoch.
Hallo32 schrieb:
Hat einer von euch schon funktionierende Samples mit den oben erwähnten Controllern gesehen?
Selbst dann kann immer noch alles damit passieren, siehe "Sandforce Controller".
Nein und ja, es könnte passieren. Was den SF-3xxx gekillt hat, kann man auch nicht sicher sagen. Ein Hitzeproblem hatte er aber offenbar, nur wäre es ja immer noch möglich gewesen ihn in 2.5" als SATA Express zu bringen, wurde doch gerüchtweise SATA Express extra im Hinblick auf den SF-3xxx und auch Bestreben von Sandforce eingegeführt.
bensen schrieb:
Backups ersetzen kein zuverlässiges Laufwerk. Ich hab ja keine Langeweile und habe Lust nen neues Laufwerk zu kaufen und alles wieder aufzuspielen.
Das ist klar, aber ein 100%ig zuverlässiges Laufwerk gibt es nicht und selbst wenn es eines gäbe, so lauern auch noch andere Gefahren für die Daten vor denen auch das zuverlässigste Laufwerk nicht schützen kann, ein Backup aber schon.
bensen schrieb:
Ich befürchte, dass es da bald nur noch SanDisk Plus, BX200 und Arc 150 geben wird.
Du meinst Trion 150 statt Arc 150, aber ja, sowas könnte passieren und die Ausnahmen sind dann auch eher von exotischen Herstellern. Solange Samsung die 850 Evo und Pro noch im Programm hat, wird es aber wohl noch sinnvolle Alternativen geben, die Frage wird nur sein wie die sich preislich im Vergleich zu den anderen entwickeln werden, zumal wenn die 750 Evo als neue Waffen im Preiskampf erscheint.
Die andere Sache wäre dann halt, wie die SSDs mit den 3D NANDs der anderen Anbieter abschneiden werden, darüber kann man ja auch bisher nur recht wenig sagen, schon gleich gar nichts wirklich sicher. Vielleicht kann ja dann die TriPlus, BX300, Trion 300 mit 3D NANDs mit der 850 Evo gleichziehen, sie sogar schlagen oder wenigstens wieder in Rufweite kommen, wie es etwa die BX100 war, was bei einem entsprechenden Preisvorteil ja auch für eine Empfehlung reichen könnte.
bensen schrieb:
Kann auch sein, dass noch nicht alle Fabriken umgestellt sind und auch noch eine gewisse Menge planarer NAND vorhanden ist.
Möglich, aber bekommen wohl alle NAND Kunden denn überhaupt 3D NAND von Samsung? Außerdem soll die 750 Evo wohl 16nm NANDs bekommen, die gab es vorher zumindest als TLC ja nicht in Samsung SSDs, als MLC vielleicht in der SM951, aber sicher war diese Aussage auch nie. Die 840 Evo hatte ja noch planares 19nm TLC NAND.
bensen schrieb:
Es sähe aber auch komsich aus, wenn Consumer XPoint Laufwerke billiger sind als Enterprise MLC-Laufwerke. Klar kann man durch weglassen von Powerloss protection etc. halbwegs verhindern, dass alle die Consumerlaufwerke im Enterprisebereich einsetzen, aber klingt irgendwie auch nicht so durchdacht. Ich meine ich fänd das gut, aber glaube da noch nicht so wirklich dran.
Und ich fände es gut und glaube noch dran, aber Deine Argumente sind schon nicht so leicht von der Hand zu weisen. Wie weit man eine Power-Loss-Protection dafür überhaupt braucht ist auch noch so eine Frage, denn das Zeug ist ja wie RAM wahlfrei beschreibbar, sogar fast ähnlich schnell wie RAM (wohl jedenfalls schneller wie die Daten selbst über PCIe 3.0 x4 ankommen) und dazu noch um Größenordnungen haltbarer. Da braucht der Controler fast nichts mehr zu tun, der kann einfach die LBAs linear und fest auf die Speicherbreiche abzubilden und muss wie bei einer HDD allenfalls mal defekte Bereich ummappen und braucht dann eigentlich weder viele Verwaltung- noch Userdaten zu cachen.
Man könnte dann Consumer 3D XPoint SSDs von den Enterprisemodellen vielliecht fehlen des Wear-Levelings und dmait des Mappings und auch die Verwendung weitaus einfacherer Controller unterscheiden, so dass diese bei ständigen Beschreiben der gleichen Adressen doch schneller kaputt sind, was aber durch Anpassung der Filesysteme zu vermeiden wäre oder wie bei RAM eben durch den Verzicht auf eine ECC. Da wäre dann halt die Frage wie anfällig das von sich aus für Bitfehler ist, ob also ohne ECC eine Consumer-HW ausreichende Fehlersicherheit gegeben wäre, dann würden Profis die Dinger eben auch nicht anfassen. Sonst müsste man hat das Level der ECC unterschiedlich machen, für Consumer gibt es dann eben nur eine Lösung mit einer UBER von z.B. 1:10^15 und für Profis eine viel bessere, aber auch das wäre natürlich z.B. über Filesysteme mit Prüfummen zu kompensieren, dann aber wieder auf Kosten der Performance, vielleicht es ja für Intel anzunehmen, dass die Profis genug abschreckt. Oder schlechten Qualitäten sind einfach wirklich nicht besonders haltbar, was zusammen mit z.B. fehlendem Wear-Leveling reicht um sie für Enterpiseanwender abschreckend genug zu machen.
Jeder kann ich mir bei 2€/GB oder noch mehr kaum vorstellen das die Nachfrage von Heimanwendern dann selbst unter den Enthusiasten und selbst wenn die 4K QD1 Performance wirklich spürbar besser ist und sie sich damit deutlich flutischer anfühlt, sehr groß sein wird.
bensen schrieb:
Geschenke hat Intel noch nie gemacht.
Nein, eher im Gegenteil, da schaffen es die Boardhersteller nicht dafür gedachte CPUs doch zu übertakten und schon kommt Intel und fährt ihnen da in die Parade. Bei Intel gibt es wirklich nur wofür man auch bezahlt hat.
bensen schrieb:
Ja aber so? Wenn ich in einem Komitee sitze und dann kommt so ein Ingenieur rein und zeigt mir diesen Anschluss samt Kabelgewirr, dann hätte ich den lauthals ausgelacht und wieder an die Arbeit geschickt.
Aber nur so konnten sie doch irgendwie noch SATA bei PCIe ins Spiel bringen um damit weiter zu tun haben, für PCIe ist ja nun einmal PCI-SIG, also die Peripheral Component Interconnect Special Interest Group zuständig.
bensen schrieb:
Das Problem ist auch einfach das der M.2 so attraktiv wurde für den Desktop.
Wobei ist wetten würde, die dass die allermeisten M.2 Slots in Desktopboard leer sind.
bensen schrieb:
Ich bin auch nach wie vor der Überzeugung das wir nen Lowcost-Stecker brauchen. 4x PCIe mit U.2 ist einfach für Mainstream-Laufwerke überdimensioniert. Klar jetzt reicht dafür SATA. Aber die Laufwerke könnten ja auch alle mehr schaffen, zumindest lesend.
Das wäre ja im Prinzip SATA Express, das war ja für die Consumer gedacht, wärhend U.2 damals noch als SFF-8639 für Enterpise SSDs konzipiert worden war, nur hat die Entwicklung es eben schlicht überrollt, es kamen schnelle PCIe SSDs wie zuerste die XP941 die von den beiden damals auf H97/Z97er Board nur verfügbaren PCIe 2.0 Lanes einfach ausgebremst wirden wären, denn mit der SM951 und 950 Pro eben SSDs die auch mit den inzwischen auf PCIe 3.0 beschleunigten beiden PCIe Lanes nicht mehr auskommen und wer dafür viel Geld ausgibt, will auch die volle Performance bekommen, ob er sie spürt oder nicht.
Dann ist SATA Express ja auch nicht einmal Lowcost, die Kabel sind ähnlich aufwendig oder sogar aufwendiger als die schon im Enterprisesegment genutzten U.2 Kabel, die man ja wie die Buchse von SATA 12Gb/s entliehen hat, also bei noch höhren Frequenzen schon bewährt und fast schon Massenware. Die billigen SATA Kabel und Verbindungen sind bei 6Gb/s am Ende, sonst hätte man auch 12Gb/s gebraucht, aber auch bei SAS musste man eben für 12Gb/s die Kabel und Stecker ändern damit so eine Frequenz noch geht. SATA ist also am Limit und SATA Express ist wohl nicht billiger als U.2, vermutlich eher im Gegenteil, sollte man noch eine neue Norm schaffen oder vielleicht die USB C Stecker nehmen um dann darüber SSD mit 10Gb/s anzuschließen und das Caos was dann nun was für ein Port ist komplett zu machen? Damit hätte man allerdings in der Tat günstig, weil vermutlich bald weit verbreitete und 10Gb/s taugilche Verbindungstechnik.
bensen schrieb:
Wenn wir aber in Zukunft nur noch SSDs einsetzen braucht man auch die entsprechende Infrastruktur. Also entweder viel mehr PCIe-Lanes zur Verfügung oder eben einen x2-Port. 2GB/s sind ja auch ne ganze Menge. Man kann natürlich auch einfach U.2 Ports halb belegen oder so.
Erstens sind wie davon noch weit entfernt nur SSDs in viele Rechnern zu haben, dann werden gerade bei U.2 ja auch große Kapazitäten kein Problem sein, 4TB sollen ja diese Jahr in Form der 850er auf den Markt kommen, 2TB gibt es schon und die wären natürlich ebenso problemlos mit einer 2.5" 950 Pro mit U.2 wie bei einer 850 Pro zu machen. Dann werden die Lanes ja immer mehr, Skylakes Z170 hat schon 20 PCIe Lanes, 12 davon um 3 PCIe SSDs mit je maixmal 4 Lanes anschließen zu können und bei den Chipsätzen für Kaby Lake soll das Topmodell noch mal 4 PCIe Lanes mehr bekommen, Käufer der billigen Chipsätze haben wohl andere Problem als wie sie ihre zahlreichen U.2 SSD jetzt voll anbinden können, dann kann man die Anzahl von PCIe auch über Switches erweitern, der Chipsatz macht ja intern auch nichts anderes und sonst gönnt man eben jeder SSD nur 2 Lanes.
Aber bevor das nun wirklich relevant wird, dürfte noch einiges an Zeit vergehen!
bensen schrieb:
Ich bin aber sehr gespannt wie die Industrie das tote Pferd vom Eis holt.
Einmal haben die Mainboardhersteller ja diese USB 3.1 Frontpanel für SATA Express gebracht, so können sie den Kunden wenigstens eine Nutzung vorführen. Dann gab es von ASUS ja auch mal Prototype einer SATA Express SSD wo intern ein SATA Host Controller mit zwe PCIe SSDs und dann zwei mSATA SSDs drin waren, vielleicht kommt ja in der Richung noch mal was auf den Markt um wenigstens eine Nutzung wenn wieder keine tolle Lösung bieten zu können und für den Rest werden sie die sinnlosen SATA Express Buchsen einfach gegen die viel kompakteren U.2 Buchsen tauschen und diese entsprechend bewerben, da kommt dann groß 32Gb/s U.2 Port auf die Packung. U.2, die kompakten Hochleistungsbuchse für ihre SSDs mit vollen 32Gb/s, oder sowas.
Hauptsache sie merken mal wie tot das Pferd ist: "Wenn du merkst, dass du ein totes Pferd reitest, dann steig ab" (Weisheit der Dakota Indianer).
bensen schrieb:
Beim nächsten Shrink hat man ja auch schon gemerkt, dass das nicht mehr hinhaut.
Weil man eben für viele Bit pro Zelle auch große Zellen braucht die viele Elektronen aufnehmen können damit eine große Zahl von Elektronen den Unterschied zwischen zwei Ladungszuständen ausmacht und die kann man eben leichter unterscheiden. Daher ist es eben nicht nur Kaffeesatzleserei, denn wenn Toshiba dann auch gleich von QLC im Zusammenhang mit seinen 3D NANDs spricht, dann muss es große Zellen haben und damit einen Ansatz der dem von Samsung ähnlich ist.
bensen schrieb:
Aber auf einem Flash memory summit wurden Folien gezeigt mit der rosigen Zukunft, was für hohe Kapazitäten man doch erreichen kann und wie mit jedem Shrink die Kosten sinken. Das das Limit dann doch so schnell erreicht wird, war dann doch nicht abzusehen.
Das ist ja immer so, wenn etwas gut klappt, glaubt man es würde ewig so weitergehen, sonst würde ja auch nie zwei Mensch heiraten
Also Intel die Taktraten der CPUs zu Zeiten der ersten Pentium Generation dann nach Jahrzehnten in einstelligen bis kleinen zweistelligen MHz Bereich ruck-zuck immer weiter bis in die 1GHz und mehr gesteigert bekommen hat, glaubt man auch 10GHz erreichen zu können. Aber irgendwann stößt man dann immer auf Grenzen wo Effekte die man vorher noch ignorieren oder leicht kompensieren könnten, dann unüberwindlich werden.