News Intel SSD in 2020: Optane 2.0 für Mio. IOPS und 144-Layer-QLC-NAND

Nagilum99 schrieb:
Dir ist schon klar, dass das nur für Schreibvorgänge gilt? Merken 99,9 % der Käufer eh nie, weil die Datenmengen einfach viel zu klein sind. Was machst DU genau, dass das problematisch und eine reguläre HDD von Vorteil ist?
Ich kann übrigens nicht sagen, dass SSDs generell früh sterben - und das basiert auf einigen 100 verbauten SSDs.
Du weißt schon, dass ich meine Aussagen unter der Prämisse getätigt habe, dass es hier um Enterprise-Produkte geht und NICHT um Consumer-Produkte? Nicht ich habe hohe Anforderungen, sondern die Geschäftskunden.
 
Da es sich um optane handelt könnte das Schreibproblem bei QLC verschwinden. Nutzen sie hier die chalkogenidbasierten Phasenwechselspeicher ist die Dichte ohnehin nicht groß auch nach der Verdopplung nicht. Demnach sind viele Chips am Kontroller angeschlossen was zu guter lese und schreibperformance und sogar Haltbarkeit führt.

Daher bin ich mit kritik erstmal vorsichtig bis Tests da sind.

Hätte ja selbst gerne eine optane gehabt aber die Größe die ich für ein Systemlaufwerk für angemessen halte kostet viel zu viel als das sich dies lohnt.
 
  • Gefällt mir
Reaktionen: Smartbomb und AlphaKaninchen
Nagilum99 schrieb:
Wie schon erwähnt wurde: Wer "Da auch QLC?" fragt, sollte man das Zeug, das an den Synapsen klebt benutzen und sich fragen, was denn die Alternative sein soll. Etwa 5,25" SSD-Schuhkartons? Irgendwie muss die Datendichte ja gesteigert werden um den Bedarf zu decken.
Nicht mal die würden Helfen da die meisten sich über die Preise beschweren nicht die Speicherdichte.
 
  • Gefällt mir
Reaktionen: Smartbomb und Nagilum99
Weyoun schrieb:
Du weißt schon, dass ich meine Aussagen unter der Prämisse getätigt habe, dass es hier um Enterprise-Produkte geht und NICHT um Consumer-Produkte? Nicht ich habe hohe Anforderungen, sondern die Geschäftskunden.
Dir ist schon klar, dass das auch für die meisten Enterprise Kunden gilt?
Es gibt nur wenige Firmen, bei denen das anders ist - und das sind dann eher Archivierungen bei denen SSDs aus kosten/nutzen-Gründen eh wegfallen.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Nagilum99 schrieb:
Wer Langzeitspeicherung will, sollte seine Daten auf Bändern archivieren.
Im Privatbereich würde ich für kleinere Datenmengen M-Disks empfehlen, aber ja SSD und HDDs sind nichts für Langzeitspeicherung schon alleine weil sie regelmäßig angeschlossen werden müssen.
 
PS828 schrieb:
Da es sich um optane handelt könnte das Schreibproblem bei QLC verschwinden. Nutzen sie hier die chalkogenidbasierten Phasenwechselspeicher ist die Dichte ohnehin nicht groß auch nach der Verdopplung nicht. Demnach sind viele Chips am Kontroller angeschlossen was zu guter lese und schreibperformance und sogar Haltbarkeit führt.

Systeme die hohe Schreiblasten haben, arbeiten eh mit multi-tier, wobei oft RAM als Puffer zum Einsatz kommt, weil SSDs dort dann auch schnell gesättigt werden oder ans IOPS-Limit kommen.
Darüberhinaus eignet sich sicher Optane als Tier 1/Cache für Flash-Laufwerke.

Hersteller großer Storages mit hohen IO-Kapazitäten nutzen auch andere Techniken wie M-RAM von Everspin.
Leider syndhaft teuer und nur in Chips bis 1 Gbit verfügbar.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Richtig. Aber der letzte Sprung in den consumerhereich gelingt eben leider noch nicht aufgrund des Preises. Dieser ist viel höher als klassischer NAND. Gemessen an meinem Beispiel mit der P950 980 GB ist optane gar 10-15 Fach teurer.

Hier vergleich ich zwar ziemlichen Abfall NAND, aber selbst wenn man zu teureren NAND von namenhaften Herstellern wie Micron oder Samsung zurande zieht, ist es für den Heimgebrauch unmöglich diesen Aufschlag zu rechtfertigen.

Daher wird Optane wohl erstmal in seiner niesche bleiben. Ob Intel ein Interesse daran hat Xpoint auch anderen Feldern zugänglich zu machen weiß ich nicht
 
Fleischmann schrieb:
Ich verstehe gar nicht, warum so viele der Meinung sind, dass aktuelle Technik in 20 bis 30 Jahren veraltet sein soll? Was wollt ihr denn eigentlich mit euren Computern in Zukunft machen können, was ihr jetzt nicht schon in absoluter Perfektion machen könnt?
Abgesehen von Zocken fällt mir das absolut nichts ein.
Diesen Ansicht halte ich doch für extrem kurzsichtig. Natürlich ist sie veraltet und höchstens noch für Retro-Sammler, hinterher hinkende Datenmigration oder einfachste Tätigkeiten brauchbar.

Nur weil Du Dir aktuell etwas noch nicht vorstellen kannst, heißt es nicht, dass es dann nicht gebraucht wird.
Vor 20 Jahren konnte sich noch keiner sinnvoll vorstellen mit einem Smartphone herumzurennen.
Ein PC von 2010 ist heute kaum mehr geeignet für die aktuellen Anforderungen an bspw. Videoschnitt oder 3D-Visualisierung. Das sind nur 10 Jahre Zeitunterschied. Weiter zurückgehen will man da schon nicht mehr.

Wieviele Lochkartengeräte von 1970 oder 360Kb-Disks benutzt Du noch effizient? Wie oft läuft Dein CD-Brenner noch?
Wie oft benutzt Du noch eine 5 Jahre alte 120GB SSD als internes Laufwerk, wenn man in die begrenzten Steckplätze auch schon 2TB fürs gleiche Geld bekommt und damit auch die gestiegenen Datenkapazitäten abdecken kann? Genauso als externes Laufwerk werden sie zunehmend in der Schublade liegen bleiben, wenn man schon mehr Kapazität in kleinen Flash-Sticks fürs Schlüsselbund bekommt.

Die Software und Anwendungsmöglichkeiten werden in Zukunft derart komplex, intelligent, integriert und vielfältig, das können wir heute nur trübe erahnen. Und damit steigen auch die Anforderungen an Hardwareleistung und Datenkapazität kontinuierlich. Die gesamte Arbeitsweise kann sich ändern. Vielleicht klickt dann keiner mehr mit Maus und Tastatur herum?

AlphaKaninchen schrieb:
Im Privatbereich würde ich für kleinere Datenmengen M-Disks empfehlen, aber ja SSD und HDDs sind nichts für Langzeitspeicherung schon alleine weil sie regelmäßig angeschlossen werden müssen.
Das Problem mit den M-Disks sehe ich nicht nur in der relativ immer kleiner werden Kapazität, sondern künftig vor allem darin, dass es dafür keine Laufwerke mehr geben könnte. Wer hat heute noch ein 5,25 Disk-LW. Das gleiche Schicksal wird die 3,5" Diskette oder Speichermedien wie Zip-Drive usw. ereilen. Wird immer schwieriger. Ich habe noch Schallplatten im Schrank, aber keinen Plattenspieler mehr. ^^

In ferner Zukunft wird auch keiner mehr den Algorithmus kennen die darauf geschriebenen Einsen und Nullen in sinnvolle Daten zurückzulesen. Wirkliche Langzeitspeicherung findet analog statt, wie das Rosetta-Projekt usw. Aber das führt jetzt zuweit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, Holt und AlphaKaninchen
Bin gespannt ob die neuen SSD-Produkte mit PCIe 4.0 so lange zurückgehalten werden bis Ice Lake-SP-Systeme breit verfügbar sind oder "zeitnäher" erhältlich sein werden.
 
gaelic schrieb:
Naja, da gibts mittlerweile einige sehr hohe:

Häng dich nicht zu sehr an dem Hochhaus aus Holz auf, sonst merkst du irgendwann, dass alles ein Turmbau zu Babel werden kann und das Material nur ein Transportmittel für fehlende Vorstellungskraft ist. :heilig:

Höhe ist relativ und mit Holz schafft man "weniger" Meter als mit anderen Materialien, "viel" ist es trotzdem.

In die Höhe zu bauen ist aber wenigstens "die Höhe" und mit Holz hat man weniger Mittel als mit Stahl (z.B.). Limitiert sind beide und spätestens wenn man Probleme durch Krümmung mit der Oberfläche des Objektes auf dem man steht bekommt (im 3D Raum ist nichts flach) merkt man, das selbst Höhe nur eine Dimension ist.

Binäre Sachen sind nicht wirklich gut und eine "Zelle" darf auch mehr Zustände haben als voll und leer (an und aus). Aber das ist dann schon wieder "Zukunftsmusik" und vieles muss halt gebaut werden, weil das hier und jetzt nicht gut genug ist. :evillol:

mfg
 
Weyoun schrieb:
Ich nutzt heute noch Festplatten, die älter sind als 10 Jahre
Hier läuft noch eine 128er OCZ Core aus 2008 :)
Und eine 128er Samsung 830 aus 2012.
 
Nagilum99 schrieb:
Dir ist schon klar, dass das auch für die meisten Enterprise Kunden gilt?
Es gibt nur wenige Firmen, bei denen das anders ist - und das sind dann eher Archivierungen bei denen SSDs aus kosten/nutzen-Gründen eh wegfallen.
Bei uns in der Entwicklung läuft ein Teil der Rechner 24 Stunden täglich mit CANape, CANalyzer oder CANoe, deren Datenströme kontinuierlich aufgezeichnet werden. Da fallen teils immense Datenströme an, die auf den SSDs der Messrechner zwischengespeichert werden, bevor sie in komprimierter Form auf die Netzlaufwerke gelangen. Da ist es schon wichtig, dass die SSDs lange halten und nicht alle 100 Tage ausgetauscht werden müssen. Aus diesem Grund hat man bei diesen Rechnern so lange wie möglich auf Festplatten gesetzt.
 
[wege]mini schrieb:
Heute muss man den Aktionären verbieten, jeden Tag zu saufen, sonst ist das Produkt immer "krumm"...kompliziert....
Was haben die Aktionäre damit zu tun? Die sind zwar die Eigentümer des Unternehmens, aber die Entscheidung trifft die Geschäftsführung.
[wege]mini schrieb:
In der Theorie spricht absolut nichts gegen QLC. Niemand braucht das Zeug noch in 10 Jahren und daher sollte man eine Mischung aus Haltbarkeit, Geschwindigkeit, Menge und Kosten bauen.
Eben, da die benötigten Kapazitäten immer weiter steigen, brauchen SSDs (und auch HDDs) nicht länger halten als nötig, bis sie schon wegen der Kapazität ersetzt werden, auch wenn manche ihre Museumsstücke weiterbetreiben wollen, die Masse ersetzt sie nach einigen Jahre durch neue, größere.
Bob.Dig schrieb:
Bitte ohne Flash, danke.
Welche Optane hat denn bitte Flash? Nur die H10 und die ist sowieso ein Sonderling unter den Optane, weil da eigentlich zwei SSDs auf einer Platine verbaut sind, eine Optane Memory und eine 660p, die sogar jeweils über zwei Lanes getrennt angesprochen werden, wo die jeweiligen Controller also nicht einmal direkt miteinander kommunizieren.
Topflappen schrieb:
Da werden ja munter Gen 2 und Gen 4 durch einen Raum geworfen.
Wo? Gen 2 bezieht sich auf die zweite Generation der 3D XPoint ("3DXP Gen 2"), Gen 4 sehe ich gar nicht, nur PCIe 4.0 und eben 144Layer NAND, welches die 4. Generation der 3D NANDs von IMFT ist, auch wenn sich Intel und Micron zwischenzeitlich getrennt haben und jeder künftig bei der Weiterentwicklung eigene Wege geht.
drunk_chipmunk schrieb:
mit einer teuren Samsung 830 Pro passiert
Es gab keine 830 Pro, der Zusatz Pro für Modelle mit MLC NAND wurde erst mit dem Nachfolger 840 Pro eingeführt, denn erst mit der 840 wurde überhaupt erstmal TLC NAND eingeführt und davor hieß die SSD eben nur 830 und deren Vorgänger war die 470, beide bei MLC und ohne Pro in der Bezeichung.
deo schrieb:
Das heißt dann wohl, dass auf der gleichen Fläche, höhere Wärme entwickelt wird und die SSD zwingend einen Kühler haben sollte, der bisher optional war.
Was bei einer SSD warm wird und gekühlt werden muss, ist i.d.R. der Controller und weniger das NAND, wobei die NANDs aber auch immer effizienter werden, so dass mehr Layer nicht zwangsweise auch mehr Leistungsaufnahme bedeuten.
[wege]mini schrieb:
Die Speicherung von Informationen erzeugt keine Wärme, sonst würden die SSDs dauerhaft warm sein.
Die Datenhaltung kostet keine Energie, die Speicherung schon, bei Schreiben und Löschen werden NANDs daher sehr wohl warm, beim Auslesen ebenso.
Fleischmann schrieb:
Und wieso sollte aktuelle Software und Hardware in 40 bis 50 Jahren nicht mehr genutzt werden?
Weil auch die übrige Hardware nicht ewig hält und da die Leistungsanforderungen ständig steigen, wären es auch unsinnig teuer bis technisch unmöglich so langlebige Hardware zu bauen. Ein Beispiel sind die Packages der Chips, früher waren das DIP, da gingen die Beinchen an beiden Seite raus, waren nach unten abgeknickt und wurden in löchern in der Platine verlötet. Die konnten die Wärmeausdehnung des Chips sehr gut kompensieren, aber man bekommt damit nur wenige Pins hin und die Löcher gehen durch alle Layer der Platine, aber damals waren die nur entweder ein- oder doppelseitig. Die Logik solcher Chips war aber extrem einfach, die hatten nur wenige Transistoren, absolut und auch pro mm², halten dafür aber ewig.

Eine aktuelle CPU mit über 1000 Pins wäre so nicht machbar, schon weil die Leitungslängen zu den Pins für die meisten Anschlüsse wie die zum RAM oder den PCIe Lanes viel zu lang wären, die sind also heute gesockelt oder als BGA Packages direkt verlötet, ebenso wie fast alles Chips, auch NAND heute BGA sind. Da sind die Anschlüsse auf der Unterseite und jedesmal wenn der Chip warm wird und sich daher ausdehnt, wirken Scherkräfte auf die Lötstellen und warm werden sie, vor allem CPUs und GPUs wenn sie die Leistung bringen sollen die die Kunden heute wünschen und damit sie Energie sparen wenn die Leistung nicht gebraucht wird, takten sie runter und schalten gerade nicht genutzte Funktionen ab, kühlen also schnell wieder aus. Die Grakas sterben gerne genau wegen der Belastung der Lötstellen, wenn dann irgendwann eine nachgibt (kalte Lötstelle) und immer wenn sie dann durch "Aufbacken" wieder zum Leben erweckt werden konnte, was genau dies die Ursache des Ausfalls. Manche haben auch schon SSDs durch Aufbacken wiederbelebt, auch da gibt es diese Problem und Blei darf man im Lot wegen der Umwelt ja auch nicht mehr verwenden.
Fleischmann schrieb:
Gab vor kruzem eine nette Meldung zur Boing 747 bei der noch heute Softwareupdates mit einer Floppy eingespielt werden.
Die werden aber auch ausrangiert und bei denen Ändert sich die Anforderung an die Rechenleistung nicht mehr. Aber hast Du auch gelesen wie groß und schwer die Rechner dort an Board sind? Jedes Kilo welches an Board ist kostet zusätzlichen Treibstoff. Das man die alte Technik trotzdem nie modernisiert hat, dürfte auch daran liegen, dass auch die Trimmung stimmen muss, man kann also nicht einfach vorne Gewicht wegnehmen, ohne es auch hinten zu machen und die Rechner des Flugzeugs sind halt vorne, daher lohnt es sich nicht diese leichter zu machen.
Fleischmann schrieb:
1. Es geht nicht unedingt um kaputtschreiben. Je öfter die Speicherzellen beschrieben werden, desto schneller verlieren sie die Ladung, was bedeutet, dass Datenverlust viel schneller und häufiger eintreten kann, bevor die SSD ganz kaputt ist.
Das ist richtig, wobei das Verhalten nicht linear ist und die Controller dies durch häufigere Refresh Zyklen und die Fehlerkorrektur auch kompensieren. Datenverlust tritt wegen Ladungsverlust allenfalls ein, wenn die SSDs zu lange ohne Stromversorgung gelagert wird.
Fleischmann schrieb:
2. Wieso sollte eine NVME mit der gigantischen Datendurchsatzrate der aktuellen Modelle oboslet werden? Was erwarten Sie noch mehr von einem Speicher?
Mehr Kapazität! Vor 10 Jahren waren 64GB schon eine große SSD und richtig teuer, heute sind 500GB die wohl häufigste Größe und der Trend geht klar zu 1TB. Auf 64GB ein Win 10 zu installieren ist zwar möglich, aber man muss dann ständig hinter Windows herräumen und dazu haben die meisten User keine Lust. Selbst als 128GB noch die übliche Größe war die fürs Systemlaufwerk gekauft wurde, gab es hier im Forum laufend Thread wo sich jemand wunderte wieso die SSD voll ist.
Draco Nobilis schrieb:
Nach dem letzten Desaster kann mir Intel bei SSD für ein Jahrzehnt gestohlen bleiben.
Jeder der es wissen muss weiß was ich meine xD
Also ich kenne mich mit SSDs aus und weiß nicht was du meinst, erkläre das doch bitte mal. Bzgl. der Controller muss man bei Intel zwischen den billigen Consumer SSDs mit zugekauften Controllern und den Enterprise (und den davon abgeleisteten Consumer-) Modellen unterscheiden, erste sind allenfalls wegen des Preises attraktiv, so war die 660p 2TB eine ganze Zeit lang die billigste 2TB SSD überhaupt. Die von den Enterprise Modellen, wo Intel eigene Controller verwendet, abgeleiteten Consumer Modelle wie die Intel 750 und aktuell die Optane 900P/905P sind nur für Enthusiasten die auch bereit sind für deren besondere Eigenschaften richtig Geld zu bezahlen.
Botcruscher schrieb:
Dazu ist im Gegensatz zu TLC bis heute kein Preisvorteil vorhanden.
Wenn man nicht Äpfel mit Birnen vergleicht dann schon! So ist z.B. eine Samsung QVO eben billiger als die vergleichbare EVO, oder etwa nicht? Das man von anderen Anbietern SSDs mit gleicher Kapazität mit TLC zum Preis der QVO bekommt, besagt nicht das QLC keinen Preisvorteil hat.
Beitrag schrieb:
Performanceverbesserungen und vor allem höhere Speicherdichte für Optane, das hört sich gut an.
Ich sehe ja wenig Sinn in aktuellen PCIe 4.0-SSDs, weil die in den meisten Fällen entscheidnderen Zugriffszeiten da einfach nicht besser werden. Wenn Optane preislich attraktiver wird, wäre das schon mal deutlich interessanter.
Die Preise der Optane sind wirklich hoch, aber Samsung Z-SSDs sind auch nicht billiger als die Consumer Optane SSDs. Aber mit der nächsten 3XD XPoint Generation mit dann doppelt so vielen Layern wird hoffentlich helfen die Preise zu senken. Wobei 4 Layer im Vergleich zu NAND immer noch wenig sind,
aber NAND hat Jahrzehnte an Entwicklungsvorsprung und einen bestechend einfachen Aufbau, der es einfach unschlagbar billig sein lässt, dafür hängt es von den technischen Eigenschaften her weit zurück.
Weyoun schrieb:
Und wie rohe Eier behandele ich meine alten Festplatten bestimmt nicht.
Zumindest vom Handling her sollte man dies, wie dieses Video über die Empfindlichkeit und korrekt Handhabung von HDDs auch deutlich ermahnt.
LamaMitHut schrieb:
Minderwerig sind eher Produkte wie Optane. Ich muss 4 SSDs anstelle von einer kaufen, um auf 8TB zu kommen. Nachhaltig geht anders.
Ein Produkt als minderwertig zu bezeichnen weil es nicht in einer bestimmten Kapazität angeboten wird, ist aber schon eine sehr komische Einstellung. Dann ist ein Ferrari auch minderwertig weil es keine 7 Sitzer gibt? Oder Rolls Royce weil sie keine Camper bauen?
PS828 schrieb:
Da es sich um optane handelt könnte das Schreibproblem bei QLC verschwinden.
Was hat Optane mit QLC zu tun? Hier im Artikel geht es um zwei unabhängige Nachrichten, einmal um die neuen Optane mit dem neuen 3D XPoint der 2. Generation mit 4 Layern und einmal um die neuen 3D NANDs mit 144 Layern, aber das eine hat mit dem anderen nichts zu tun und Probleme mit der Schreibperformance hat 3D XPoint gar nicht, dies kennt nicht einmal einen Steady State Zustand, da man jeder Zelle einzeln beliebig überschreiben kann, während man bei NANDs immer ganz Blöcke (von z.B. 512 oder 1024 Pages) löschen muss.
PS828 schrieb:
Aber der letzte Sprung in den consumerhereich gelingt eben leider noch nicht aufgrund des Preises. Dieser ist viel höher als klassischer NAND. Gemessen an meinem Beispiel mit der P950 980 GB ist optane gar 10-15 Fach teurer.

Hier vergleich ich zwar ziemlichen Abfall NAND, aber selbst wenn man zu teureren NAND von namenhaften Herstellern wie Micron oder Samsung
Wieso Abfall NAND? Und wieso namhafte NAND Hersteller? Es gibt nur wenige NAND Hersteller, die kennt man alle beim Namen, da gibt es keine Hinterhofklitschen, die gibt es nur bei denen die SSDs aus dem NAND der NAND Hersteller bauen, denn bei jedem Hersteller passiert es, dass einzelnen Dies auf dem Wafer und ganze Wafer besser oder schlechter gelingen und die schlecht gelungenen sind eben bei NAND nicht so haltbar und die kann man dann als minderwertige NANDs bezeichnen, aber nicht gut gelungenen die aber konstruktionsbedingt nicht so viele P/E Zyklen aushalten, z.B. weil sie mehr Bits pro Zelle speichern.

Solche NANDs minderer Qualitäten sind aber noch längst kein Abfall wenn sie funktionieren, die werden für einfache Anwendungen wie Spielzeug, billige Smartphones, USB Sticks (die Werbedinger brauchen ja im Grunde nur einmal beschrieben werden zu können) etc. nur eben nicht für den Einsatz in SSDs, entsprechend werden solche minderen Qualitäten auch verkauft und sind natürlich billiger als gut gelungene Dies, also hochwertige Qualitäten. Nicht jeder SSD Hersteller hält sich an diese Verwendungsempfehlung und so kommen solche minderen Qualitäten dann doch in SSD, damit der Anbieter dies billiger verkaufen kann und trotzdem noch Geld damit verdient.
PS828 schrieb:
Daher wird Optane wohl erstmal in seiner niesche bleiben. Ob Intel ein Interesse daran hat Xpoint auch anderen Feldern zugänglich zu machen weiß ich nicht
Haben sie doch schon längst: Intel® Optane™ DC Persistent Memory
JBG schrieb:
Bin gespannt ob die neuen SSD-Produkte mit PCIe 4.0 so lange zurückgehalten werden bis Ice Lake-SP-Systeme breit verfügbar sind oder "zeitnäher" erhältlich sein werden.
Die Frage ist vielleicht eher ob sie nicht Ice Lake-SP zurückhalten bis die neuen Optane Produkte fertig sind, denn die große Jungs haben ihre Ice Lake-SP schon lange:
Die großen Kunden haben Ice Lake also schon lange, in aller Regel so 12 bis 18 Monate bevor sie auf den Markt kommen und die bekommen demnächst die ersten Sapphire Rapids.
 
  • Gefällt mir
Reaktionen: Smartbomb, gaelic, Mut4nt und eine weitere Person
Da hab ich das versehentlich vermischt :D war kurz nach dem Aufstehen.

Ändert aber nix dran dass optane für mich persönlich als Systemplatte weiterhin viel zu teuer ist da mir sonst Schlicht die Kapazität fehlt
 
Holt schrieb:
lso ich kenne mich mit SSDs aus und weiß nicht was du meinst, erkläre das doch bitte mal. Bzgl. der Controller muss man bei Intel zwischen den billigen Consumer SSDs mit zugekauften Controllern und den Enterprise (und den davon abgeleisteten Consumer-) Modellen unterscheiden, erste sind allenfalls wegen des Preises attraktiv, so war die 660p 2TB eine ganze Zeit lang die billigste 2TB SSD überhaupt. Die von den Enterprise Modellen, wo Intel eigene Controller verwendet, abgeleiteten Consumer Modelle wie die Intel 750 und aktuell die Optane 900P/905P sind nur für Enthusiasten die auch bereit sind für deren besondere Eigenschaften richtig Geld zu bezahlen.
Ich rede von "Consumer" Modellen die früher oft in Notebooks der OEMs verbaut wurden.
Katastrophale Lebenserwartung ein Großteil der Dinger schrieb sich selsbt tot. Die Lösung, eine Firmware, musste aufgespielt werden und der Rechner stundenlang laufen um das zu fixen, wenn man nach der Firmware direkt herunterfährt kann Datenverlust entstehen.
Enterprise SSD sind sicher anderes Thema. Aber es ist einfach unfassbar, niemand hat sich je sowas leisten können. Hätte es jemand anders getan, hätte man denjenigen wohl für Jahre ausgeschlossen.

Holt schrieb:
Zumindest vom Handling her sollte man dies, wie dieses Video über die Empfindlichkeit und korrekt Handhabung von HDDs auch deutlich ermahnt.
Schönes Video. Gefällt mir sehr. Erinnert mich ein wenig an Gabelstapler Klaus, weiß nicht wieso.

Holt schrieb:
Die Preise der Optane sind wirklich hoch,
Womöglich hat die (mangelnde) Verbreitung von Optane etwas mit dessen Preis zu tun :D ^^
 
Draco Nobilis schrieb:
Ich rede von "Consumer" Modellen die früher oft in Notebooks der OEMs verbaut wurden.
Katastrophale Lebenserwartung ein Großteil der Dinger schrieb sich selsbt tot.
Welche? Es gab wohl vereinzelt bei denen mit dem schrottigen Sandforce Controller solche Probleme, wirklich schlimm war dies aber bei den SSDs mit Indilinx Controller, aber damit hat Intel nichts zu tun, die Indilinx Controller hat Intel nie verwendet. Ich denke du hast da was verwechselt.
Draco Nobilis schrieb:
Womöglich hat die (mangelnde) Verbreitung von Optane
Der eigentliche Markt für die Optane sind nicht die privaten Endkunden, da sind sowieso nur die 900P/905P interessant aber bei den Preisen nur für Enthusiasten, sondern der Enterprisemarkt. Anderes als etwa Samsung die mit den Z-SSDs ja auch Low-Latency Modelle für Enterprisekunden anbieten, macht Intel seine interessanten Enterprise SSDs über die Ableger für Consumer auch den privaten Endkunden zugänglich, mit Garantie, Support und FW Updates! Die bekommt man für die Enterprise SSDs nämlich in aller Regel nicht.
 
Holt schrieb:
Welche? Es gab wohl vereinzelt bei denen mit dem schrottigen Sandforce Controller solche Probleme, wirklich schlimm war dies aber bei den SSDs mit Indilinx Controller, aber damit hat Intel nichts zu tun, die Indilinx Controller hat Intel nie verwendet. Ich denke du hast da was verwechselt.
Wenn du die SSD Serien die das haben nicht kennst, ist dies keine Information die ich dir geben kann.
Du must mir natürlich nicht glauben. Intel selbst hat dazu auch Artikel, die beschönigen das aber massivst.
Eine Firmware die das löst zu empfehlen ist toll. Nur holt die das Kind aus den Brunnen nicht mehr heraus wenn es reingefallen ist.

Holt schrieb:
Der eigentliche Markt für die Optane sind nicht die privaten Endkunden, da sind sowieso nur die 900P/905P interessant aber bei den Preisen nur für Enthusiasten, sondern der Enterprisemarkt. Anderes als etwa Samsung die mit den Z-SSDs ja auch Low-Latency Modelle für Enterprisekunden anbieten, macht Intel seine interessanten Enterprise SSDs über die Ableger für Consumer auch den privaten Endkunden zugänglich, mit Garantie, Support und FW Updates! Die bekommt man für die Enterprise SSDs nämlich in aller Regel nicht.
Da hast du natürlich recht, hab ja nichts gegen Optane. Das es nicht irgendwo von oben mal nach unten ankommt, das kreide ich an. Selbe wie bei HBM, einfach zu teuer und unflexibel. Daher kein Durchbruch und Angebot im Massenmarkt. Dabei müsste es das nicht zwingend sein. Abhängig von der Fertigung. Mir kommt es so vor als ob man da nicht groß investieren will und lieber weiter mit wer weiß was für Fantasiemargen Enterprise abmelkt xD Dazu passt das man nach etwa 4 Jahren es schafft eine Gen2 herauszubringen. Stapeln bezeichnet ja nicht mal Intel als Gen, macht jeder, weil ökonomisch.
 
Draco Nobilis schrieb:
Wenn du die SSD Serien die das haben nicht kennst, ist dies keine Information die ich dir geben kann.
Du must mir natürlich nicht glauben.
Da bin ich froh es nicht glauben zu müssen, denn wenn die konkreten SSDs nicht genannt werden können, würde mir das auch schwerfallen.
Draco Nobilis schrieb:
Das es nicht irgendwo von oben mal nach unten ankommt, das kreide ich an.
Genau wie bei HBM sind die Kosten eben hoch, bei 3D XPoint wegen der komplizierten Fertigung, da werden Materialien verwendet die selten sind und sonst gar nicht in der Halbleiterfertigung verwendet werden:
Bei HBM braucht man wegen der vielen Anschlüsse immer einen Halbleiter Interposer und die sind teuer. Man kann sich immer beschweren das etwas zu teuer ist, aber dem ist halt so und so billig die NAND Flash wird wohl kein Halbleiterspeicher jemals werden, eben weil dies so bestechend einfach ist. Im Vergleich zu allen anderen Storage-Class Memory Technologie ist 3D XPoint aber sehr billig und bietet sehr hohe Kapazitäten. Man sollte nicht vergessen das die Optane SSDs zwar auch nur Massenspeicher sind, aber eben doch Eigenschaften hat, geringe Latenz, kein Steady State und kein Einbruch bei Mixed I/O, wie sie keine andere SSD bietet und sowas kostet dann eben.
Draco Nobilis schrieb:
Mir kommt es so vor als ob man da nicht groß investieren will und lieber weiter mit wer weiß was für Fantasiemargen Enterprise abmelkt xD
Man sollte hier nicht vergessen, dass 3D XPoint eine Entwicklung von Intel und Micron aus der Zeit des gemeinsamen Joint-Ventures IMFT ist, welches inzwischen beendet wurde. Es ist also ein Scheidungskind und während Micron die Fab übernommen hat wo das 3D XPoint bisher gefertigt wird, haben sie außer Showcases wie der X100 bisher kein Produkt damit rausgebracht, sondern verkaufen die ganze Fertigung an Intel.
Bin mal gespannt was Micron dann bringt, wenn Intel die 3D XPoint Fertigung für seinen Bedarf selbst übernimmt.
Draco Nobilis schrieb:
Dazu passt das man nach etwa 4 Jahren es schafft eine Gen2 herauszubringen. Stapeln bezeichnet ja nicht mal Intel als Gen, macht jeder, weil ökonomisch.
Am Anfang dauert die Weiterentwicklung immer länger als hinterher, wenn man mehr Erfahrung mit dem Produkt und dessen Produktion hat. Dies ist vollkommen normal und danach kommt so eine "Sturm und Drang" Phase wo es schnell vorangeht, bis man irgendwann an technische oder physikalische Grenzen stößt, die man entweder durch einen Technologiesprung oder -wechsel überwinden kann oder dann nur noch in ganz kleinen Schritten vorankommt.

Gestapelt wird da auch nicht wirklich, darunter versteht man nämlich das Stacking von Dies, wie es (außer Samsung) alle NAND Hersteller machen, die 4 Layer der Gen2 3D XPoint sind soweit ich die News verstanden haben, native Layer ohne Stacking.
Wenn man Layer und Stacking allerdings versucht jeweils als Stapel oder Stapeln in Deutsche zu übersetzen, dann geht dies schnell durcheinanders, weshalb man für solche Dinger besser die englischen Originalbegriffe verwenden sollte und am besten die News auf englisch liest.
 
  • Gefällt mir
Reaktionen: Smartbomb und Draco Nobilis
@Holt
Ich geb dir ja in allem Recht, ändert aber nichts am Resultat.
Das Potential ist da, aber man kann / will es nicht bei Consumern anbieten.
Die HBM Geschichte kenne ich soweit. Da hatte AMD spekuliert, das es günstiger werden würde, wenn man nur mal in Massenproduktion geht, weil der Markt mehr davon ordert.

Wegen der Optane SSD:
Es ändert leider nichts daran, das dies eine Technologie / Produkt ist, die die allermeißten Kunden nicht erfahren werden. Und ich denke eher das es einfach nicht gewollt ist respektive man da (noch) keine Notwendigkeit dahinter sieht. Hybrid SSDs bei dem das OS entsprechend vorgehalten wird würden sicher Anklang finden (früher SSH Disks). Wenn man einen Preis nennt der nicht zu abgehoben ist. Ansonsten wird die Produktionskapazität nicht erhöht und die Kosten bleiben sehr weit oben. Es wird sich dann einfach nichts ändern.
 
Draco Nobilis schrieb:
Das Potential ist da, aber man kann / will es nicht bei Consumern anbieten.
Intel bietet es ja gerade auch den Consumern an, während Micron überhaupt gar nicht plant ein Produkt mit 3D XPoint für Consumer zu bringen, wobei sie bisher eben noch gar kein 3D XPoint Produkt gebracht haben, zuerst hatte man eine QuantX genannte SSD mit einem Third Party Ccontroller angedacht, haben sie dann die X100 als „schnellste SSD der Welt“ gezeigt, aber von einer Consumerversion ist ebensowenig die Rede wie bei den Samsung Z-SSDs.

Draco Nobilis schrieb:
Es ändert leider nichts daran, das dies eine Technologie / Produkt ist, die die allermeißten Kunden nicht erfahren werden.
Das ist bei hochpreisigen Enthusiastenprodukten doch immer so, nicht nur bei den Optane und auch nicht nur bei Computerhardware, die wenigsten Autofahrer werden ja erfahren wie es ist einen Porsche, Ferrari oder gar Bugatti zu fahren.
Draco Nobilis schrieb:
Hybrid SSDs bei dem das OS entsprechend vorgehalten wird würden sicher Anklang finden (früher SSH Disks).
Solche Optane fürs das Caching gibt es ja auch, aber die sind bei den aktuellen Preisen für normale SSDs einfach nicht wirklich attraktiv, da eine HDD mit Caching eben nur begrenzt eine SSD ersetzen kann, sie ist eben nur schnell, wenn die Daten auch gerade schon im Cache stehen und außerdem erhöht die Verwaltung des Caches die Latenz und beraubt so die Optane ihres für den Heimanwender wichtigsten Vorteils. Aber da geht die billigste 16GB schon bei 20€ los, dies sollte sich jeder leisten können, weshalb es Unsinn ist anzunehmen es wäre einfach nicht gewollt das sich jeder eine Optane kaufen könne. Mit der geringen Kapazität lässt sich kaum etwas sinnvolles machen außer eben Caching, ich nutze sie aber z.B. als Linux Systemlaufwerk in meinem Heimserver, es ist eben einfach eine normale M.2 NVMe SSDs.
 
Zurück
Oben