Du weißt schon, dass ich meine Aussagen unter der Prämisse getätigt habe, dass es hier um Enterprise-Produkte geht und NICHT um Consumer-Produkte? Nicht ich habe hohe Anforderungen, sondern die Geschäftskunden.Nagilum99 schrieb:Dir ist schon klar, dass das nur für Schreibvorgänge gilt? Merken 99,9 % der Käufer eh nie, weil die Datenmengen einfach viel zu klein sind. Was machst DU genau, dass das problematisch und eine reguläre HDD von Vorteil ist?
Ich kann übrigens nicht sagen, dass SSDs generell früh sterben - und das basiert auf einigen 100 verbauten SSDs.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Intel SSD in 2020: Optane 2.0 für Mio. IOPS und 144-Layer-QLC-NAND
- Ersteller Volker
- Erstellt am
- Zur News: Intel SSD in 2020: Optane 2.0 für Mio. IOPS und 144-Layer-QLC-NAND
Da es sich um optane handelt könnte das Schreibproblem bei QLC verschwinden. Nutzen sie hier die chalkogenidbasierten Phasenwechselspeicher ist die Dichte ohnehin nicht groß auch nach der Verdopplung nicht. Demnach sind viele Chips am Kontroller angeschlossen was zu guter lese und schreibperformance und sogar Haltbarkeit führt.
Daher bin ich mit kritik erstmal vorsichtig bis Tests da sind.
Hätte ja selbst gerne eine optane gehabt aber die Größe die ich für ein Systemlaufwerk für angemessen halte kostet viel zu viel als das sich dies lohnt.
Daher bin ich mit kritik erstmal vorsichtig bis Tests da sind.
Hätte ja selbst gerne eine optane gehabt aber die Größe die ich für ein Systemlaufwerk für angemessen halte kostet viel zu viel als das sich dies lohnt.
AlphaKaninchen
Commander Pro
- Registriert
- Mai 2018
- Beiträge
- 2.982
Nicht mal die würden Helfen da die meisten sich über die Preise beschweren nicht die Speicherdichte.Nagilum99 schrieb:Wie schon erwähnt wurde: Wer "Da auch QLC?" fragt, sollte man das Zeug, das an den Synapsen klebt benutzen und sich fragen, was denn die Alternative sein soll. Etwa 5,25" SSD-Schuhkartons? Irgendwie muss die Datendichte ja gesteigert werden um den Bedarf zu decken.
Dir ist schon klar, dass das auch für die meisten Enterprise Kunden gilt?Weyoun schrieb:Du weißt schon, dass ich meine Aussagen unter der Prämisse getätigt habe, dass es hier um Enterprise-Produkte geht und NICHT um Consumer-Produkte? Nicht ich habe hohe Anforderungen, sondern die Geschäftskunden.
Es gibt nur wenige Firmen, bei denen das anders ist - und das sind dann eher Archivierungen bei denen SSDs aus kosten/nutzen-Gründen eh wegfallen.
AlphaKaninchen
Commander Pro
- Registriert
- Mai 2018
- Beiträge
- 2.982
Im Privatbereich würde ich für kleinere Datenmengen M-Disks empfehlen, aber ja SSD und HDDs sind nichts für Langzeitspeicherung schon alleine weil sie regelmäßig angeschlossen werden müssen.Nagilum99 schrieb:Wer Langzeitspeicherung will, sollte seine Daten auf Bändern archivieren.
PS828 schrieb:Da es sich um optane handelt könnte das Schreibproblem bei QLC verschwinden. Nutzen sie hier die chalkogenidbasierten Phasenwechselspeicher ist die Dichte ohnehin nicht groß auch nach der Verdopplung nicht. Demnach sind viele Chips am Kontroller angeschlossen was zu guter lese und schreibperformance und sogar Haltbarkeit führt.
Systeme die hohe Schreiblasten haben, arbeiten eh mit multi-tier, wobei oft RAM als Puffer zum Einsatz kommt, weil SSDs dort dann auch schnell gesättigt werden oder ans IOPS-Limit kommen.
Darüberhinaus eignet sich sicher Optane als Tier 1/Cache für Flash-Laufwerke.
Hersteller großer Storages mit hohen IO-Kapazitäten nutzen auch andere Techniken wie M-RAM von Everspin.
Leider syndhaft teuer und nur in Chips bis 1 Gbit verfügbar.
Richtig. Aber der letzte Sprung in den consumerhereich gelingt eben leider noch nicht aufgrund des Preises. Dieser ist viel höher als klassischer NAND. Gemessen an meinem Beispiel mit der P950 980 GB ist optane gar 10-15 Fach teurer.
Hier vergleich ich zwar ziemlichen Abfall NAND, aber selbst wenn man zu teureren NAND von namenhaften Herstellern wie Micron oder Samsung zurande zieht, ist es für den Heimgebrauch unmöglich diesen Aufschlag zu rechtfertigen.
Daher wird Optane wohl erstmal in seiner niesche bleiben. Ob Intel ein Interesse daran hat Xpoint auch anderen Feldern zugänglich zu machen weiß ich nicht
Hier vergleich ich zwar ziemlichen Abfall NAND, aber selbst wenn man zu teureren NAND von namenhaften Herstellern wie Micron oder Samsung zurande zieht, ist es für den Heimgebrauch unmöglich diesen Aufschlag zu rechtfertigen.
Daher wird Optane wohl erstmal in seiner niesche bleiben. Ob Intel ein Interesse daran hat Xpoint auch anderen Feldern zugänglich zu machen weiß ich nicht
Relict
Admiral
- Registriert
- Juni 2005
- Beiträge
- 7.864
Diesen Ansicht halte ich doch für extrem kurzsichtig. Natürlich ist sie veraltet und höchstens noch für Retro-Sammler, hinterher hinkende Datenmigration oder einfachste Tätigkeiten brauchbar.Fleischmann schrieb:Ich verstehe gar nicht, warum so viele der Meinung sind, dass aktuelle Technik in 20 bis 30 Jahren veraltet sein soll? Was wollt ihr denn eigentlich mit euren Computern in Zukunft machen können, was ihr jetzt nicht schon in absoluter Perfektion machen könnt?
Abgesehen von Zocken fällt mir das absolut nichts ein.
Nur weil Du Dir aktuell etwas noch nicht vorstellen kannst, heißt es nicht, dass es dann nicht gebraucht wird.
Vor 20 Jahren konnte sich noch keiner sinnvoll vorstellen mit einem Smartphone herumzurennen.
Ein PC von 2010 ist heute kaum mehr geeignet für die aktuellen Anforderungen an bspw. Videoschnitt oder 3D-Visualisierung. Das sind nur 10 Jahre Zeitunterschied. Weiter zurückgehen will man da schon nicht mehr.
Wieviele Lochkartengeräte von 1970 oder 360Kb-Disks benutzt Du noch effizient? Wie oft läuft Dein CD-Brenner noch?
Wie oft benutzt Du noch eine 5 Jahre alte 120GB SSD als internes Laufwerk, wenn man in die begrenzten Steckplätze auch schon 2TB fürs gleiche Geld bekommt und damit auch die gestiegenen Datenkapazitäten abdecken kann? Genauso als externes Laufwerk werden sie zunehmend in der Schublade liegen bleiben, wenn man schon mehr Kapazität in kleinen Flash-Sticks fürs Schlüsselbund bekommt.
Die Software und Anwendungsmöglichkeiten werden in Zukunft derart komplex, intelligent, integriert und vielfältig, das können wir heute nur trübe erahnen. Und damit steigen auch die Anforderungen an Hardwareleistung und Datenkapazität kontinuierlich. Die gesamte Arbeitsweise kann sich ändern. Vielleicht klickt dann keiner mehr mit Maus und Tastatur herum?
Das Problem mit den M-Disks sehe ich nicht nur in der relativ immer kleiner werden Kapazität, sondern künftig vor allem darin, dass es dafür keine Laufwerke mehr geben könnte. Wer hat heute noch ein 5,25 Disk-LW. Das gleiche Schicksal wird die 3,5" Diskette oder Speichermedien wie Zip-Drive usw. ereilen. Wird immer schwieriger. Ich habe noch Schallplatten im Schrank, aber keinen Plattenspieler mehr. ^^AlphaKaninchen schrieb:Im Privatbereich würde ich für kleinere Datenmengen M-Disks empfehlen, aber ja SSD und HDDs sind nichts für Langzeitspeicherung schon alleine weil sie regelmäßig angeschlossen werden müssen.
In ferner Zukunft wird auch keiner mehr den Algorithmus kennen die darauf geschriebenen Einsen und Nullen in sinnvolle Daten zurückzulesen. Wirkliche Langzeitspeicherung findet analog statt, wie das Rosetta-Projekt usw. Aber das führt jetzt zuweit.
Zuletzt bearbeitet:
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
gaelic schrieb:Naja, da gibts mittlerweile einige sehr hohe:
Häng dich nicht zu sehr an dem Hochhaus aus Holz auf, sonst merkst du irgendwann, dass alles ein Turmbau zu Babel werden kann und das Material nur ein Transportmittel für fehlende Vorstellungskraft ist.
Höhe ist relativ und mit Holz schafft man "weniger" Meter als mit anderen Materialien, "viel" ist es trotzdem.
In die Höhe zu bauen ist aber wenigstens "die Höhe" und mit Holz hat man weniger Mittel als mit Stahl (z.B.). Limitiert sind beide und spätestens wenn man Probleme durch Krümmung mit der Oberfläche des Objektes auf dem man steht bekommt (im 3D Raum ist nichts flach) merkt man, das selbst Höhe nur eine Dimension ist.
Binäre Sachen sind nicht wirklich gut und eine "Zelle" darf auch mehr Zustände haben als voll und leer (an und aus). Aber das ist dann schon wieder "Zukunftsmusik" und vieles muss halt gebaut werden, weil das hier und jetzt nicht gut genug ist.
mfg
Hier läuft noch eine 128er OCZ Core aus 2008Weyoun schrieb:Ich nutzt heute noch Festplatten, die älter sind als 10 Jahre
Und eine 128er Samsung 830 aus 2012.
Bei uns in der Entwicklung läuft ein Teil der Rechner 24 Stunden täglich mit CANape, CANalyzer oder CANoe, deren Datenströme kontinuierlich aufgezeichnet werden. Da fallen teils immense Datenströme an, die auf den SSDs der Messrechner zwischengespeichert werden, bevor sie in komprimierter Form auf die Netzlaufwerke gelangen. Da ist es schon wichtig, dass die SSDs lange halten und nicht alle 100 Tage ausgetauscht werden müssen. Aus diesem Grund hat man bei diesen Rechnern so lange wie möglich auf Festplatten gesetzt.Nagilum99 schrieb:Dir ist schon klar, dass das auch für die meisten Enterprise Kunden gilt?
Es gibt nur wenige Firmen, bei denen das anders ist - und das sind dann eher Archivierungen bei denen SSDs aus kosten/nutzen-Gründen eh wegfallen.
Was haben die Aktionäre damit zu tun? Die sind zwar die Eigentümer des Unternehmens, aber die Entscheidung trifft die Geschäftsführung.[wege]mini schrieb:Heute muss man den Aktionären verbieten, jeden Tag zu saufen, sonst ist das Produkt immer "krumm"...kompliziert....
Eben, da die benötigten Kapazitäten immer weiter steigen, brauchen SSDs (und auch HDDs) nicht länger halten als nötig, bis sie schon wegen der Kapazität ersetzt werden, auch wenn manche ihre Museumsstücke weiterbetreiben wollen, die Masse ersetzt sie nach einigen Jahre durch neue, größere.[wege]mini schrieb:In der Theorie spricht absolut nichts gegen QLC. Niemand braucht das Zeug noch in 10 Jahren und daher sollte man eine Mischung aus Haltbarkeit, Geschwindigkeit, Menge und Kosten bauen.
Welche Optane hat denn bitte Flash? Nur die H10 und die ist sowieso ein Sonderling unter den Optane, weil da eigentlich zwei SSDs auf einer Platine verbaut sind, eine Optane Memory und eine 660p, die sogar jeweils über zwei Lanes getrennt angesprochen werden, wo die jeweiligen Controller also nicht einmal direkt miteinander kommunizieren.Bob.Dig schrieb:Bitte ohne Flash, danke.
Wo? Gen 2 bezieht sich auf die zweite Generation der 3D XPoint ("3DXP Gen 2"), Gen 4 sehe ich gar nicht, nur PCIe 4.0 und eben 144Layer NAND, welches die 4. Generation der 3D NANDs von IMFT ist, auch wenn sich Intel und Micron zwischenzeitlich getrennt haben und jeder künftig bei der Weiterentwicklung eigene Wege geht.Topflappen schrieb:Da werden ja munter Gen 2 und Gen 4 durch einen Raum geworfen.
Es gab keine 830 Pro, der Zusatz Pro für Modelle mit MLC NAND wurde erst mit dem Nachfolger 840 Pro eingeführt, denn erst mit der 840 wurde überhaupt erstmal TLC NAND eingeführt und davor hieß die SSD eben nur 830 und deren Vorgänger war die 470, beide bei MLC und ohne Pro in der Bezeichung.drunk_chipmunk schrieb:mit einer teuren Samsung 830 Pro passiert
Was bei einer SSD warm wird und gekühlt werden muss, ist i.d.R. der Controller und weniger das NAND, wobei die NANDs aber auch immer effizienter werden, so dass mehr Layer nicht zwangsweise auch mehr Leistungsaufnahme bedeuten.deo schrieb:Das heißt dann wohl, dass auf der gleichen Fläche, höhere Wärme entwickelt wird und die SSD zwingend einen Kühler haben sollte, der bisher optional war.
Die Datenhaltung kostet keine Energie, die Speicherung schon, bei Schreiben und Löschen werden NANDs daher sehr wohl warm, beim Auslesen ebenso.[wege]mini schrieb:Die Speicherung von Informationen erzeugt keine Wärme, sonst würden die SSDs dauerhaft warm sein.
Weil auch die übrige Hardware nicht ewig hält und da die Leistungsanforderungen ständig steigen, wären es auch unsinnig teuer bis technisch unmöglich so langlebige Hardware zu bauen. Ein Beispiel sind die Packages der Chips, früher waren das DIP, da gingen die Beinchen an beiden Seite raus, waren nach unten abgeknickt und wurden in löchern in der Platine verlötet. Die konnten die Wärmeausdehnung des Chips sehr gut kompensieren, aber man bekommt damit nur wenige Pins hin und die Löcher gehen durch alle Layer der Platine, aber damals waren die nur entweder ein- oder doppelseitig. Die Logik solcher Chips war aber extrem einfach, die hatten nur wenige Transistoren, absolut und auch pro mm², halten dafür aber ewig.Fleischmann schrieb:Und wieso sollte aktuelle Software und Hardware in 40 bis 50 Jahren nicht mehr genutzt werden?
Eine aktuelle CPU mit über 1000 Pins wäre so nicht machbar, schon weil die Leitungslängen zu den Pins für die meisten Anschlüsse wie die zum RAM oder den PCIe Lanes viel zu lang wären, die sind also heute gesockelt oder als BGA Packages direkt verlötet, ebenso wie fast alles Chips, auch NAND heute BGA sind. Da sind die Anschlüsse auf der Unterseite und jedesmal wenn der Chip warm wird und sich daher ausdehnt, wirken Scherkräfte auf die Lötstellen und warm werden sie, vor allem CPUs und GPUs wenn sie die Leistung bringen sollen die die Kunden heute wünschen und damit sie Energie sparen wenn die Leistung nicht gebraucht wird, takten sie runter und schalten gerade nicht genutzte Funktionen ab, kühlen also schnell wieder aus. Die Grakas sterben gerne genau wegen der Belastung der Lötstellen, wenn dann irgendwann eine nachgibt (kalte Lötstelle) und immer wenn sie dann durch "Aufbacken" wieder zum Leben erweckt werden konnte, was genau dies die Ursache des Ausfalls. Manche haben auch schon SSDs durch Aufbacken wiederbelebt, auch da gibt es diese Problem und Blei darf man im Lot wegen der Umwelt ja auch nicht mehr verwenden.
Die werden aber auch ausrangiert und bei denen Ändert sich die Anforderung an die Rechenleistung nicht mehr. Aber hast Du auch gelesen wie groß und schwer die Rechner dort an Board sind? Jedes Kilo welches an Board ist kostet zusätzlichen Treibstoff. Das man die alte Technik trotzdem nie modernisiert hat, dürfte auch daran liegen, dass auch die Trimmung stimmen muss, man kann also nicht einfach vorne Gewicht wegnehmen, ohne es auch hinten zu machen und die Rechner des Flugzeugs sind halt vorne, daher lohnt es sich nicht diese leichter zu machen.Fleischmann schrieb:Gab vor kruzem eine nette Meldung zur Boing 747 bei der noch heute Softwareupdates mit einer Floppy eingespielt werden.
Das ist richtig, wobei das Verhalten nicht linear ist und die Controller dies durch häufigere Refresh Zyklen und die Fehlerkorrektur auch kompensieren. Datenverlust tritt wegen Ladungsverlust allenfalls ein, wenn die SSDs zu lange ohne Stromversorgung gelagert wird.Fleischmann schrieb:1. Es geht nicht unedingt um kaputtschreiben. Je öfter die Speicherzellen beschrieben werden, desto schneller verlieren sie die Ladung, was bedeutet, dass Datenverlust viel schneller und häufiger eintreten kann, bevor die SSD ganz kaputt ist.
Mehr Kapazität! Vor 10 Jahren waren 64GB schon eine große SSD und richtig teuer, heute sind 500GB die wohl häufigste Größe und der Trend geht klar zu 1TB. Auf 64GB ein Win 10 zu installieren ist zwar möglich, aber man muss dann ständig hinter Windows herräumen und dazu haben die meisten User keine Lust. Selbst als 128GB noch die übliche Größe war die fürs Systemlaufwerk gekauft wurde, gab es hier im Forum laufend Thread wo sich jemand wunderte wieso die SSD voll ist.Fleischmann schrieb:2. Wieso sollte eine NVME mit der gigantischen Datendurchsatzrate der aktuellen Modelle oboslet werden? Was erwarten Sie noch mehr von einem Speicher?
Also ich kenne mich mit SSDs aus und weiß nicht was du meinst, erkläre das doch bitte mal. Bzgl. der Controller muss man bei Intel zwischen den billigen Consumer SSDs mit zugekauften Controllern und den Enterprise (und den davon abgeleisteten Consumer-) Modellen unterscheiden, erste sind allenfalls wegen des Preises attraktiv, so war die 660p 2TB eine ganze Zeit lang die billigste 2TB SSD überhaupt. Die von den Enterprise Modellen, wo Intel eigene Controller verwendet, abgeleiteten Consumer Modelle wie die Intel 750 und aktuell die Optane 900P/905P sind nur für Enthusiasten die auch bereit sind für deren besondere Eigenschaften richtig Geld zu bezahlen.Draco Nobilis schrieb:Nach dem letzten Desaster kann mir Intel bei SSD für ein Jahrzehnt gestohlen bleiben.
Jeder der es wissen muss weiß was ich meine xD
Wenn man nicht Äpfel mit Birnen vergleicht dann schon! So ist z.B. eine Samsung QVO eben billiger als die vergleichbare EVO, oder etwa nicht? Das man von anderen Anbietern SSDs mit gleicher Kapazität mit TLC zum Preis der QVO bekommt, besagt nicht das QLC keinen Preisvorteil hat.Botcruscher schrieb:Dazu ist im Gegensatz zu TLC bis heute kein Preisvorteil vorhanden.
Die Preise der Optane sind wirklich hoch, aber Samsung Z-SSDs sind auch nicht billiger als die Consumer Optane SSDs. Aber mit der nächsten 3XD XPoint Generation mit dann doppelt so vielen Layern wird hoffentlich helfen die Preise zu senken. Wobei 4 Layer im Vergleich zu NAND immer noch wenig sind,Beitrag schrieb:Performanceverbesserungen und vor allem höhere Speicherdichte für Optane, das hört sich gut an.
Ich sehe ja wenig Sinn in aktuellen PCIe 4.0-SSDs, weil die in den meisten Fällen entscheidnderen Zugriffszeiten da einfach nicht besser werden. Wenn Optane preislich attraktiver wird, wäre das schon mal deutlich interessanter.
aber NAND hat Jahrzehnte an Entwicklungsvorsprung und einen bestechend einfachen Aufbau, der es einfach unschlagbar billig sein lässt, dafür hängt es von den technischen Eigenschaften her weit zurück.
Zumindest vom Handling her sollte man dies, wie dieses Video über die Empfindlichkeit und korrekt Handhabung von HDDs auch deutlich ermahnt.Weyoun schrieb:Und wie rohe Eier behandele ich meine alten Festplatten bestimmt nicht.
Ein Produkt als minderwertig zu bezeichnen weil es nicht in einer bestimmten Kapazität angeboten wird, ist aber schon eine sehr komische Einstellung. Dann ist ein Ferrari auch minderwertig weil es keine 7 Sitzer gibt? Oder Rolls Royce weil sie keine Camper bauen?LamaMitHut schrieb:Minderwerig sind eher Produkte wie Optane. Ich muss 4 SSDs anstelle von einer kaufen, um auf 8TB zu kommen. Nachhaltig geht anders.
Was hat Optane mit QLC zu tun? Hier im Artikel geht es um zwei unabhängige Nachrichten, einmal um die neuen Optane mit dem neuen 3D XPoint der 2. Generation mit 4 Layern und einmal um die neuen 3D NANDs mit 144 Layern, aber das eine hat mit dem anderen nichts zu tun und Probleme mit der Schreibperformance hat 3D XPoint gar nicht, dies kennt nicht einmal einen Steady State Zustand, da man jeder Zelle einzeln beliebig überschreiben kann, während man bei NANDs immer ganz Blöcke (von z.B. 512 oder 1024 Pages) löschen muss.PS828 schrieb:Da es sich um optane handelt könnte das Schreibproblem bei QLC verschwinden.
Wieso Abfall NAND? Und wieso namhafte NAND Hersteller? Es gibt nur wenige NAND Hersteller, die kennt man alle beim Namen, da gibt es keine Hinterhofklitschen, die gibt es nur bei denen die SSDs aus dem NAND der NAND Hersteller bauen, denn bei jedem Hersteller passiert es, dass einzelnen Dies auf dem Wafer und ganze Wafer besser oder schlechter gelingen und die schlecht gelungenen sind eben bei NAND nicht so haltbar und die kann man dann als minderwertige NANDs bezeichnen, aber nicht gut gelungenen die aber konstruktionsbedingt nicht so viele P/E Zyklen aushalten, z.B. weil sie mehr Bits pro Zelle speichern.PS828 schrieb:Aber der letzte Sprung in den consumerhereich gelingt eben leider noch nicht aufgrund des Preises. Dieser ist viel höher als klassischer NAND. Gemessen an meinem Beispiel mit der P950 980 GB ist optane gar 10-15 Fach teurer.
Hier vergleich ich zwar ziemlichen Abfall NAND, aber selbst wenn man zu teureren NAND von namenhaften Herstellern wie Micron oder Samsung
Solche NANDs minderer Qualitäten sind aber noch längst kein Abfall wenn sie funktionieren, die werden für einfache Anwendungen wie Spielzeug, billige Smartphones, USB Sticks (die Werbedinger brauchen ja im Grunde nur einmal beschrieben werden zu können) etc. nur eben nicht für den Einsatz in SSDs, entsprechend werden solche minderen Qualitäten auch verkauft und sind natürlich billiger als gut gelungene Dies, also hochwertige Qualitäten. Nicht jeder SSD Hersteller hält sich an diese Verwendungsempfehlung und so kommen solche minderen Qualitäten dann doch in SSD, damit der Anbieter dies billiger verkaufen kann und trotzdem noch Geld damit verdient.
Haben sie doch schon längst: Intel® Optane™ DC Persistent MemoryPS828 schrieb:Daher wird Optane wohl erstmal in seiner niesche bleiben. Ob Intel ein Interesse daran hat Xpoint auch anderen Feldern zugänglich zu machen weiß ich nicht
Die Frage ist vielleicht eher ob sie nicht Ice Lake-SP zurückhalten bis die neuen Optane Produkte fertig sind, denn die große Jungs haben ihre Ice Lake-SP schon lange:JBG schrieb:Bin gespannt ob die neuen SSD-Produkte mit PCIe 4.0 so lange zurückgehalten werden bis Ice Lake-SP-Systeme breit verfügbar sind oder "zeitnäher" erhältlich sein werden.
Die großen Kunden haben Ice Lake also schon lange, in aller Regel so 12 bis 18 Monate bevor sie auf den Markt kommen und die bekommen demnächst die ersten Sapphire Rapids.
Draco Nobilis
Banned
- Registriert
- Jan. 2012
- Beiträge
- 2.943
Ich rede von "Consumer" Modellen die früher oft in Notebooks der OEMs verbaut wurden.Holt schrieb:lso ich kenne mich mit SSDs aus und weiß nicht was du meinst, erkläre das doch bitte mal. Bzgl. der Controller muss man bei Intel zwischen den billigen Consumer SSDs mit zugekauften Controllern und den Enterprise (und den davon abgeleisteten Consumer-) Modellen unterscheiden, erste sind allenfalls wegen des Preises attraktiv, so war die 660p 2TB eine ganze Zeit lang die billigste 2TB SSD überhaupt. Die von den Enterprise Modellen, wo Intel eigene Controller verwendet, abgeleiteten Consumer Modelle wie die Intel 750 und aktuell die Optane 900P/905P sind nur für Enthusiasten die auch bereit sind für deren besondere Eigenschaften richtig Geld zu bezahlen.
Katastrophale Lebenserwartung ein Großteil der Dinger schrieb sich selsbt tot. Die Lösung, eine Firmware, musste aufgespielt werden und der Rechner stundenlang laufen um das zu fixen, wenn man nach der Firmware direkt herunterfährt kann Datenverlust entstehen.
Enterprise SSD sind sicher anderes Thema. Aber es ist einfach unfassbar, niemand hat sich je sowas leisten können. Hätte es jemand anders getan, hätte man denjenigen wohl für Jahre ausgeschlossen.
Schönes Video. Gefällt mir sehr. Erinnert mich ein wenig an Gabelstapler Klaus, weiß nicht wieso.Holt schrieb:Zumindest vom Handling her sollte man dies, wie dieses Video über die Empfindlichkeit und korrekt Handhabung von HDDs auch deutlich ermahnt.
Womöglich hat die (mangelnde) Verbreitung von Optane etwas mit dessen Preis zu tun ^^Holt schrieb:Die Preise der Optane sind wirklich hoch,
Welche? Es gab wohl vereinzelt bei denen mit dem schrottigen Sandforce Controller solche Probleme, wirklich schlimm war dies aber bei den SSDs mit Indilinx Controller, aber damit hat Intel nichts zu tun, die Indilinx Controller hat Intel nie verwendet. Ich denke du hast da was verwechselt.Draco Nobilis schrieb:Ich rede von "Consumer" Modellen die früher oft in Notebooks der OEMs verbaut wurden.
Katastrophale Lebenserwartung ein Großteil der Dinger schrieb sich selsbt tot.
Der eigentliche Markt für die Optane sind nicht die privaten Endkunden, da sind sowieso nur die 900P/905P interessant aber bei den Preisen nur für Enthusiasten, sondern der Enterprisemarkt. Anderes als etwa Samsung die mit den Z-SSDs ja auch Low-Latency Modelle für Enterprisekunden anbieten, macht Intel seine interessanten Enterprise SSDs über die Ableger für Consumer auch den privaten Endkunden zugänglich, mit Garantie, Support und FW Updates! Die bekommt man für die Enterprise SSDs nämlich in aller Regel nicht.Draco Nobilis schrieb:Womöglich hat die (mangelnde) Verbreitung von Optane
Draco Nobilis
Banned
- Registriert
- Jan. 2012
- Beiträge
- 2.943
Wenn du die SSD Serien die das haben nicht kennst, ist dies keine Information die ich dir geben kann.Holt schrieb:Welche? Es gab wohl vereinzelt bei denen mit dem schrottigen Sandforce Controller solche Probleme, wirklich schlimm war dies aber bei den SSDs mit Indilinx Controller, aber damit hat Intel nichts zu tun, die Indilinx Controller hat Intel nie verwendet. Ich denke du hast da was verwechselt.
Du must mir natürlich nicht glauben. Intel selbst hat dazu auch Artikel, die beschönigen das aber massivst.
Eine Firmware die das löst zu empfehlen ist toll. Nur holt die das Kind aus den Brunnen nicht mehr heraus wenn es reingefallen ist.
Da hast du natürlich recht, hab ja nichts gegen Optane. Das es nicht irgendwo von oben mal nach unten ankommt, das kreide ich an. Selbe wie bei HBM, einfach zu teuer und unflexibel. Daher kein Durchbruch und Angebot im Massenmarkt. Dabei müsste es das nicht zwingend sein. Abhängig von der Fertigung. Mir kommt es so vor als ob man da nicht groß investieren will und lieber weiter mit wer weiß was für Fantasiemargen Enterprise abmelkt xD Dazu passt das man nach etwa 4 Jahren es schafft eine Gen2 herauszubringen. Stapeln bezeichnet ja nicht mal Intel als Gen, macht jeder, weil ökonomisch.Holt schrieb:Der eigentliche Markt für die Optane sind nicht die privaten Endkunden, da sind sowieso nur die 900P/905P interessant aber bei den Preisen nur für Enthusiasten, sondern der Enterprisemarkt. Anderes als etwa Samsung die mit den Z-SSDs ja auch Low-Latency Modelle für Enterprisekunden anbieten, macht Intel seine interessanten Enterprise SSDs über die Ableger für Consumer auch den privaten Endkunden zugänglich, mit Garantie, Support und FW Updates! Die bekommt man für die Enterprise SSDs nämlich in aller Regel nicht.
Da bin ich froh es nicht glauben zu müssen, denn wenn die konkreten SSDs nicht genannt werden können, würde mir das auch schwerfallen.Draco Nobilis schrieb:Wenn du die SSD Serien die das haben nicht kennst, ist dies keine Information die ich dir geben kann.
Du must mir natürlich nicht glauben.
Genau wie bei HBM sind die Kosten eben hoch, bei 3D XPoint wegen der komplizierten Fertigung, da werden Materialien verwendet die selten sind und sonst gar nicht in der Halbleiterfertigung verwendet werden:Draco Nobilis schrieb:Das es nicht irgendwo von oben mal nach unten ankommt, das kreide ich an.
Bei HBM braucht man wegen der vielen Anschlüsse immer einen Halbleiter Interposer und die sind teuer. Man kann sich immer beschweren das etwas zu teuer ist, aber dem ist halt so und so billig die NAND Flash wird wohl kein Halbleiterspeicher jemals werden, eben weil dies so bestechend einfach ist. Im Vergleich zu allen anderen Storage-Class Memory Technologie ist 3D XPoint aber sehr billig und bietet sehr hohe Kapazitäten. Man sollte nicht vergessen das die Optane SSDs zwar auch nur Massenspeicher sind, aber eben doch Eigenschaften hat, geringe Latenz, kein Steady State und kein Einbruch bei Mixed I/O, wie sie keine andere SSD bietet und sowas kostet dann eben.
Man sollte hier nicht vergessen, dass 3D XPoint eine Entwicklung von Intel und Micron aus der Zeit des gemeinsamen Joint-Ventures IMFT ist, welches inzwischen beendet wurde. Es ist also ein Scheidungskind und während Micron die Fab übernommen hat wo das 3D XPoint bisher gefertigt wird, haben sie außer Showcases wie der X100 bisher kein Produkt damit rausgebracht, sondern verkaufen die ganze Fertigung an Intel.Draco Nobilis schrieb:Mir kommt es so vor als ob man da nicht groß investieren will und lieber weiter mit wer weiß was für Fantasiemargen Enterprise abmelkt xD
Bin mal gespannt was Micron dann bringt, wenn Intel die 3D XPoint Fertigung für seinen Bedarf selbst übernimmt.
Am Anfang dauert die Weiterentwicklung immer länger als hinterher, wenn man mehr Erfahrung mit dem Produkt und dessen Produktion hat. Dies ist vollkommen normal und danach kommt so eine "Sturm und Drang" Phase wo es schnell vorangeht, bis man irgendwann an technische oder physikalische Grenzen stößt, die man entweder durch einen Technologiesprung oder -wechsel überwinden kann oder dann nur noch in ganz kleinen Schritten vorankommt.Draco Nobilis schrieb:Dazu passt das man nach etwa 4 Jahren es schafft eine Gen2 herauszubringen. Stapeln bezeichnet ja nicht mal Intel als Gen, macht jeder, weil ökonomisch.
Gestapelt wird da auch nicht wirklich, darunter versteht man nämlich das Stacking von Dies, wie es (außer Samsung) alle NAND Hersteller machen, die 4 Layer der Gen2 3D XPoint sind soweit ich die News verstanden haben, native Layer ohne Stacking.
Wenn man Layer und Stacking allerdings versucht jeweils als Stapel oder Stapeln in Deutsche zu übersetzen, dann geht dies schnell durcheinanders, weshalb man für solche Dinger besser die englischen Originalbegriffe verwenden sollte und am besten die News auf englisch liest.
Draco Nobilis
Banned
- Registriert
- Jan. 2012
- Beiträge
- 2.943
@Holt
Ich geb dir ja in allem Recht, ändert aber nichts am Resultat.
Das Potential ist da, aber man kann / will es nicht bei Consumern anbieten.
Die HBM Geschichte kenne ich soweit. Da hatte AMD spekuliert, das es günstiger werden würde, wenn man nur mal in Massenproduktion geht, weil der Markt mehr davon ordert.
Wegen der Optane SSD:
Es ändert leider nichts daran, das dies eine Technologie / Produkt ist, die die allermeißten Kunden nicht erfahren werden. Und ich denke eher das es einfach nicht gewollt ist respektive man da (noch) keine Notwendigkeit dahinter sieht. Hybrid SSDs bei dem das OS entsprechend vorgehalten wird würden sicher Anklang finden (früher SSH Disks). Wenn man einen Preis nennt der nicht zu abgehoben ist. Ansonsten wird die Produktionskapazität nicht erhöht und die Kosten bleiben sehr weit oben. Es wird sich dann einfach nichts ändern.
Ich geb dir ja in allem Recht, ändert aber nichts am Resultat.
Das Potential ist da, aber man kann / will es nicht bei Consumern anbieten.
Die HBM Geschichte kenne ich soweit. Da hatte AMD spekuliert, das es günstiger werden würde, wenn man nur mal in Massenproduktion geht, weil der Markt mehr davon ordert.
Wegen der Optane SSD:
Es ändert leider nichts daran, das dies eine Technologie / Produkt ist, die die allermeißten Kunden nicht erfahren werden. Und ich denke eher das es einfach nicht gewollt ist respektive man da (noch) keine Notwendigkeit dahinter sieht. Hybrid SSDs bei dem das OS entsprechend vorgehalten wird würden sicher Anklang finden (früher SSH Disks). Wenn man einen Preis nennt der nicht zu abgehoben ist. Ansonsten wird die Produktionskapazität nicht erhöht und die Kosten bleiben sehr weit oben. Es wird sich dann einfach nichts ändern.
Intel bietet es ja gerade auch den Consumern an, während Micron überhaupt gar nicht plant ein Produkt mit 3D XPoint für Consumer zu bringen, wobei sie bisher eben noch gar kein 3D XPoint Produkt gebracht haben, zuerst hatte man eine QuantX genannte SSD mit einem Third Party Ccontroller angedacht, haben sie dann die X100 als „schnellste SSD der Welt“ gezeigt, aber von einer Consumerversion ist ebensowenig die Rede wie bei den Samsung Z-SSDs.Draco Nobilis schrieb:Das Potential ist da, aber man kann / will es nicht bei Consumern anbieten.
Das ist bei hochpreisigen Enthusiastenprodukten doch immer so, nicht nur bei den Optane und auch nicht nur bei Computerhardware, die wenigsten Autofahrer werden ja erfahren wie es ist einen Porsche, Ferrari oder gar Bugatti zu fahren.Draco Nobilis schrieb:Es ändert leider nichts daran, das dies eine Technologie / Produkt ist, die die allermeißten Kunden nicht erfahren werden.
Solche Optane fürs das Caching gibt es ja auch, aber die sind bei den aktuellen Preisen für normale SSDs einfach nicht wirklich attraktiv, da eine HDD mit Caching eben nur begrenzt eine SSD ersetzen kann, sie ist eben nur schnell, wenn die Daten auch gerade schon im Cache stehen und außerdem erhöht die Verwaltung des Caches die Latenz und beraubt so die Optane ihres für den Heimanwender wichtigsten Vorteils. Aber da geht die billigste 16GB schon bei 20€ los, dies sollte sich jeder leisten können, weshalb es Unsinn ist anzunehmen es wäre einfach nicht gewollt das sich jeder eine Optane kaufen könne. Mit der geringen Kapazität lässt sich kaum etwas sinnvolles machen außer eben Caching, ich nutze sie aber z.B. als Linux Systemlaufwerk in meinem Heimserver, es ist eben einfach eine normale M.2 NVMe SSDs.Draco Nobilis schrieb:Hybrid SSDs bei dem das OS entsprechend vorgehalten wird würden sicher Anklang finden (früher SSH Disks).
Ähnliche Themen
- Antworten
- 61
- Aufrufe
- 11.982
- Antworten
- 7
- Aufrufe
- 3.003