News Intel Optane P5810X: Womöglich eine der letzten SSDs dieser Art

Corpus Delicti schrieb:
Finde es macht im privaten Umfeld jetzt wieder Sinn, da zB Spiele immer größer werden. Die haben immer öfter >=100GB Speicherplatzbedarf, dazu in Deutschland eine teils schlechte INet-Versorgung.
Das Cachen bekommen die Konsolen mit ihrem TB intern doch bestimmt selbst hin und benötigen dafür nicht Intels Hilfe.
 
Corpus Delicti schrieb:
Finde es macht im privaten Umfeld jetzt wieder Sinn, da zB Spiele immer größer werden. Die haben immer öfter >=100GB Speicherplatzbedarf, dazu in Deutschland eine teils schlechte INet-Versorgung.

Dann lädt man sie runter und haut sie per Backup-Funktion auf ne HDD. Dazu kommt SSDs sind günstig geworden und man kann eh nur ein Spiel auf einmal spielen. Ich sehe also nach wie vor kein Vorteil im Caching.
 
  • Gefällt mir
Reaktionen: LukS und Beitrag
Der Vorteil von Optane gegenüber NAND ist, daß es keinen Cache braucht, und nativ die Geschwindigkeit liefert ohne weiteres RAM. Daran "krankt" ja bis heute jede SSD oder NVMe SSDs: sobald der Cache erschöpft ist, geht die Schreibrate dramatisch runter, bei Optane bleibt sie stets gleich.

Ich finds schade, die hätten hier einfach noch mehr Geduld und mehr Entwicklungszeit gebraucht.
 
  • Gefällt mir
Reaktionen: Randfee, DiedMatrix, r4yn3 und eine weitere Person
Wirklich schade drum. Als Cache für große storage systeme oder high load DBs sind die Dinger unschlagbar.
Verstehe nicht wirklich wieso sich da nicht genug Abnehmer finden.
Hätte gedacht, dass da allein seitens der großen Cloud Anbieter jede Menge Nachfrage besteht.
 
  • Gefällt mir
Reaktionen: ameisenbaer
PHuV schrieb:
Ich finds schade, die hätten hier einfach noch mehr Geduld und mehr Entwicklungszeit gebraucht.
3D XPoint war für Micron und Intel ein Milliardengrab. Es wurde nie auch nur annähernd kostendeckend verkauft. 3D XPoint war nicht der erste Versuch mit PCM als Speichermedium. Alle vorherigen Versuche sind gescheitert, und so reiht sich 3D XPoint in eine Reihe von Fehlschlägen ein.

Intel hat lange versucht ein totes Pferd zu reiten. Dabei hat Intel versucht 3D XPoint als Verkaufsargument für Intel Server CPUs zu verwenden. Dabei hat Intel weiterhin ein hohes Minus erwirtschaftet. Intel musste schließlich einsehen, dass 3D XPoint zu teuer ist.

Als Ersatz von DRAM hat 3D XPoint zu schlechte Latenzen und eine zu geringe Bandbreite.

3D XPoint ist schlicht und einfach zu teuer für SSDs. Es hat bei SSDs keine Chance gegen NAND. Trotz aller Defizite von NAND. Trotz der im Verhältnis zu NAND guten Latenz von 3D XPoint.

Im eigentlichen Zielmarkt als Puffer zwischen DRAM und NAND konnte 3D XPoint sich nur eine winzige Nische sichern. Und das hat technische Gründe. Und diese Nische würde mit DDR5 und CXL noch weiter schrumpfen.
 
"Demnach benötigt die P5810X mit 24 Watt deutlich mehr Leistung im Betrieb und das, obwohl sie teils sogar weniger Leistung liefert"

INTEL INTEL :stacheln: :stock:

MfG Föhn.
 
Onkel Föhn schrieb:
"Demnach benötigt die P5810X mit 24 Watt deutlich mehr Leistung im Betrieb und das, obwohl sie teils sogar weniger Leistung liefert"

INTEL INTEL :stacheln: :stock:
Sieht für mich eher nach Fehlern im der Tabelle aus. Einige sogar offensichtlich (400GB Version ist schneller als 800GB, really?:freak:)
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Schon ein wenig schade. Während SSDs im sequenziellen Lesen immer schneller werden, tut sich bei den Latenzen nur sehr wenig. Optane war hier ein Lichtblick. Klar, schon etwas nischig, aber immer schnellere SSDs mit unveränderter Latenz werden auch immer nischiger.

Aber letztlich steht und fällt es eben mit dem Preis - Optane war zu teuer. Hätte Intel das früher auf den Markt gebracht, als auch Flash noch sündhaft teuer war - wer weiß, vielleicht sähe es mit Optane heute dann ganz anders aus.
 
  • Gefällt mir
Reaktionen: Randfee
PHuV schrieb:
Daran "krankt" ja bis heute jede SSD oder NVMe SSDs: sobald der Cache erschöpft ist, geht die Schreibrate dramatisch runter, bei Optane bleibt sie stets gleich.

Das ist korrekt, viel wichtiger sind aber die Zugriffszeiten die noch mal deutlich besser sind. Ich habe mit einer m4 128 GB angefangen und muss sagen, dass ich noch nie Probleme mit dem Cache der SSD hatte. Selbst jetzt mit meiner 980 Pro und 10 GBit am NAS hatte ich nie das Problem selbst bei 400+ GB lesen oder schreiben.

Selbst im Enterprise passiert da kaum etwas weil die SSDs idR im RAID laufen. Meine sechs 870 QVO sollten angeblich nach 72 GB auf ~170 MB/s einbrechen. Tun sie nicht da sie im RAID 5 laufen. Hab wie gesagt schon 400 GB drauf gehauen mit ~1,1 GB/s.

PHuV schrieb:
Ich finds schade, die hätten hier einfach noch mehr Geduld und mehr Entwicklungszeit gebraucht.

Ne, die waren einfach ~10-15 Jahre zu früh. Was hätte noch entwickelt werden müssen? Die Produkte waren gut bis sehr gut das Problem war der Preis. Bei einer Differenz von mehreren tausend Euro bzw. Dollar können die noch so schnell sein da lohnt es sich in der Regel etwas länger auf Vorgänge zu warten.
 
ETI1120 schrieb:
3D XPoint war für Micron und Intel ein Milliardengrab. Es wurde nie auch nur annähernd kostendeckend verkauft. 3D XPoint war nicht der erste Versuch mit PCM als Speichermedium. Alle vorherigen Versuche sind gescheitert, und so reiht sich 3D XPoint in eine Reihe von Fehlschlägen ein.
Brauchst Du mir nicht erklären, ich habe das und andere Ansätze (von denen man auch gar nichts mehr hört) intensiv verfolgt.
ETI1120 schrieb:
Intel hat lange versucht ein totes Pferd zu reiten.
Und das sehe ich eben anders, es ist und war zu keinem Zeitpunkt ein totes Pferd.
ETI1120 schrieb:
3D XPoint ist schlicht und einfach zu teuer für SSDs. Es hat bei SSDs keine Chance gegen NAND. Trotz aller Defizite von NAND. Trotz der im Verhältnis zu NAND guten Latenz von 3D XPoint.
Genau aufgrund dieser Defizite von NAND hätte Intel weiter daran forschen sollen. Nur weil eine Technik billig ist, ist sie noch lange nicht gut. Und mit QLC und den Nachfolgern, siehe IMW 2022: Kioxia experimentiert mit 7 Bit pro NAND-Speicherzelle wird das leider nicht besser, sondern schlechter. Nicht ohne Grund stagiert die NAND Größe seit einigen Jahren sehr, es gibt bis heute nur 1-2 Consumer SSDs mit 8 TB.
 
Im Consumer und Retail-Markt wird diese Gattung sicher aussterben.

Im DataCenter Bereich aber noch immer gern genutzt und aktuell!
Man kann in einem System bis zu 8TB "Optane RAM" betreiben, der lesend ähnlich schnell ist wie DRAM.
Stichwort InMemory DataBase, SAP HANA.

Die Platten schauen aus wie RAM DIMMs und werden auch so gesteckt.

kann man dann direkt als Blockspeicher benutzen (wie Laufwerk D:) oder als zusätzlichen RAM der persistent ist und keine Daten nach dem Reboot verliert.

Auch als Caching Devices in SDS (Software Defined Storage) für z.B. VMware vSAN oder DataCore ist eine Optane Platte noch immer unschlagbar aufgrund 100 DWPD und konstant niedrigsten Antwortzeiten.
ZFS Kenner wissen Optane Speicher als unschlagbares ZFS ZIL SLOG Device zu schätzen.

Teilweise wird der Markt jetzt auch leer gekauft weil so schnell nichts besseres mehr nach kommen wird.
 
  • Gefällt mir
Reaktionen: PHuV
massaker schrieb:
Sieht für mich eher nach Fehlern im der Tabelle aus.

Da zum Erstellzeitpunkt der Tabelle der Praktikant Kaffee hohlen geschickt wurde, musste der Praktikant des Praktikanten (Hauptsache Arbeitskraft die nicht entlohnt wird) übernehmen.
 
  • Gefällt mir
Reaktionen: massaker
Würde mich nicht wundern wenn in dreißig Jahren rauskommt dass Optane eigentlich primär auf Nachfrage der amerikanischen Schattendienste entwickelt worden ist um diverse Kryptographien schneller zu brechen...
Das ist schon krass an der Wirklichkeit des Internets vorbei entwickelt.
Ergänzung ()

fuessi schrieb:
Teilweise wird der Markt jetzt auch leer gekauft weil so schnell nichts besseres mehr nach kommen wird.
Optane wirkte deswegen etwas fehlplatziert (am Markt) weil es in vielen Anwendungsfällen welche derzeit wirtschaftlich relevant sind einfach die schnellste Komponente (mit Abstand) war und ständig auf den restlichen Server warten musste...

In fünf Jahren könnten wir wieder soweit sein dass Latenzen, Zugriffe etc ein reboot von Optane erfordern.
 
  • Gefällt mir
Reaktionen: fuessi, Engaged und PHuV
Optane ist halt in seiner Nische nicht allein. Es gibt auch im klassischen NAND Bereich Produkte die auf niedrige Latenz und hohe Performance ausgelegt sind.

Davon bekommen die Consumer zwar nichts mit aber, es gibt ja von Samsung Z-NAND für niedrige Latenz und von Kioxia XL-Flash

XL-Flash ist SLC und hat bis 10x geringere Latenz als klassischer NAND. Es scheint also durchaus einen Markt dafür zu geben.
 
Cool Master schrieb:
Caching macht im privatem Umfeld eigentlich kein Sinn.
Jupp, nutze seit 2009 SSDs und ich hätte nie einen Sinn in dieser Technik gesehen.

Mein Mainboard hat zwar noch einen mech. PCIe 16x Slot für Optane, aber da steckt jetzt die Graka* drin. Und im elektr. PCIe 16x steckt eine normale SSD. Ist sogar minimal schneller, als die baugleiche SSD im M2 Steckplatz.


*die Radeon RX 6400 hat ja eh nur PCIe 4x
 
  • Gefällt mir
Reaktionen: Cool Master
Corpus Delicti schrieb:
Zudem propritärer Quatsch: nur für Intel-System gedacht.
Sorry, aber du hast leider absolut keine Ahnung wovon du redest und deine Aussage ist einfach falsch, vor allem hinsichtlich der SSDs um die es in dem Artikel geht.
 
PHuV schrieb:
Brauchst Du mir nicht erklären, ich habe das und andere Ansätze (von denen man auch gar nichts mehr hört) intensiv verfolgt.
Es gelingt einer neuen Technologie relativ selten, wenn sie beim ersten Versuch scheitert, beim zweiten oder dritten Versuch den Durchbruch zu schaffen.

Von allen non-volatilen Speichertechniken haben ASAIK PCM die mit Abstand die höchste Speicherdichte.
Es gibt keine Speichertechnik die keine Nachteile hat. Alle Projektionen laufen darauf hinaus dass DRAM und NAND auch in den nächsten Jahren den Markt massiv dominieren. Alles andere tummelt sich in Nischen. 3DXPoint war die alternative Speichertechnik (SRAM ignoriert) mit dem bei weitem größten Marktvolumen. Aber eine richtige Nische konnte 3D XPoint nie etablieren.

Intel hat lange versucht zu verschleiern, dass 3D XPoint auf PCM basiert. Warum wohl?

PHuV schrieb:
Genau aufgrund dieser Defizite von NAND hätte Intel weiter daran forschen sollen.
Wie kommst Du auf die Idee Intel hätte die Forschung an 3D XPoint schon vor Jahren eingestellt?
Dass keine relevanten Fortschritte erzielt wurden, bedeutet nicht dass Intel nicht geforscht hat.

PHuV schrieb:
Nur weil eine Technik billig ist, ist sie noch lange nicht gut.
NAND ist gut genug für SSDs. Auch wenn die NAND-Speicherzelle eines der wenigen elektronischen Bausteile ist, die verschleißen. Ich hätte mir auch gewünscht, wenn die Anzahl der Schreibzyklen der Speicherzellen gestiegen wäre. Aber leider ist sie gefallen. Das wurde mit einem immensen Aufwand an Software kompensiert.

SSDs mit 3D XPoint wurden angeboten, sind aber am Markt gescheitert. Sie sind gescheitert weil sie in der Herstellung zu teuer sind. Eine Technik, die nicht kostendeckend verkauft werden kann, ist tot. Die Produkte mit 3D XPoint haben bei Intel mehrere Milliarden an Verlusten aufgehäuft. Die Verluste wurden tendenziell nicht kleiner, sondern blieben konstant.

Wenn ich mir die Artikel zu 3D XPoint ansehen, kommen sie praktisch einvernehmlich zum Schluss, dass 3D XPoint als SSD nie eine Chance hatte. Der eigentliche Use Case war immer der einer neuen Speicherebene zwischen DRAM und NAND-SSDs. Auch dieser Anwendungsfall blieb technisch bedingt in der Nische. Experten vertreten die Meinung dass diese Nische durch die Einführung von DDR 5 DRAM und CXL schrumpfen oder verschwinden wird.

Auch Micron hat mit 3D XPoint Verluste gemacht, und ist schon lange ausgestiegen. NMicron hat keinen Weg gesehen, die Produktionskosten auf das erforderliche Niveau zu drücken.

PHuV schrieb:
Und mit QLC und den Nachfolgern, siehe IMW 2022: Kioxia experimentiert mit 7 Bit pro NAND-Speicherzelle wird das leider nicht besser, sondern schlechter.
Das ist eine der Entwicklungsrichtungen, ob sie je relevant wird, bleibt offen. 128 Zustände sicher unterscheiden zu können ist an sich schon schwierig.

PHuV schrieb:
Nicht ohne Grund stagiert die NAND Größe seit einigen Jahren sehr, es gibt bis heute nur 1-2 Consumer SSDs mit 8 TB.
Consumer SSDs mit 8 TB sind kein Marksegment wo NAND Vorteile hat. Hier gibt es HDDs, die erheblich billiger sind und sich viel besser als Datengräber eignen.

Bei Enterprise SSDs mit hoher Kapazität ist das Angebot erheblich besser. Und mit der neuen Generation mit mehr als 200 Schichten wird das Angebot eher steigen.
 
Schade leider hat intel einen Markt komplett links liegen gelassen und nur versucht das zeug in den Consumer und Enterprise bereich zu drücken.
Wir haben mehrmals erwähnt das es im industriellen bereich einen Markt dafür gibt aber intel wollte nicht hören. Leider wurden die chips auch nicht an 3party Industrie Hersteller verkauft und nun ist es zu spät. Einfach nur schade.

Im Industriellen bereich wird viel SLC Nand und pSLC verbaut und man schaut auch mehr auf die Haltbrkeit als auf den Preis.
 
1080p Master schrieb:
Wahrscheinlich meinst Du den Einsatz zusammen mit ner HDD als schnellen SSD-Cache.
Der Einsatz als Einzel High-End SSD sollte in einem AMD-System mit passender Schittstelle, bzw.
Controler genauso funktioniern. Also nix mit "propritärer Quatsch".

Auch Caching geht natürlich. Ich cache via Primocache mit einer 280 GB Optane als L2 zwei 2 TBB SDDs und drei große Festplatten.


Corpus Delicti schrieb:
Genau dafür hatte die Technik auch ins Auge gefasst.

Einfach hier schauen:
https://www.romexsoftware.com/en-us/primo-cache/index.html
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 1080p Master
ETI1120 schrieb:
Consumer SSDs mit 8 TB sind kein Marksegment wo NAND Vorteile hat. Hier gibt es HDDs, die erheblich billiger sind und sich viel besser als Datengräber eignen.
Da sag ich Dir mit (vergleichsweise lauten) 2x18 TB Seagate Exos was anderes. Ich könnte sehr gut eine größer preislich annehmbare SSD gut gebrauchen. Aufgrund der langsamen Schreibgeschwindigkeit ist für mich persönlich die aktuell einzige SSD wie die Samsung 870 QVO 8TB keine Option.
ETI1120 schrieb:
Bei Enterprise SSDs mit hoher Kapazität ist das Angebot erheblich besser.
Aber auch arschteuer, und nur mit U.2 wie U.3 Anschluß verfügbar, wo man auch erst mal privat per Controller haben müßte.
 
Zurück
Oben