News Intel Optane Memory: Erste Tests zeigen geringe Vorteile in Rechnern mit SSD

Die Technik kommt gefühlt 2-3 Jahre zu spät.
Wenn man bedenkt wie günstig 500GB SSDs (zu Normalpreisen) waren und was für Vorteile SSDs gegenüber Optane (Verbrauch, keine Einschränkungen) gibt es da nichts zu überlegen.
 
Zuletzt bearbeitet:
Sly123 schrieb:
Die Technik kommt gefühlt 2-3 Jahre zu spät.
Wenn man bedenkt wie günstig 500GB SSDs (zu Normalpreisen) waren und was für Vorteile SSDs gegenüber Optane (Verbrauch, keine Einschränkungen) gibt es da nichts zu überlegen.

Dem kann ich mich nur anschließen, die Technik ist schlicht viel zu teuer für das gebotene und die Kompatibilität auf das Neuste vom Neusten zu begrenzen ist einfach nur Schwachsinn. Damit wird sich zumindest diese Lösung nicht durchsetzen.
 
Hmm, die 4k-Werte sind gut, sonst ein relativ ernüchterndes Ergebis.
Vom Faktor 1000 den Intel am Anfang ins Spiel gebracht hat, merkt man relativ wenig. Wieder Marketing-Blabla. Schade!
 
projectneo schrieb:
Und für eine 32GB Optane kann ich mir auch ne 512GB SSD kaufen und eine 4 TB HDD als Datengrab dazu.

echt, welche Kombination denn?

Aber ja, die Preise sind aktuell noch viel zu hoch. Ich denke der Vorteil liegt eben wirklich eher in einer Kombination wie 32GB Cache + 4TB Datengrab weil man einfach häufig zugegriffen Daten beschleunigt, egal wo sie innerhalb des 4TB Bereichs abgelegt sind.

Reichen deine 512 GB SSD nicht aus (die übrigens brauchbar auch erst ab 150€ losgehen) - dann musst du bei deiner genannten Kombination bei den vollen 4000GB danach auch mit langsamen Entpacken, Ladezeiten usw leben, noch viel deutlicher vermutlich als beim Cache Einsatz.

Eine 32 + 4000 GB Cache Kombination wie Optane kann im Einzelfall und ungecachten Daten - die du teils genannt hast, auf HDD Performance zurückfallen - richtig. Sie kann aber auch über die ganzen 4000 GB offensichtlich auch eklatante Vorteile erzielen. Zb eben wenn das Game dass ich grad immer zocke schnell läd. Und das zeigt ja der Test. Wie gesagt, worst Case is dann reine HDD Performance ja. Aber das haste bei der Kombination 512 GB SSD + 4000 GB HDD über 8/9tel der Kapazität auch. Und da musst du dann jedes mal selbst entscheiden "pack ichs auf die SSD oder auf die HDD".

Wenn es der Preisrahmen oder die Größe hergibt wirds natürlich immer besser sein SSD only Speicher zu haben. Aber mittels ner zb 32 GB Optane, sollte sie mal in Preisregionen um 60€ kommen, kann man mehrere TB HDD Speicher sicher teils deutlich aufwerten.

Edit: Wenn mans genau nimmt funktioniert im PC Bereich kaum was ohne Caching. Man könnte auch sagen "Ram is noch viel geiler als SSD / HDD". Also wieso pack ich nicht 1 TB Ram rein und lade beim Start die ganze Platte in den Ram. Weil Ram is ja toll.
Macht aber auch kaum jemand (von in Memory DBs mal abgesehen). Weil Ram deutlich teurer ist als SSD/HDD Speicher.
Nichts anders ist die Kombination aus Cache Optane und HDD:
Macht nur Sinn wenn:
  • Cache viel schneller als Massenspeicher
  • Massenspeicher viel größer als Cache
  • Massenspeicher deutlich günstiger in Relation zur Größe

"Sinn oder Unsinn" dieser Technik bei Optane + HDD hängt von den Anforderungen ab. Hab ich offenes Budget und kann meinen "Sollspeicher" ohnehin direkt auf SSD lösen... mach ich natürlich das. Will ich einen günstigen PC mit hoher Reaktionsleistung und viel Speicher, dann muss man (leider) noch auf HDD setzen. Und eine 32Gb Optane + 4 TB HDD sind vielleicht besser als 128GB SSD + 2 TB HDD statisch zugeordnet.
Caching macht nur dann Sinn wenn man Speichergrößen bereitstellen will die auf "SSD only" finanziell nicht stemmbar wären.

Edit2. Vielleicht müssten viele hier mal testen ob ihre 256 - 512 GB M.2 SSD nicht viel besser eingesetzt wäre wenn man sie mit einer 8TB HDD kombiniert. Auch als Cache. Vielleicht laden die ganzen Verzeichnisse auf der HDD schneller, die ganzen Games und den Kram den man da drauf hat uns selten spielt auch. Oder die Bilder in Lightroom. Auf 512 GB cached sich schon extrem viel, da muss man entsprechend seltener auf die HDD zurückgreifen. Vielleicht muss die sogar seltener andrehen. :)

Ist vielleicht oft sinnvoller als eine 256GB SSD durch 512 GB zu ersetzen weil der Speicher ausgeht.

Edit3.

Anandtechs Fazit:
The flash SSDs mostly occupy the territory between the performance of Optane and of the hard drive. It's possible that a mainstream flash SSD could deliver a user experience with fewer noticeable delays than the Optane caching experience with the occasional inevitable cache miss. Overall, however, the Optane cache delivers a remarkable improvement over just a hard drive, and the 32GB cache capacity we tested is clearly large enough to be of substantial use.
With that said, however, I wonder whether it may all be too little, too late. SSD caching has some unavoidable limitations: cold caches, cache evictions when the cache proves too small, and the added complexity of a tiered setup. With those disadvantages, Optane Memory enters a market where the price of flash SSDs means there's already very little reason for consumer machines to use a mechanical hard drive as primary storage. Instead, the best case scenario here appears to be enabling the capacity benefits of tiered storage - offering nimble systems with 1TB+ of cheap storage and is presented to the user as a single drive - but without as many of the drawbacks of earlier NAND-based caches.
http://www.anandtech.com/show/11210/the-intel-optane-memory-ssd-review-32gb-of-kaby-lake-caching/8

Man muss bei jeglicher Art von Caching auch immer bedenken dass es ein Benchmark selten abbilden kann. In der Praxis müsste man wohl mal schauen wie viel "unterschiedliche" HDD / SSD Daten überhaupt gelesen werden und wie oft die selbem im Schnitt.
Wichtig wäre hier ein Langzeit Praxis Test.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Macht nur Sinn wenn:
  • Cache viel schneller als Massenspeicher
  • Massenspeicher viel größer als Cache
  • Massenspeicher deutlich günstiger in Relation zur Größe

"Sinn oder Unsinn" dieser Technik bei Optane + HDD hängt von den Anforderungen ab.

So sieht es aus. Nur wenn es bei Euch im Consumersegment keinen Sinn macht, heißt dass ja nicht, dass es keine anderen sinnvollen Anwendungsfälle geben würde.

Mir fallen da spontan unsere NetApp und vSAN Cluster auf Arbeit ein. Da brauche ich viel Speicherplatz, kann also nicht alles mit SSDs bestücken, da viel zu teuer (Nein, im professionellen Umfeld werden da keine 100€ SSD von Samsung verbaut. :p) und zu geringe Speichergrößen. Die vSAN Cluster sind zwar mit ein paar SSDs gemischt, welche auch Caching betreiben, aber rein von den Werten (4 Random Read) könnte ich mir da Vorteile versprechen. Und für den Preis der verbauten SSDs bekomme ich da so einige GB an Optane Memory.
 
Ich kanns mir gerade auch sinnvoll im Consumer Segment vorstellen. Wie viele bauen sich vermutlich ne Kombination aus 256 GB SSD (für OS und Tools) ein und ne weitere 4 TB Platte als typisches "Datengrab". Wäre doch vllt geil auch von diesen 256Gb dann 56 GB für das Cachen der 4 TB Platte herzunehmen. Oder eben ne 16 GB Optane nachrüsten und über Weite Strecken enorme Vorteile beim Zugriff von der 4TB Platte haben. OS + APPs nach wie vor auf SSD only, aber Games vllt Optane + HDD Kombo.

Und das is eher schon ober-Liga. Eher wird man bei den OEMs mit nem Invest von vllt 20€ auf Optane Seite die 300€ Systeme mit 1TB Spin Platten enorm aufwerten können.
 
Zuletzt bearbeitet:
Richtig und auch die Haltbarkeit ist grade als Cache sehr wichtig und glaube da könnte sie auch scheitern.
Aber ja mal ein richtiger Test wäre nett vor allem Praxis nah, aber komisch dass es bis jetzt keinen gibt.
 
deswegen ist Optane vermutlich auch wichtiger als jeder bisherige SSD Cache Speicher. Das 3D-XPoint sollte ja vergleichsweise haltbar sein.

@Mcr-King

wenn man an Professionelle SANs / NAS denkt dann kommt da zwischenzeitlich schon sehr oft dasselbe zum Einsatz. Egal ob Storage Tiering bei Storage Spaces (jetzt auch 3 Stufig, Nvme, SSD Cache und HDD Tier) als auch bei ZFS mit L2ARC + ZIL. SSD Cache als Cache ist da kau mehr wegzudenken.

Und da bringt es offensichtlich was sonst würd mans auch nicht tun. Auch da gilt eben das die eigentlichen "Arbeitsdaten" im Vergleich zur Gesamtdatenmenge extrem klein sind. Deswegen wäre das wohl statistisch interessant wie viel % der Gesamtdatenmenge des Festplattenspeichers zu Hause denn überhaupt zb im Zeitraum der letzten 10 Stunden, der letzten 10 Tage und der letzten 10 Wochen genutzt / gelesen wurden.

Ich denke das ist fürs Cache Sizing entscheidend.

Dann gibts wohl noch die Philosophie ob Read only Cache, oder ob Write auch beschleunigt wird. Und eben ob zb die Daten Redundant gehalten werden oder nicht. Bei Storage Tier zb nicht. Da is kein Backup der Cache Daten auf den HDDs. Bei Optane wird das zu 100% so sein, genau wie bei L2ARC in ZFS.
Aktiver Write Cache lässt klassische NAND SSDs schneller verschleißen. Meine Storage Spaces Samsung 840 Evos haben beide ihre fast 100TB Schreibvolumen weg ;) aber SMART is alles IO.
 
Zuletzt bearbeitet:
M@tze:"im professionellen Umfeld werden da keine 100€ SSD von Samsung verbaut."
Ohha, dann gib mal an, was die "Profis" nehmen, ... wer ist schneller und zuverlässiger als die 960pro?
 
So zur Kompatibilität mal also laut Intel erst ab i3 möglich nix Pentium und Celeron aber auch auf dem C236 mit Skylake. Komisch dachte es geht nur mit Kabylake.
 
bei den aktuell hohen Optane Preisen is eher die Frage wie sich zb as Intel SSD Cache (im Chipsatz / Intel RST) davon unterscheidet. Wenn ich fürs selbe Geld ne 256 GB NAND SSD als Cache nutzen kann hat das vllt weit mehr Sinn als auf 32 GB Optane zu gehen.

Das ganze muss fürs OS ja eigentlich auch vollkommen transparent passieren.
 
Zuletzt bearbeitet:
Ganjaware schrieb:
M@tze:"im professionellen Umfeld werden da keine 100€ SSD von Samsung verbaut."
Ohha, dann gib mal an, was die "Profis" nehmen, ... wer ist schneller und zuverlässiger als die 960pro?

Dort werden bspw die PM963, PM1633 oder die PM1725 verwendet. Mit Sicherheit jedenfalls nicht die consumer SSD 960 Pro.
 
M@tze schrieb:
So sieht es aus. Nur wenn es bei Euch im Consumersegment keinen Sinn macht, heißt dass ja nicht, dass es keine anderen sinnvollen Anwendungsfälle geben würde.

Mir fallen da spontan unsere NetApp und vSAN Cluster auf Arbeit ein. Da brauche ich viel Speicherplatz, kann also nicht alles mit SSDs bestücken, da viel zu teuer (Nein, im professionellen Umfeld werden da keine 100€ SSD von Samsung verbaut. :p) und zu geringe Speichergrößen. Die vSAN Cluster sind zwar mit ein paar SSDs gemischt, welche auch Caching betreiben, aber rein von den Werten (4 Random Read) könnte ich mir da Vorteile versprechen. Und für den Preis der verbauten SSDs bekomme ich da so einige GB an Optane Memory.

Meiner Meinung nach wäre die Technik eher im Consumer-Bereich als professionell eingesetzt sinnvoll.
Man hat doch keine dauerhaft stabile Leistung, was ich mir im Profi-Bereich problematisch vorstelle.
Zudem ist ja Kaby Lake und ein passendes Mainboard+Betreibssystem nötig, was die Kosten ja wieder hochtreiben kann.
 
Ganjaware schrieb:
M@tze:"im professionellen Umfeld werden da keine 100€ SSD von Samsung verbaut."
Ohha, dann gib mal an, was die "Profis" nehmen, ... wer ist schneller und zuverlässiger als die 960pro?

Die Hersteller bieten die SSDs meist unter Eigennamen an, wie NetApp zBsp (NetApp 400GB SSD Drive X438A-R6), welches refurbished schon bei 1.200 - 1.500$ liegt. Da kannst Du Dir sicher sein, dass da keine Consumer Hardware verbaut wurde, da Du auf die Drives auch ziemlich lange Garantie hast. Da steht in 90% der Fälle ein NetApp Techniker schon mit einem neuen Drive vor der Tür, bevor dies überhaupt ausgefallen ist.

Sly123 schrieb:
Meiner Meinung nach wäre die Technik eher im Consumer-Bereich als professionell eingesetzt sinnvoll.
Man hat doch keine dauerhaft stabile Leistung, was ich mir im Profi-Bereich problematisch vorstelle.
Zudem ist ja Kaby Lake und ein passendes Mainboard+Betreibssystem nötig, was die Kosten ja wieder hochtreiben kann.

Im Storage Bereich wäre das ja sowieso nicht möglich, aber da würden sich die spezifischen Anbieter schon eine passende Lösung einfallen lassen, dass der Speicher in neuen Produkten eingesetzt werden kann.
 
Krautmaster schrieb:
Und da bringt es offensichtlich was sonst würd mans auch nicht tun. Auch da gilt eben das die eigentlichen "Arbeitsdaten" im Vergleich zur Gesamtdatenmenge extrem klein sind. Deswegen wäre das wohl statistisch interessant wie viel % der Gesamtdatenmenge des Festplattenspeichers zu Hause denn überhaupt zb im Zeitraum der letzten 10 Stunden, der letzten 10 Tage und der letzten 10 Wochen genutzt / gelesen wurden.

Ich denke das ist fürs Cache Sizing entscheidend.

Die Aussage bringt es auf den Punkt.

Kennst du zufällig ein Tool für Linux, welches die Daten korrekt erfassen würde?
 
hm müsste man vielleicht mal bei nem ZFS den L2ARC resetten und schaun wie der wächst. Jeder Caching Mechanismus muss das ja iwi überwachen, ich denke jetzt zb auch nicht das Intel beim Caching 40 GB große MKVs versucht in den Optane Cache zu laden (und ihn so komplett dicht macht). Viel eher sind es vllt generell Dateien unter 10MB oder gar weniger, wenige kb, bei denen der Flash Speicher voll durchschlägt.

Bei Storage Spaces und MS läuft glaub meist ein Optimierung Zyklus in Intervallen, zb nächtlich, der Daten vom HDD Tier ins SSD Tier umzieht. Beim LSI Controller und CacheCade passiert das fortlaufend und eher auf Blockbasis, bei ZFS würde ich denken genauso. Letzteres halte ich für smarter.

Allein L2ARC, CacheCade, Storage Tiering... all das zeigt das SSD Caching eigentlich Gang und Gäbe ist. Vor allem auch im professionellen Bereich.
Man könnte auch mal spaßhalber schauen wie viele der eigentlichen Daten am PC <10 MB groß sind. Oder alle files der Größe nach absteigend sortieren und schauen wieviel der Gesamtanzahl in 32 GB reinpassen.
 
@CB

Spannend wäre es zu sehen, ob das Aktivieren des Caching eine Auswirkung auf die CPU-Auslastung hat. Falls der Caching Algorithmus per CPU realisiert ist, dürfte es auch interessant sein, ob die Ergebnisse mit den Frequenz des CPUs skalieren.


@Krautmaster

Im professionellen Umfeld ist SSD Caching typisch. Nur im kleinen, beim privaten PC, geht das Verfahren wohl leider nicht bei jeden Anwendungsprofil auf.
 
Okay, gerade mal ein Feldversuch gemacht:

Einfach mal mit FilelocatorPro die C Platte (System) nach *.* durchsucht. Findet hier auf 230GB knapp 800.000 Files.

2017-04-26 13_07_35-792.044 files found - [Search_ C__ (_._)].png

2017-04-26 13_09_46-Intel Optane Memory_ Erste Tests zeigen geringe Vorteile in Rechnern mit SSD.png

von 792.044 Dateien sind die 538.561 kleinsten Dateien zusammen nicht mal 3 GB groß.

671.491 Dateien sind zusammen 17.59 GB groß, von 227Gb Gesamtdatenmenge.

Ohne jegliche Analyse ob und wann verwendet, Komprimierung oÄ kann man also auf einer 16 GB Caching SSD, egal ob Optane oder sonstwas schon gut 7 von 8 Dateien zwischenspeichern bzw 7 von 8 Lesezugriffe quasi eliminieren (da SSD Faktor 1000 weniger Latenz).

Pakt man noch mehr Intelligenz rein, zb eine Analyse wann wie gelesen und zuletzt verwendet, noch einen Write Cache, ggf Logik nach gewissem Datei Typs, usw... dann sieht man dass für viele Anwendungsfälle schon ein kleiner Cache viel bringen kann.

Anderes Beispiel. Wenn ich nun Filme oder sagen wir ~5 MB große MP3s auf der Platte hab, dann hab ich wohl wenig von die auf teurem SSD Speicher abzulegen. (außer Metadaten vllt).

Ob die 30 GB große MKV nun in 8 ms Latenz oder 0,08ms Latenz aufgerufen wird ist relativ Wurst und hat kaum Einfluss. Ob ich aber 20000 1kb große ini Dateien beim Programm Start in 20000x8ms = 160s oder (16000x0,08ms + 4000*8ms) = 33,28s abrufe schon eher.
 
Zuletzt bearbeitet:
wenn man den vorteil zeigen muß, indem man sich mit einer vorgängertechnologie der 90 jahre mißt und nicht mit aktuellen SSDs, sagt das eigentlich schon alles. hdds sind eigentlich nur nur für multimedia-material sinnvoll, und da wird kein cache benötigt.
 
Zurück
Oben