cookie_dent schrieb:
MIR ist vollkommen klar wie SSD caching funktioniert, mein teuerster Festplatten Fehlkauf war z.B. eine Momentus XT.
Windows startete wunderbar schnell und zügig
Und die ersten XT mit 750GB hatte nur 4GB Cache, wieso schreibst Du also das 16GB zu wenig wären wenn Windows auf der Platte schon mehr Platz braucht?
cookie_dent schrieb:
Aber 100€ für einen Festplattencache: Fail
Erstens sind die Preise in Deutschland derzeit noch total überzogen,, die US Listenpreise sind 44 und 77$ und zweitens ist das Caching der HDD ja nur eine mögliche für diese SSDs abr eben nicht die einzig mögliche.
supern00b schrieb:
Weiß jetzt nicht mehr womit 3D XPoint genau verglichen wurde, obs NAND oder eine (Samsung)Weiterentwicklung war, da war jedenfalls die Reden davon, dass schon bei recht geringer QD die Geschwindigkeit stark abnehmen würde, und die Konkurenztechnologie vorbeiziehen würde...
Eine Weiterentwicklung wohl auch Basis von NAND Flash von Samsung soll erst noch kommen und die konkreten Produkte mit 3D XPoint sind noch nicht sehr ausgereift und leistungsstark, die Controller dürften hier bei den SSDs damit noch der Schwachpunkt sein.
supern00b schrieb:
zumindest derzeit scheint die Datendichte noch recht niedrig zu sein, man benötigt also für die gleiche Speichermenge wesentlich mehr Platz... das wird sicher auch noch ein Faktor für den Erfolg werden, wie gut man dabei weiter kommt und wie die Konkurenz dabei abschneidet...
Das ist ja auch die erste Generation die in die Serienproduktion geht, die haben gerüchteweise nur 2 Layer und NANDs ist bei Samsung schon länger bei 48 Layern in der Serienfertigung, 64 und 72 Layer 3D NAND dürfte demnächst auch auf den Markt kommen. Aber ja, der Vorteil von NAND ist seine hohe Datendichte und damit der Preis.
Kenneth Coldy schrieb:
am Ende ein teures, lediglich zu sich selbst kompatibles und energiehungriges Produkt
Wieso nur zu sich selbst kompatible? So ein Blödsinn, dies sind ganz normale M.2 NVMe SSDs die man überall nutzen kann wo man auch andere M.2 NVMe SSDs einsetzen kann. Einzig die geringe Kapazität schränkt die Möglichkeiten ein und daher bietet Intel eben die Möglichkeit diese auf entsprechenden Systemen auch als Cachelaufwerke zu nutzen.
Krautmaster schrieb:
Und da musst du dann jedes mal selbst entscheiden "pack ichs auf die SSD oder auf die HDD".
Genau das wollen aber einige Leute überhaupt nicht, auch wenn solche Personen eher nicht in Foren wie diesen unterwegs sind und genau an diese Kunden richten sich die Cacheinglösungen.
Mcr-King schrieb:
Richtig und auch die Haltbarkeit ist grade als Cache sehr wichtig und glaube da könnte sie auch scheitern.
Intel garantiert über 180TB TBW, dies sollten für einige Jahre reichen, haben doch einfache Desktop HDDs nur ein Workload Rating von 55TB pro Jahr und dies umfasst die gelesenen und die geschriebenen Daten, also alles was potentiell gecacht werden könnte.
Mcr-King schrieb:
Aber ja mal ein richtiger Test wäre nett vor allem Praxis nah, aber komisch dass es bis jetzt keinen gibt.
Von den Optane? Wie kann es denn solche Tests geben, wenn die gerade erst seit ganz wenigen Tagen überhaupt im Handel sind und offenbar auch noch nicht in allzu hohnen Stückzahlen.
Krautmaster schrieb:
Dann gibts wohl noch die Philosophie ob Read only Cache, oder ob Write auch beschleunigt wird.
Soweit ich das in dem einen Review überflogen habe, kann man einstellen wie man es haben möchte.
Krautmaster schrieb:
Wenn ich fürs selbe Geld ne 256 GB NAND SSD als Cache nutzen kann hat das vllt weit mehr Sinn als auf 32 GB Optane zu gehen.
Man kann aber meine nich nur einen Teil von maximal 64GB als Cache nutzen und der RST skaliert wohl auch nicht optimal mit mehr Cache, 32GB scheint bei dem das Optimum zu sein. Je größer der Cache ist, umso aufweniger wird eben auch dessen Verwaltung und dann verliert man eben einen Teil des Vorteils wieder, der ja gerade bei den Optane und aber generell bei SSDs im Vergleich zu HDDs vor allem in den kurzen Zugriffszeiten liegt.
Krautmaster schrieb:
Beim LSI Controller und CacheCade passiert das fortlaufend und eher auf Blockbasis
Was anderes kann ein RAID Controller oder auch der Controller einer SSHD ja auch nicht machen, die kennen weder Partitionen noch Verzeichnisse oder Dateien, sondern nur die Zugriffe auf einen bestimmten LBA und die x folgenden. Bei dem RST läuft das Cache aber unter Windows, wenn auch im Treiber, aber im Prinzip könnte der wohl schon erfahren zu welchen Dateien die Zugriffe gehören und dies in die Cacheverwaltung mit einbeziehen.
Hallo32 schrieb:
Leider hat sich in der Vergangenheit aber bei den SSD Cache Lösungen gezeigt, dass das Verfahren nur gute Ergebnisse liefert, wenn der User eine gewisse Regelmäßigkeit bei den Anwendungen aufweist und somit der Cache Treffer liefert.
Das ist das Prinzip nach dem jeder Cache funktioniert, wenn Du das RAM immer komplett von vorne nach hinten liest, sind die L1, L2 und L3 Caches der CPU auch recht wertlos. Jeder Cache hat nur einen Effekt wenn bestimmte Daten häufiger wiederholt gelesen werden.
Hallo32 schrieb:
Wechselt der User hingegen lustig die Anwendungen, so sind die nicht immer im Cache und der User flucht über die langsame HDD. Für solche User ist in der Regel eine große SSD anstatt Cache besser.
Klar, aber für eine SSD mit entsprechender Kapazutät müssen sie dann auch entsprechend tief in die Tasche greifen. Das SSD only schneller ist, mussen wird nicht diskutieren, es kostet aber eben auch mehr. Eine CPU mit 32GB L3 Cache und ohne RAM wäre besser als eine mit 8MB L3 und 32GB RAM daran.
Kasmopaya schrieb:
Das wäre die einzige Chance für Intel das Teil noch zu retten, die Datendichte zig mal schneller steigern als zb. Samsung über die Jahre.
Was zu retten? Die kleinen Optane Memory SSDs sind nur um erst einmal überhaupt 3D XPoint als Produkt auf den Mart zu bringen, wie werden wie die anderen Cache SSDs wie z.B. die Intel 311 und 313 wieder verschwinden, aber damit werden die Optane SSDs nicht ingesamt verschwinden. Die Datendichte von dem 3D XPoint wird auch noch steigen und wahrscheinlich erst einmal viel schneller als bei NAND, denn bei NAND ist die Entwicklung schon sehr ausgereizt während sie bei 3D XPoint gerade erst ganz am Anfang steht. Anfangs sind die Fortschritte erst zögerlich während man die Technik noch erst vollständig begreifen muss und dann rasant, während man alle offensichtlichen Optimierungsmöglichkeiten nutzt um dann am Ende wieder langsam zu werden, wenn man mühsam in kleinen Schritten weiter optimieren muss, weil man an Grenzen stößt. Schau Dir die Taktraten von CPUs an, die waren lange im einstelligen MHz Bereich, dann gam man in den 2 stelligen MHz Bereich und nachdem die MHz dreistellig wurden, ging es recht rasant in die GHz um dann zu merken, dass die 10GHz mit denen man fest gerechnet hatte, nicht erreichbar sind.
Bei NAND ist es ähnlich, die Strukturen konnte man lange immer weiter schrumpgen, aber unter 20nm hat man dann massiv negative Einflüsse durch die geringe Anzahl der Elektronen in den Zellen und ide geringen Abstände zu den Nachbarzellen bekommen. Also geht man da in die 3. Dimension und auch die ist endlich, jeder zusätzliche Layer erfordert mehr Bearbeitungsschritte und erhöht das Risiko Ausschuss produziert zu haben. Die Kostensenkungen werden NAND also auch immer langsamer werden, zumal Entwicklung der 3D NANDs und dessen Fertigungsanlagen extrem teuer sind und daher die Menge weiter steigen muss um die Kosten zu senken. Genau das gilt für jede dieser Technologien, auch für 3D XPoint.
Kasmopaya schrieb:
Aber ehrlich gesagt traue ich denen das nicht zu, die SSDs sind ja mit 3D NAND sehr gut mit dabei.
Die Frage wie die Zukunft von 3D XPoint sein wird entscheidet sich auch nicht im Vergleich zu NAND, sondern im Vergleich zu anderen Storage Class Memories, wie z.B. ReRAM und die sind nämlich weit zurück. Wenn es davon überahupt schon fertige Produkte gibt, dann allenfalls mit Kapazitäten im MB Bereich und damit bisher nur für Embedded Anwendungen zu gebrauchen. NAND wird weiter für viel Anwendungen und gerade für Heimanwender relevant bleiben, aber die Storage Class Memory Technologien werden neben der Nutzung als Medium in SSDs auch ganz andere Anwendungen erschließen die es heute noch nicht gibt bzw. als Krüppellösungen wie diese DIMMs mit DRAM und NAND um die Daten im RAM bei Spannungsabfall dort abzulegen und so nicht flüchtiges RAM zu erzielen.
Kasmopaya schrieb:
Das wird auch nix, das traue ich mich wetten.
Warum sollte es nicht klappen und was ist denn Dein Wetteinsatz?
Chrissi1303 schrieb:
Von daher ist meine Meinung, erst einmal abwarten wie Micron und Intel die Technik weiter entwickeln, obs wirklich eine echte Alternative oder gar Konkurrenz zur PCIe SSD wird.
Die Optane um die es hier geht sind PCIe SSDs, von daher sind bzw werden sie dann allenfalls eine Alternative oder gar Konkurrenz zur NAND bestückten PCIe SSD.