News Intel Optane Memory: Erste Tests zeigen geringe Vorteile in Rechnern mit SSD

tm0975 schrieb:
hdds sind eigentlich nur nur für multimedia-material sinnvoll, und da wird kein cache benötigt.

Die Frage ist wer diese Zuordnung übernehmen soll? Willst du entscheiden Film = HDD, Mp3 = HDD, Programm = SSD (wie es wohl aktuell viele tun) oder überlässt du das vielleicht einer automatisierten Logik.

Bei einer typischen NAS(HDD) + Workstation(SSD) oder auch SSD + HDD Datengrab Kombination überbimmst das du als Anwender, aber oftmals eher schlecht als recht.

Zb kannst du große Games wie GTA V, Mass Effect Andromeda, BF1 usw kaum intelligent aufteilen. Was wenn du deine 512 GB SSD eig mit Schrott zu ballerst bei dem es keine Rolle spielt ob HDD oder SSD?

Nicht alles lässt sich eben mal so "manuell" aufteilen. Auch wenn viele denken "klar ich mach SSD für OS und Apps" und "HDD für Mediafiles" - so kann es eigentlich auch total ineffizient und dämlich sein.

Im Prinzip ist das nichts anderes wie ein Caching der manuellen Art die man da übernimmt. Ohne wirklich intelligent vorzugehen.

Denkt mal drüber nach :P

Edit:
Vielleicht hätten die meisten hier mit einer solchen SSD + HDD Kombination sich 80% des "SSD Invest" sparen können und ein quasi gleichwertige oder bessere "All over Experience" mit einem kleinen Cache + Platte. Vielleicht installieren sie Games auf HDD und haben lange Ladezeiten die mit nem generellen Cache viel besser wären, vielleicht laden sie Musik & Bilder in ihr Onedrive auf C bei denen es relativ vielleicht Wurst ist ob SSD oder HDD. Who knows ^^

Was eigentlich genau spricht für diese "manuelle" Zuweisung SSD / HDD? Doch eigentlich nur die persönliche Mutmaßung es besser als der PC zu wissen welche Dateien man oft zugreift. :freaky:
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Ob die 30 GB große MKV nun in 8 ms Latenz oder 0,08ms Latenz aufgerufen wird ist relativ Wurst und hat kaum Einfluss. Ob ich aber 20000 1kb große ini Dateien beim Programm Start in 20000x8ms = 160s oder 20000x0,08ms = 1,6s abrufe schon eher.

Der Ansatz hat ein Problem, er setzt voraus, dass auf die großen Dateien kein Random Read stattfindet. Und dieser kann in vielen Fällen eben nicht ausgeschlossen werden. Bei Musik und Videos mag es zutreffen aber nicht bei allen großen Dateien.
 
Zuletzt bearbeitet:
Klar - wenn man von Random Reads über alle Sektoren auf der Platte ausgeht ist "SSD Only" oder gar "Ram only" immer die schnellere Variante.

Aber bei der Überlegung eben - an dem ich mich eig auch selbst ertappe, die Philosophie des "ich entscheide was SSD und was HDD" - ist so ziemlich falsch was nur falsch sein kann. Auf der einen Seite habe ich dadurch vermutlich viele Daten auf SSD die ich selten bis nie lese oder der einzelne Zugriff auch bei 8ms schnell genug wäre, auf der anderen Seite lebe ich für das komplette HDD Tier mit vergleichsweise grottiger HDD Performance.

Vielleicht muss die Frage weniger sein "hab ich Random Reads auf große Dateien wo mir mein Cache nicht hilft?" sondern vielleicht "habe ich Zugriffe auf sehr kleine Daten im HDD Tier die eigentlich von Cache profitieren würden - von denen ich aber nicht bewusst was weiß?"

Ich mein... dass ein reiner SSD Speicher (fast) immer besser sein wird - da sind sich doch alle einig. Aber mit dem kann ich preislich ja auch nicht vergleichen. Viel eher eben mit der SSD + HDD Kombination die hier viele anführen, gemäß dem Motto:

"Wozu 32 GB Cache + 2 TB HDD kaufen wenn dich die Zuordnung auch manuell machen kann indem ich ne 256Gb SSD für OS und APPs und ne 2 TB als Datengrab Platte hole."

256GB klingt erstmal nach viel mehr, aber die 32 GB Cache bringen mir eben auch was über die anderen 2 TB Performance die mir beim händischen Zuweisen entgeht.

Edit: Mir is nur wichtig dass manch einer hier etwas seinen Horizont erweitert ;)
Ich hätte pauschal auch eher gesagt "nimm die SSD + HDD Variante wenn du da das 3x an SSD Kapazität bekommst". Würde ich nen neuen PC für jemand mit low Budget Bauen würde ich vielleicht mal das Experiment 16 GB Optane + 1-2 TB Datengrab testen. Vielleicht falle ich aus allen Wolken :P

Meine Workstation hier hat zwischenzeitlich 1TB M.2 960 Pro SSD , 2 TB SATA EVO 850 SSD. Vermutlich hätte ich keinen kleinen Betrag durch ne 32Gb SSD + 2 TB HDD Kombi anstelle der EVO sparen können.
 
Zuletzt bearbeitet:
Krautmaster ich verstehe deine Absichten zu 100%.

Leider hat sich in der Vergangenheit aber bei den SSD Cache Lösungen gezeigt, dass das Verfahren nur gute Ergebnisse liefert, wenn der User eine gewisse Regelmäßigkeit bei den Anwendungen aufweist und somit der Cache Treffer liefert.

Wechselt der User hingegen lustig die Anwendungen, so sind die nicht immer im Cache und der User flucht über die langsame HDD. Für solche User ist in der Regel eine große SSD anstatt Cache besser.
 
hm so wirklichen Langzeit Test hab ich selten gesehen. Deswegen meinte ich auch dass das ganze Thema schwer in einem einfachen "Parcour" oder Review handhabbar ist.

Wenn ich jetzt im Kreis immer boote, dann nacheinander 5 verschiedene Anwendungen und Spiele starte, dann forciere ich ja quasi einen Cache Flush. Wie jeder Cache muss der SSD Cache halt "warm" werden.

Auch gilt es weniger den Nachteil gegenüber einer SSD herauszustellen als den typischen Vorteil gegenüber einer HDD.

Wenn man die statische Aufteilung zb an einem Intel CHipsatz von 256Gb SSD + 2 TB HDD zu 2 TB ink 256GB Cache wechselt wäre das wohl am besten zu untersuchen.

Verhält sich das wirklich schlechter? Ich mein... dann hat man ja immernoch den gleichen SSD Speicher rein kapazitiv, und 256 GB wäre dann schon ein großer Cache. Da muss ich dann schon viele Games und Anwendungen starten um diesen zu "reseten".

Edit: Die Tests die ich so kenn sind eigentlich weitestgehend echt gut.

http://www.hardcoreware.net/ssd-cache-performance/2/
http://www.anandtech.com/show/4329/intel-z68-chipset-smart-response-technology-ssd-caching-review/4

Bisher war der Nachteil meist in ~10% weniger Performance zur reinen SSD, was ja aber Optane weniger hat. Teils sogar schneller als die SSD.

http://www.anandtech.com/show/11210/the-intel-optane-memory-ssd-review-32gb-of-kaby-lake-caching/4

http://techreport.com/review/31784/intel-32gb-optane-memory-storage-accelerator-reviewed/2

Wirklich negative Tests haben meist reines IO Metering usw gemacht keinen wirklichen "Alltag" erfasst.

Edit:
Wenn jemand hier schon länger auf einem Intel System mit SSD + HDD Gespann unterwegs ist, vielleicht sogar Games und manche Sachen auf "D:" ablegt - sollte vielleicht echt mal testen wie sich das Intel Smart Response so macht indem er es auf ein einziges Laufwerk mit SSD Cache um-konfiguriert.

Oder auch einfach ne alte kleine SSD als Cache für sein "D:" einbindet.
 
Zuletzt bearbeitet:
@Krautmaster

Optane Caches mit 256GB sind aktuell aber auch Mangelware. ;)
Wenn du fair testen willst, beschränkst du die Cache Größe auf 16 GB/32 GB.

Den Flush des Caches erzwingen die Anwender bei kleinen Caches automatisch, indem sie andere Anwendungen bzw. Spiele starten. Der ideale Fall für Caches sind Anwender die immer die identischen Anwendungen starten aber leider bildet dieses sehr oft nicht die Realität ab. (Bzw. nicht den typischen Anwendungsfall den ich kenne.)

Die ganze Cache Lösung dürfte auch dann spannend sein, wenn 2 Betriebssystem parallel installiert sind und mit beiden Betriebssystemen auf den gecachten Medium zugegriffen wird. Was passiert dann?
 
Ein nachteil der mir grad auffällt, zumindest derzeit scheint die Datendichte noch recht niedrig zu sein, man benötigt also für die gleiche Speichermenge wesentlich mehr Platz... das wird sicher auch noch ein Faktor für den Erfolg werden, wie gut man dabei weiter kommt und wie die Konkurenz dabei abschneidet...
Das wäre die einzige Chance für Intel das Teil noch zu retten, die Datendichte zig mal schneller steigern als zb. Samsung über die Jahre. Aber ehrlich gesagt traue ich denen das nicht zu, die SSDs sind ja mit 3D NAND sehr gut mit dabei. Das wird auch nix, das traue ich mich wetten.
Niemals wird das was. Nächste Totgeburt Made by Intel.
 
Wenn ich jetzt im Kreis immer boote, dann nacheinander 5 verschiedene Anwendungen und Spiele starte, dann forciere ich ja quasi einen Cache Flush. Wie jeder Cache muss der SSD Cache halt "warm" werden.

Das ist natürlich ein optimum für´s caching.

Meine Erfahrungen mit einer Seagate Momentus XT waren aber eher ernüchternder Natur.
Diese Teil hatte scheinbar immer Daten gecacht die ich gerade nicht brauchte und war in der Summe nicht wesentlich schneller als eine Standard HDD.
Scheinbar sind meine Nutzungsgewohnheiten nicht mit caching kompatibel.
Tagsüber arbeite ich ich mit verschiedenen Photo- und Filmbearbeitungsprogrammen und abends werden noch ein paar Stunden gezockt (mit verschiedenen Spielen), am nächsten Tag wird weiter gearbeitet und Adobe starten wieder laaangsam, weil vermutlich noch ein Spiel im Cache hing.

Ich habe mich dann für den Weg SSD für Betriebssystem, Programme, VM und Spiele + HDD für Daten entschieden weil ich nur so sicher sein kann das auch Programme und virtuelle Maschinen die nur alle ein bis zwei Wochen benötige ausreichend schnell starten.

Nicht zu vergessen ist ja auch der Umstand der in der Natur des cachings liegt, man kauft ja keinen zusätzlichen Speicher sondern kauft für gute 100€ einen Pufferspeicher dessen Volumen ich aber nicht nutzen kann weil er ja eben nur vorhandene Daten puffert, kaufe ich eine 256GB SSD habe ich 256GB zusätlichen Speicher.
 
Klar. Die Frage ist auch wie viel Speicher es beim Cache braucht. Deswegen hab ich ja die kleine Analyse und er Datei Anzahl gemacht. 70% der Dateien bei mir von 230GB machen weniger als 20GB aus.

@Hallo32

Das Intel RST übergibt die Cache Disk wie auch ein Raid transparent ans OS, wie eine einzige Platte. Wie du die partitionieren tust überlässt man dir. Sofern die installieren OS diese Disk via Treiber unterstützen ist Multi boot kein Problem. Ich meine Win8 aufwärts oder vllt auch schon 7 haben ein RST Raid / oder eben Cache direkt bei Windows Setup erkannt.

Du kannst auch nachträglich zu einer Platte einen Cache konfigurieren, dazu musst du aber von AHCI auf Raid Modus stellen, dazu muss Intel RST installiert sein und auch der Treiber entsprechen stehen sonst bootet er mit Einstellung Raid im BIOS nicht.

@Cookie_dent

Bei dem AMD Chipsatz gibt's mein ich auch keine Option um sowas zu konfigurieren.
Den Intel Chipsatz stellst du wie ein Hardware Raid einmal ein. Das is egal wie oft du Neuinstallationen machst, du musst wie bei einem Hw Raid halt die Treiber bei der Setup laden sofern nicht integriert.
 
Zuletzt bearbeitet:
Intels Optane ist schon ein recht interessantes Produkt, jedoch muß das wirklich reifen. Als reiner Beschleuniger des Systems mags halbwegs gehen, aber vergesst nicht das wurde schon mal versucht, von Microsoft mir ihrem Ready Boost. Was ja bekanntlich dann untergegangen ist, nicht zuletzt durch die SSDs. @ Cookie_dent, hast schöne 32GB Ram, so wie ich. Davon nutze ich 16GB als RamDisk. Habs hier auch schon gelesen, ist derzeit noch die bessere Alternate mMn, da nochmals viel schneller, und mit der Auslagerungsdatei drauf sind dann auch die richtigen oft genutzen Dinge darin enthalten. Von daher ist meine Meinung, erst einmal abwarten wie Micron und Intel die Technik weiter entwickeln, obs wirklich eine echte Alternative oder gar Konkurrenz zur PCIe SSD wird. Und solang komm ich mit meiner Konfiguration von SATA SSD als C: Laufwerk und 960 Evo 1TB als Game Laufwerk für Steam und Origin samt 16 GB RamDisk sehr gut aus. Ebenso wie mit Filmen umwandeln.
 
hängt auch viel von der "Intelligenz" bei der Umsetzung ab. Das Caching rein in der HDD kann vielleicht auch garnicht sonderlich smart sein wenn es unabh von Dateisystem und OS wirklich gut sein soll, auch war da der Cache immer recht klein.

Bei meinen Ellis is die alte 40 GB Intel SSD zu knapp :P vllt hau ich da mal noch ne 500GB 2,5" HDD rein und richte am ICH das Caching ein sofern das der Chipsatz unterstützt. Is noch n H67 oder so.

@32 GB

Jeder der zb ne 128GB + HDD Kombi an Intel Southbridgen hat sollte den vollen SSD Speicher der HDD als Cache zuweisen können. Klar, Gesamtkapazität sinkt und die Frage ist ob >32 GB noch viel bringt. Interessant wäre es natürlich vergleichen mit der reinen SSD. Nur muss man einen großen Cache auch lange "warm" werden lassen. Also mal Wochen damit arbeiten.
 
Zuletzt bearbeitet:
aktuell nicht interessant
 
rg88 schrieb:
@fanatiXalpha: Man bringt es auf dem Markt, weil man eh schon zigmal die Deadline überschritten hat und versucht endlich irgendwas von den hohen Entwicklungskosten wieder einzuspielen. Sieht man auch an den viel zu hohen Preisen.
Der Sinn dieser Lösung mag sich mir sowieso nicht offenbaren. Da ist wohl viel Wunschdenken dabei gewesen am Anfang und die technische Entwicklung bei den SSDs macht diese neue teure Technik obsolet.

Sehe ich im Moment genauso. Ein altes System mit Optane aufpeppen fällt sowieso flach, da eine top moderne Plattform vorausgesetzt wird. Wer neu investiert, kauft wahrscheinlich eher eine Terabyte-SSD.
 
@ Cookie_dent, hast schöne 32GB Ram, so wie ich. Davon nutze ich 16GB als RamDisk.

fällt bei mir flach, weil ich allein bei der Filmbearbeitung Adobe Premiere schon exclusiv 16 GB zuweise, dann startet noch der Media Encoder, dann After Effects und das wars mit den 32GB RAM.
 
cookie_dent schrieb:
MIR ist vollkommen klar wie SSD caching funktioniert, mein teuerster Festplatten Fehlkauf war z.B. eine Momentus XT.
Windows startete wunderbar schnell und zügig
Und die ersten XT mit 750GB hatte nur 4GB Cache, wieso schreibst Du also das 16GB zu wenig wären wenn Windows auf der Platte schon mehr Platz braucht?
cookie_dent schrieb:
Aber 100€ für einen Festplattencache: Fail
Erstens sind die Preise in Deutschland derzeit noch total überzogen,, die US Listenpreise sind 44 und 77$ und zweitens ist das Caching der HDD ja nur eine mögliche für diese SSDs abr eben nicht die einzig mögliche.

supern00b schrieb:
Weiß jetzt nicht mehr womit 3D XPoint genau verglichen wurde, obs NAND oder eine (Samsung)Weiterentwicklung war, da war jedenfalls die Reden davon, dass schon bei recht geringer QD die Geschwindigkeit stark abnehmen würde, und die Konkurenztechnologie vorbeiziehen würde...
Eine Weiterentwicklung wohl auch Basis von NAND Flash von Samsung soll erst noch kommen und die konkreten Produkte mit 3D XPoint sind noch nicht sehr ausgereift und leistungsstark, die Controller dürften hier bei den SSDs damit noch der Schwachpunkt sein.

supern00b schrieb:
zumindest derzeit scheint die Datendichte noch recht niedrig zu sein, man benötigt also für die gleiche Speichermenge wesentlich mehr Platz... das wird sicher auch noch ein Faktor für den Erfolg werden, wie gut man dabei weiter kommt und wie die Konkurenz dabei abschneidet...
Das ist ja auch die erste Generation die in die Serienproduktion geht, die haben gerüchteweise nur 2 Layer und NANDs ist bei Samsung schon länger bei 48 Layern in der Serienfertigung, 64 und 72 Layer 3D NAND dürfte demnächst auch auf den Markt kommen. Aber ja, der Vorteil von NAND ist seine hohe Datendichte und damit der Preis.

Kenneth Coldy schrieb:
am Ende ein teures, lediglich zu sich selbst kompatibles und energiehungriges Produkt
Wieso nur zu sich selbst kompatible? So ein Blödsinn, dies sind ganz normale M.2 NVMe SSDs die man überall nutzen kann wo man auch andere M.2 NVMe SSDs einsetzen kann. Einzig die geringe Kapazität schränkt die Möglichkeiten ein und daher bietet Intel eben die Möglichkeit diese auf entsprechenden Systemen auch als Cachelaufwerke zu nutzen.

Krautmaster schrieb:
Und da musst du dann jedes mal selbst entscheiden "pack ichs auf die SSD oder auf die HDD".
Genau das wollen aber einige Leute überhaupt nicht, auch wenn solche Personen eher nicht in Foren wie diesen unterwegs sind und genau an diese Kunden richten sich die Cacheinglösungen.
Mcr-King schrieb:
Richtig und auch die Haltbarkeit ist grade als Cache sehr wichtig und glaube da könnte sie auch scheitern.
Intel garantiert über 180TB TBW, dies sollten für einige Jahre reichen, haben doch einfache Desktop HDDs nur ein Workload Rating von 55TB pro Jahr und dies umfasst die gelesenen und die geschriebenen Daten, also alles was potentiell gecacht werden könnte.
Mcr-King schrieb:
Aber ja mal ein richtiger Test wäre nett vor allem Praxis nah, aber komisch dass es bis jetzt keinen gibt.
Von den Optane? Wie kann es denn solche Tests geben, wenn die gerade erst seit ganz wenigen Tagen überhaupt im Handel sind und offenbar auch noch nicht in allzu hohnen Stückzahlen.

Krautmaster schrieb:
Dann gibts wohl noch die Philosophie ob Read only Cache, oder ob Write auch beschleunigt wird.
Soweit ich das in dem einen Review überflogen habe, kann man einstellen wie man es haben möchte.

Krautmaster schrieb:
Wenn ich fürs selbe Geld ne 256 GB NAND SSD als Cache nutzen kann hat das vllt weit mehr Sinn als auf 32 GB Optane zu gehen.
Man kann aber meine nich nur einen Teil von maximal 64GB als Cache nutzen und der RST skaliert wohl auch nicht optimal mit mehr Cache, 32GB scheint bei dem das Optimum zu sein. Je größer der Cache ist, umso aufweniger wird eben auch dessen Verwaltung und dann verliert man eben einen Teil des Vorteils wieder, der ja gerade bei den Optane und aber generell bei SSDs im Vergleich zu HDDs vor allem in den kurzen Zugriffszeiten liegt.

Krautmaster schrieb:
Beim LSI Controller und CacheCade passiert das fortlaufend und eher auf Blockbasis
Was anderes kann ein RAID Controller oder auch der Controller einer SSHD ja auch nicht machen, die kennen weder Partitionen noch Verzeichnisse oder Dateien, sondern nur die Zugriffe auf einen bestimmten LBA und die x folgenden. Bei dem RST läuft das Cache aber unter Windows, wenn auch im Treiber, aber im Prinzip könnte der wohl schon erfahren zu welchen Dateien die Zugriffe gehören und dies in die Cacheverwaltung mit einbeziehen.

Hallo32 schrieb:
Leider hat sich in der Vergangenheit aber bei den SSD Cache Lösungen gezeigt, dass das Verfahren nur gute Ergebnisse liefert, wenn der User eine gewisse Regelmäßigkeit bei den Anwendungen aufweist und somit der Cache Treffer liefert.
Das ist das Prinzip nach dem jeder Cache funktioniert, wenn Du das RAM immer komplett von vorne nach hinten liest, sind die L1, L2 und L3 Caches der CPU auch recht wertlos. Jeder Cache hat nur einen Effekt wenn bestimmte Daten häufiger wiederholt gelesen werden.

Hallo32 schrieb:
Wechselt der User hingegen lustig die Anwendungen, so sind die nicht immer im Cache und der User flucht über die langsame HDD. Für solche User ist in der Regel eine große SSD anstatt Cache besser.
Klar, aber für eine SSD mit entsprechender Kapazutät müssen sie dann auch entsprechend tief in die Tasche greifen. Das SSD only schneller ist, mussen wird nicht diskutieren, es kostet aber eben auch mehr. Eine CPU mit 32GB L3 Cache und ohne RAM wäre besser als eine mit 8MB L3 und 32GB RAM daran.

Kasmopaya schrieb:
Das wäre die einzige Chance für Intel das Teil noch zu retten, die Datendichte zig mal schneller steigern als zb. Samsung über die Jahre.
Was zu retten? Die kleinen Optane Memory SSDs sind nur um erst einmal überhaupt 3D XPoint als Produkt auf den Mart zu bringen, wie werden wie die anderen Cache SSDs wie z.B. die Intel 311 und 313 wieder verschwinden, aber damit werden die Optane SSDs nicht ingesamt verschwinden. Die Datendichte von dem 3D XPoint wird auch noch steigen und wahrscheinlich erst einmal viel schneller als bei NAND, denn bei NAND ist die Entwicklung schon sehr ausgereizt während sie bei 3D XPoint gerade erst ganz am Anfang steht. Anfangs sind die Fortschritte erst zögerlich während man die Technik noch erst vollständig begreifen muss und dann rasant, während man alle offensichtlichen Optimierungsmöglichkeiten nutzt um dann am Ende wieder langsam zu werden, wenn man mühsam in kleinen Schritten weiter optimieren muss, weil man an Grenzen stößt. Schau Dir die Taktraten von CPUs an, die waren lange im einstelligen MHz Bereich, dann gam man in den 2 stelligen MHz Bereich und nachdem die MHz dreistellig wurden, ging es recht rasant in die GHz um dann zu merken, dass die 10GHz mit denen man fest gerechnet hatte, nicht erreichbar sind.

Bei NAND ist es ähnlich, die Strukturen konnte man lange immer weiter schrumpgen, aber unter 20nm hat man dann massiv negative Einflüsse durch die geringe Anzahl der Elektronen in den Zellen und ide geringen Abstände zu den Nachbarzellen bekommen. Also geht man da in die 3. Dimension und auch die ist endlich, jeder zusätzliche Layer erfordert mehr Bearbeitungsschritte und erhöht das Risiko Ausschuss produziert zu haben. Die Kostensenkungen werden NAND also auch immer langsamer werden, zumal Entwicklung der 3D NANDs und dessen Fertigungsanlagen extrem teuer sind und daher die Menge weiter steigen muss um die Kosten zu senken. Genau das gilt für jede dieser Technologien, auch für 3D XPoint.
Kasmopaya schrieb:
Aber ehrlich gesagt traue ich denen das nicht zu, die SSDs sind ja mit 3D NAND sehr gut mit dabei.
Die Frage wie die Zukunft von 3D XPoint sein wird entscheidet sich auch nicht im Vergleich zu NAND, sondern im Vergleich zu anderen Storage Class Memories, wie z.B. ReRAM und die sind nämlich weit zurück. Wenn es davon überahupt schon fertige Produkte gibt, dann allenfalls mit Kapazitäten im MB Bereich und damit bisher nur für Embedded Anwendungen zu gebrauchen. NAND wird weiter für viel Anwendungen und gerade für Heimanwender relevant bleiben, aber die Storage Class Memory Technologien werden neben der Nutzung als Medium in SSDs auch ganz andere Anwendungen erschließen die es heute noch nicht gibt bzw. als Krüppellösungen wie diese DIMMs mit DRAM und NAND um die Daten im RAM bei Spannungsabfall dort abzulegen und so nicht flüchtiges RAM zu erzielen.

Kasmopaya schrieb:
Das wird auch nix, das traue ich mich wetten.
Warum sollte es nicht klappen und was ist denn Dein Wetteinsatz?
Chrissi1303 schrieb:
Von daher ist meine Meinung, erst einmal abwarten wie Micron und Intel die Technik weiter entwickeln, obs wirklich eine echte Alternative oder gar Konkurrenz zur PCIe SSD wird.
Die Optane um die es hier geht sind PCIe SSDs, von daher sind bzw werden sie dann allenfalls eine Alternative oder gar Konkurrenz zur NAND bestückten PCIe SSD.
 
Holt schrieb:
Wieso nur zu sich selbst kompatible? So ein Blödsinn, dies sind ganz normale M.2 NVMe SSDs die man überall nutzen kann

Beleg bitte. Ich habe mich auf Techreport bezogen wo Gegenteiliges berichtet wird:

. The $44 16GB module and the $77 32GB module that will be available at launch only work with PCs with 200-series motherboards and Kaby Lake Core CPUs.
 
Getestet wurde sie aber auch und nicht nur bei Technreport auf der zweiten Seite als Stand-Alone SSD, nur für die Nutzung als Cachelösung braucht man die passende Plattform, darauf ist die von Dir zitierte Aussage bezogen. Von Intel für die Tests verschickt und von den Reviewer genutzt wurden übrigens ein B250er Board, man braucht also kein Z270er wie hier auch zuweilen unterstellt wird.
 
Holt schrieb:
Und die ersten XT mit 750GB hatte nur 4GB Cache, wieso schreibst Du also das 16GB zu wenig wären wenn Windows auf der Platte schon mehr Platz braucht?

Stimmt, die ersten Modelle hatten 4GB, mein Modell hatte aber 8GB - warum hat Seagate den NAND Speicher wohl verdoppelt? Seinerzeit hatte ich Win7 Home 32Bit drauf, heute nutze ich Win10 Pro. 64Bit, was wohl auch noch einen Unterschied darstellen könnte.

Holt schrieb:
Erstens sind die Preise in Deutschland derzeit noch total überzogen,, die US Listenpreise sind 44 und 77$ und zweitens ist das Caching der HDD ja nur eine mögliche für diese SSDs abr eben nicht die einzig mögliche.

Die US Preise sind immer Plus Mwst., dem entsprechend ist der Deutschlandpreis nicht überzogen.
Natürlich ist das Caching nicht die einzige Möglichkeit für eine Optane, ich könne sie zum Beispiel in meinen Restepappkarton neben eine viel zu klein gewordene 64GB Uralt SSD legen.

Holt schrieb:
Wieso nur zu sich selbst kompatible? So ein Blödsinn, dies sind ganz normale M.2 NVMe SSDs die man überall nutzen kann wo man auch andere M.2 NVMe SSDs einsetzen kann. Einzig die geringe Kapazität schränkt die Möglichkeiten ein und daher bietet Intel eben die Möglichkeit diese auf entsprechenden Systemen auch als Cachelaufwerke zu nutzen.

Die richtige Antwort von der Intel HP:

Intel® Optane™ memory can accelerate any SATA-based storage device installed in a 7th
generation Intel® Core™ processor-based platform that is designated as Intel® Optane™
memory ready

Also:
7. Generation: Kabylake
Optane Ready: 200er Chipsatz - also Z270, H270 und B250

von wegen überall nutzbar und so, schon mit Sky Lake guckste in die Röhre
 
Nene, er hat schon recht. Als stinknormales NVMe Laufwerk funktionieren die Dinger in jedem System, siehe seinen techreport Link einen Post über dir. Nur würde die Leute noch mehr heulen, wenn man sagt: "Installiert halt euer Windows auf den 27GB".

Erster Absatz im Link: "Since Optane Memory uses NVMe as its underlying protocol, an Optane Memory module will first appear as a small SSD in Windows' Disk Management utility. Although this is absolutely not the way most people will or should use Optane Memory, I was able to format the drive as a 27GB NTFS volume so that we could run some basic synthetic storage benchmarks on the stuff."
 
Zurück
Oben