Test Intel Optane Memory im Test: 3D XPoint gegen NAND‑Flash und Magnetspeicher

@HominiLupus

Wie viele Techniken gabs schon, wo es immer geheissen hat- Wer braucht das, wer braucht so viel, wer braucht so schnell etc. etc.?
Und immer wieder setzt sich zum Glück eine dieser Techniken durch. Natürlich gibts auch Fehlzündungen, weil die Marktdurchdringung und die Nachfrage letztendlich zu gering ist...
Das ist aber in der Technik allgemein so, seit ich denken kann...
Und wir reden hier von ganzen Faktoren, die das Produkt praxisrelevant schneller sein kann.
In der heutigen Zeit eher eine Seltenheit.

Grüße
Zero

Edit:@HaZweiOh
Er unterstellt ihnen ja hintergründig "Böses"->Auf den eigenen finanziellen Vorteil bedacht sein, Mitbewerber durch "Schikane" aussperren.
Liefert aber im zweiten Satz gleich die Beispiele dazu, wo sich das Entwicklungsrisiko aufgrund geringer Fertigungsstückzahlen und Marktdurchdringung nicht ausgezahlt hat und dieser Schuss nach hinten losgegangen ist...

Zudem noch einmal- Die Optane Technik ist für alle Rechnersysteme nutzbar. Nur nicht als Caching- Drives mit dem Intel- Treiber.
 
Zuletzt bearbeitet:
HaZweiOh, Du machst einen Fehler. Freu Dich über jeden Enthusiasten, der jetzt relativ viel Geld für so ein Produkt ausgibt. Um so schneller etabliert sich das. Und wir hinterhältigen Schmarotzer profitieren dann in 2 bis 3 Jahren davon. ;)
 
Naja HominiLupus... Dann kannst Du Dich ja freuen, wenn die Technik stirbt, nicht weiterentwickelt wird und wir bei NVME SSDs stehen bleiben.

Grüße
Zero
 
Er hat doch aber Recht. Um bei SSDs schneller zu werden benötigt es vor allem weniger Zugriffszeiten. Was Intel hier abliefert ist aber nicht bedeutend schneller, bei deutlich höheren Kosten und Lizenzmüll. Letzterer bricht dem Ding das Genick.
Krautmaster schrieb:
Ganz ehrlich, ich würd mir heute statt meiner 2 TB 960 Pro dann lieber ne 2 TB HDD und nen Optane Modul kaufen. Da spar ich mir 500€.

Geht erstens nicht und warum zum Teufel kommt ihr auf die irre Idee, dass der Cache 2 oder 4TB durchgehend beschleunigen könnte?!
Das Ding ist ein Zwischenspeicher für_kleine_ Daten. Genau da wo die Transferleistung von Festplatten ins bodenlose wegbricht. Bei einer SSD hab ich hingegen bei allen Daten volle Leistung. Bei dem Preis alleine ist eine der günstigen SSDs ein NoBrainer. Alles darüber ist Zusatz aber im Blindtest vermutlich nicht zu erkennen.

PS: Um den Nachteil vom Cache so richtig zu zeigen hätte nur mal eine richtig Große Anwendung ran gemußt. Das ganze Konzept hat gegenüber einer SSD essentielle Nachteile wenn nur an der richtigen Stelle gesucht wird.
 
Zuletzt bearbeitet:
Wieso sollten wir bei NVMe stehen bleiben: FeRAM, MRAM, etc..

Ich bin aber sicher, ja SICHER, daß Crosspoint immer eine Nische bleiben wird: nur ein Hersteller mit proprietärer Technologie und damit teuren Preisen. Das wird eine Art Rambus im günstigsten Fall.
Damit sich die Technik weiterentwickelt muss es mehrere Anbieter geben, nur dann gibt es Konkurrenz, nur dann funktioniert Marktwirtschaft. Hier gibt es nur einen Anbieter und damit ist es Essig. Merke: Intel musste x86 an AMD lizenzieren damit sie damals überhaupt ihre CPUs verkaufen konnten. Ohne second source läuft gar nix.
 
3D XPoint ist sicherlich eine interessante, aber verbessungsfähige, Entwicklung.
Es wurde in der Vergangenheit schon viel mit caching herumprobiert, aber durchsetzen konnte sich da nichts so richtig.
Ich hatte selbst mal eine Seagate Momentus xt verbaut und fand die Ergebnisse, sagen wir mal - ernüchternd.
Windows Boot und oft genutzte Programme wurden zackig geladen, selten genutze Anwendungen/Spiele starteten gähnend langsam.
Allerdings war der Cache seinerzeit auch nur 8 GB groß und Optane bietet mit bis zu 32 GB das vierfache an Speicher.
Auf der anderen Seite hatte die Seagate HDD auch nur 750 GB und modernere HDD´s haben hier mal gut das 10 Fache an zu cachender Kapazität.

Ich muss mir darüber allerdings auch keine weiteren Gedanken machen da ich als Besitzer eines AMD Systems, genauso wie die Besitzer eines Skylake (oder älteren Systems), von der neuen Technologie ausgesperrt bin.
Und als reine SSD macht Optane mit ihrer zu kleinen Kapazität bei zu hohem Preis keinen Sinn.
 
Interessant fände ich vorallem, ab wann fallen alte gecachte Daten wieder aus dem Modul. Dafür müsste man wohl eigens Benchszenarien kreieren. Also z.B. Spiel A starten, Spiel B starten, dann 6h Photoshop arbeiten oder Videoediting, und dann nochmal testen ob Spiel A immer noch beschleunigt wird.

Technisch ist XPoint interessant, Caching hingegen nicht. Macht aber schonmal laune auf die 900p.

PS: Werft doch nicht ständig NVMe und XPoint in einen Topf. Schnittstelle != Speichertechnologie.

PPS: Wenn mir nur wichtig ist, Daten innerhalb einer Session möglichst schnell öfter zu laden hilft nur eins, mehr Ram.
 
Für 81€ kann ich auch ne richtige SSD einbauen, bei 20€ wäre es vielleicht sinnvoll gewesen.
Da waren die AMD SSDs besser.
 
Danke.

Ich rede nichts tot bevor ich es nicht getestet habe. Und ja, ich kann mir durchaus vorstellen dass mit einem relativ gesehen kleinen Cache ein sehr viel größerer Speicher beschleunigt wird. Genau wie bei Arbeitsspeicher oder bei wenigen 100MB Cache im Raid Controller auch. (auch wenn nicht direkt vergleichbar)

Wie gesagt. Über 90% der Daten auf einer Festplatte ist es quasi Wurst ob von HDD oder SSD gelesen (alles von MP3 über Filme oder Bilder ab 1MB) . Beim Caching geht's darum die kleinen Daten die Anteilig den Hauptteil der Zugriffe ausmachen zu beschleunigen.

Ob die Technik dabei von AMD Intel oder sonstwem ist ist doch vollkommen Wurst. Sie funktioniert und sind die Daten im Cache sind sie weit schneller da als von der Top End SSD 960 Pro.
Wie jeder Cache fällt und stirbt er mit der Hit Rate.
Wer Optane also totreden will kann gern sagen wie hoch bzw niedrig seine Hitrate bei 32GB im Alltag wäre. Lässt sich sicher iwo/iwi rausfinden.

Ergo wie viel MB Leseleistung macht meine Platte am Tag, wie groß sind diese Daten insgesamt.
 
Zuletzt bearbeitet:
Ich könnte mir auch vorstellen, dass eine HD mit solch einem Cache haltbarer wird, da weniger Zugriffe erfolgen. Auf 32Gb passt schon eine Menge an Daten drauf.

Meine SSD-HD wurde damals damit beworben, das intelligent auf diesen Cache zugegriffen wird, sprich: oftmals oder zuletzt benutzte Anwendungen zuerst geladen werden ect.

Besitzte natürlich noch eine reine SSD als Bootlaufwerk und die SSD-HD als Spiele-Platte.
 
Botcruscher schrieb:
Geht erstens nicht und warum zum Teufel kommt ihr auf die irre Idee, dass der Cache 2 oder 4TB durchgehend beschleunigen könnte?!
Weil Optane unter Anderem als read- ahead und write back cache genutzt wird. Der Verweis auf Raid Controller und deren enormen Leistungssteigerungen durch eine BBU oder SLC Modul ist hier genau der richtige. Die Leistung steigt ERHEBLICH. Weil z.B. der Schreibvorgang bei hoher Kopfbewegung zurückgehalten werden kann, bis sich die Lage gebessert hat.

Das macht einen ordentlichen Unterschied. Aber diese ganzen Threads hier zeigen wirklich eindrucksvoll, dass sich hier entgegen aller Aussagen fast niemand mit der Speichertechnologie XPoint (die nicht Intel exklusiv ist) oder Optane auseinandergesetzt hat.

Das garniert mit einer gesunden Portion von Vorurteilen, Hass und Markenfetischismus und schon lässt sich die Diskussionskultur hier auf ein schön niedriges Niveau senken.

AMD hat zum beispiel nicht die Exklusiv- Nutzung der ersten HBM Speichergeneration klargemacht...
UUUUps... Da war doch was. haben sie ja doch!
Finde ich das schlimm? Nein- Sie haben die Entwicklungskosten mitgetragen. Dann sollen die auch als erstes absahnen dürfen.

Upps da war ja nochwas- AMD hat ja eine Zeit lang die User mit Kernzahlen verarscht (irgendwann seid Ihr die Könige, weil Ihr viele, viele Kerne habt ->Bulldozer). Nur leider war die IPC fürn Eimer....
Aber sie haben ja versprochen, dass sich dafür dann die Leistung in künftigen Anwendungen unglaublich steigert. Die Software würde nur jetzt nicht das volle Potenzial des Prozessors ausnutzen und alle Software muss nagepasst werden.
Ohoh... blöd gelaufen. Ist dann doch nicht so eingetreten....

Hmm.... Da war ja noch was- Die Grafikkarten haben zigdrölfzig Gigaflops... Die Hauen alles in den Boden.
Och-Aufgrund von Designschwächen sind wir aber dann trotzdem langsamer als die Konkurrenz.

Uuuuupppss. AMD lässt auch bei umweltverschmutzenden Fertigern produzieren, die auf Menschenrechte einen Haufen setzen....

etc. etc.
Also wer heutzutage bei Multi- Millionen- Dollar Konzernen Dinge wie "Wirtschaftsmoral" oder ähnliches anspricht, der lebt leider im Traumland.

AMD handelt und handelte nicht anders, wenn sich die Gelegenheit dazu bietet, einen Vorteil herauszuschlagen (Treiberbetrug bei Grafikkartenbenchmarks).
Nur hat Intel mehr Geld um schmuzigere Geschäfte durchziehen zu können.

Grüße
Zero
 
Zuletzt bearbeitet:
wie gesagt, einfach mal selbst zu Hause schauen welche Dateien auf der Platte liegen und wie viel % davon in 32 GB reinpassen. Also bei dem hohlsten Cache ja den man sich vorstellen kann, blankem Füllen nach kleinsten Dateien.
Ergänzung ()

Nehmen wir den Rechner meiner Freundin. ZBook, 512 GB SSD. 200GB belegt



222k Files, 142k davon ganze 1,72 GB groß.

Man könnte jede Datei bis 3,5 MB in den Cache von 32 GB legen



Ich denke lässt sich eine verdammt hohe Hitrate realisieren. 3/4 der Dateienmachen 10% der Größe aus.

Rechnet man das hoch könnte man 75% Hitrate bei 3200 GB realisieren. Einfach durch dummes Cachen der kleinsten Files.
 
Zuletzt bearbeitet:
Deswegen wird der rotierende Rost auch nicht schneller. Die Zielgruppe hier sind Spieler und damit viel sequentielles lesen von inzwischen typischen 10GB aufwärts. Die SSD ballert dir SATA3/M2 voll während die Platte innen noch 60MB/s bringt. Da hab ich ja ganz großartig gespart.:freak: Irgendwelche GIMP Starts sind total an der Realität vorbei. Da tut es jede SSD. Normalo bekommt da 256/512GB fertig rein gestopft und fertig ist die Laube. Dazu ohne Laufgeräusche und spanabhebende Datenverarbeitung.

Wer soll das Ding überhaupt einbauen? Entweder es kommt fertig als Hybridplatte oder es ist eh tot. Die Mehrzahl der Nasenbohrer bekommt ja nicht mal einen Grafiktreiber installiert. Da reicht jeder Konsolen-thread als Referenz.

ZeroZerp schrieb:
Weil Optane unter Anderem als read- ahead und write back cache genutzt wird. Der Verweis auf Raid Controller und deren enormen Leistungssteigerungen durch eine BBU oder SLC Modul ist hier genau der richtige. Die Leistung steigt ERHEBLICH. Weil z.B. der Schreibvorgang bei hoher Kopfbewegung zurückgehalten werden kann, bis sich die Lage gebessert hat.
Raid Controller? Wir sind aber noch beim Test als Hybridplattenersatz für Bootlaufwerke only oder? Also das Ding wo eine SSD es ohne Einschränkungen besser macht.

Das macht einen ordentlichen Unterschied. Aber diese ganzen Threads hier zeigen wirklich eindrucksvoll, dass sich hier entgegen aller Aussagen fast niemand mit der Speichertechnologie XPoint (die nicht Intel exklusiv ist) oder Optane auseinandergesetzt hat.
Klar wäre Xpoint als RAM Ersatz für zum Beispiel Raidcontroler "nett"... das ist aber nicht der Test hier und mit dem 32GB Modul auch (noch) nicht nötig. Womöglich reicht es Intel ja per Bezahlcode für Skylake X nach. Wie die Raidfunktionen kann es dann zugekauft werden.:freak:
 
Zuletzt bearbeitet:
bensen schrieb:
Marginal schneller, ist klar.
Das einzige was über den Erfolg von XPoint entscheidet ist, wie schnell Intel/Micron es schaffen die Datendichte zu steigern.

Weiss auch nicht, was du immer mit deiner Nische willst. Wäre mir neu, dass Intel bei den CPUs nur 5% Marktanteil hat. Das sind wohl eher >90%. Kompatible Systeme musst du da nicht gerade suchen.

Es ist nur marginal schneller. Mich interessiert nicht ob das Ding 10ns oder 100ns braucht, weil beides niemand unterschieden kann. Im Datencenter ist das auch nicht wichtig. Was wichtig ist, sind 10.000 vs. 100.000 Zugriffe pro Sekunde. Schneller Zugriff braucht man nur bei interaktiven Anwendungen und da sind schon SSDs schneller als man es braucht.
OK, vielleicht für die HP Maschine die immer wieder in den News ist, der würde schnellerer Zugriff gut tun. Aber bis wir die Billionen $ an Software dafür umgeschrieben haben ist XPoint schon lange core memory...

Im Serverbereich sind es eben keine 90% mehr. Nach Stückzahlen schon, aber in einen Dell T20 baut man eher keine XPoint ein, nicht bei den Preisen.
Es ist imho nicht so sehr die Datendichte die darüber entscheidet sondern der Preis, was natürlich auch eine Funktion der Datendichte ist, aber bei Intel Exklusivtech meist nur ein kleiner. Deswegen ja auch meine Nennung von Micron oben.

Wenn die P4800X so toll ist, wieso kann Intel dann überhaupt noch Consumerhardware liefern? Die Käufer müssten die Intel doch aus den Händen reissen.
"Intel made $816m from flash memory products in the final 2016 quarter and sees XPoint contributing 10 per cent of revenues in 2018."
Oder ist der Preis deshalb so hoch weil man hier nur die teildeaktivierten Chips verkauft und alle anderen in die P4800X gehen? D.h. man hat nicht viele und verknappt die? Ca. 1 Milliarde Umsatz in der Sparte und davon dann höchstens 10% (heute sehr viel weniger). Yep, so sieht ein aggressiver Ramp nach 2 18 Monaten aus....
Die Fabs müssen ja nicht speziell sein für XPoint oder? D.h. normale IMFT Fabs können das herstellen?

Natürlich kann XPoint noch ganz groß rauskommen, aber die Erfahrung spricht einfach dagegen. Da sind FeRAM oder MRAM mehr oder minder genauso erfolgversprechend. Die haben auch das gleiche Problem: sie sind schneller aber schlechte Datendichte und hoher Preis. Aber dafür Konkurrenz von verschiedenen Herstellern.
 
Die m.2-Karte von Intel hat sowohl die M- als auch die B- Kodierung. M.2-Module mit Aussparungen in den Positionen B und M nutzen bis zu zwei PCI-Express-Lanes, während M.2-Karten, die nur für Key M geeignet sind, bis zu vier PCI-Express-Lanes verwenden. Beide Typen unterstützen auch SATA als Protokoll. Aber bei nur zwei Lanes kommt man nach Abzug des Overheads nicht mehr arg viel weiter beim Speed. 1600..1800MB/s?

Aber wieviel wäre das beim 4kQ1?
Ergänzung ()

bensen schrieb:
Das einzige was über den Erfolg von XPoint entscheidet ist, wie schnell Intel/Micron es schaffen die Datendichte zu steigern.

Weiss auch nicht, was du immer mit deiner Nische willst. Wäre mir neu, dass Intel bei den CPUs nur 5% Marktanteil hat. Das sind wohl eher >90%. Kompatible Systeme musst du da nicht gerade suchen.

1. Datendichte ist bei einem Boostspeicher nun wirklich nicht die primäre Eigenschaft, hier geht's um Speed und nicht um Platz.
2. Schau dich noch mal bei den Specs für Optane als Boost um, nur Kaby Lake, hat ja auch bei den gerade etwas älteren Systemen, bei denen man vllt nachrüsten möchte, jeder.
 
Botcruscher schrieb:
Deswegen wird der rotierende Rost auch nicht schneller. Die Zielgruppe hier sind Spieler und damit viel sequentielles lesen von inzwischen typischen 10GB aufwärts.

Wenn dir Sequentielles Lesen so viel bringen würde wäre deine 3000 MB/s Nvme SSD nicht nur 10% schneller als eine an Sata III. Zudem wird man sowas nicht cachen da bei großen Files die Zugriffszeit gegenüber der Lesezeit klein ist. Ob du beim Lesen von einer 1GB Datei 10ms Zugriffszeit hast oder 0,01ms ist relativ Banane. Wichtiger ist dass du bei den nebenbei gelesenen 5000 10kb Dateien nicht jeweils 10ms hast.

Überleg dir einfach was und wieso dir eine SSD überhaupt massiv Vorteile gegenüber Spin Platten bringt und weshalb man auf die Max Datenraten so viel geben kann wie auf sonstwas... IO ist das was die SSD gegenüber der HDD punktet. Viele kleine Dateien die extrem oft gelesen werden.

Mach einfach mal deinen FileMon / Process Monitor auf und schau was dein Game so liest.

Die ersten SATA SSDs für Consumer waren sicher nicht wegen der Bandbreite gefühlt so viel schneller als die Spin Platten.
 
Zuletzt bearbeitet:
Natürlich limitieren bei den meisten Anwendungen die kleinen Dateien und da kommt gegenüber der Festplatte auch der meiste Gewinn her. Das interessiert doch aber nicht beim Vergleich von zwei Festspeichern. Eine typische SSD ist einfach zu günstig um da auf irgendwelche Vorteile zu verzichten. Gleichzeit sind wir gerade beim Hoch im Schweinezyklus was die Speicherpreise angeht.

Gerade bei Spielen zählt wiederum die sequentielle Rate weil da wenig große Daten geladen werden. Bei entsprechendem Prozessor sind da auch wiederum ordentliche Vorteile drin. Dazu ist das ganze extrem gut auf mehrere Kerne verteilbar. Aber da sind wir ja direkt wieder bei Intel und der Ewigkeit an Vierkernern. Die PCIe-SSDs dürfte demnächst richtig aufblühen... wenn die richtigen Szenarios getestet werden. Datenrate bringt eben nix wenn der Prozi limitiert.

---
PS: Was soll eine SSHD in einer Office-Möhre? Da wandert ganz automatisch eine kleine und billige SSD rein weil die günstiger ist. Daten liegen auf dem Ding eh nicht. Festplatten sterben gerade jenseits der Datensärge einfach nur aus. Bei den Notebooks stellen die in allen Segmenten lange die Mehrheit. Dem Abzocke-Kartell aus WD und SG darf zurecht die Scheiße an den Hals gewünscht werden. Preise verdoppelt und nie wieder gesenkt.
 
Zuletzt bearbeitet:
Das mit den Spielen wäre doch sicher eine super Ergänzung für den SSD CB Parcour. Vielleicht glänzen da die PCIe SSDs gegenüber Sata 3. Ich hab jetzt nicht explizit getestet wie groß der Unterschied bei mir zu Hause zwischen 2TB EVO an Sata 3 gegenüber der 1 TB Samsung 960 Pro ist. Letztere sollte deiner Theorie nach massiv davon ziehen.

Was würdest du einbauen wenn die Anforderungen 1TB Storage ist bei nem Preisrahmen 300 Euro für den Rechner?
 
Wirbt Krautmaster immer noch für Festplatten-Caching, während der Rest des Forums schon SSDs hat, die vielfach so groß sind wie dieser "Versuch"?
 
Zuletzt bearbeitet:
Zurück
Oben