0xffffffff schrieb:
Was bringt "Optane"? Was hat der klassische Benutzer oder der klassische Server davon?
Der normale Heimanwender nutzt die Fähigkeiten einer Optane praktisch nicht, im Servern aber schon. Die Dinger bringen einfach immer die gleiche hohe Leistung und da rede ich nicht von den seq. Transferraten auf die die meisten Leute bei SSDs immer nur schauen, sondern die IOPS. Die Optane haben keinen Steady State Zustand wie es bei allen SSDs mit NAND Flash der Fall ist, bei denen die Schreibraten immer irgendwann einbrechen wenn sie dauerhaft beschrieben werden, bei denen mit TLC NAND und Pseudo-SLC Schreibcache früher, bei denen mit MLC NAND später. Denn nachdem die volle NAND Kapazität geschrieben wurde, muss auch bei SSDs mit MLC (oder sogar SLC) der Controller während des Schreibvorgangs nebenbei noch NAND Blöcke löschen und dazu vorher die noch gültigen Daten umkopieren und daher fällt eben auch bei denen Schreibrate irgendwann ab. Bei der Optane aber nicht und auch nicht, wenn man parallele Lese- und Schreibvorgänge hat und man bezahlt letztlich für Performance bei anspruchsvollen Workloads:
Eine DRAM-less SSDs kann nur die volle Leistung bringen wenn sie leer ist und über einen Adreessraum von wengen GB gebencht wird, schon im Alltag wird sie oft lahm und erzeugt sogar Freezes:
Das liegt daran das die Controller die Mappingtabelle also den Flash Translation Layer (FTL) und eben nicht Userdaten im DRAM Cache ablegen, also die Information wo die Daten im NAND stehen und wo NAND frei ist um dort schreiben zu können. Die ohne DRAM Cache halten dann immer einen kleinen Teil der Mappingtabelle im interen SRAM des Controller, genug um in den Benchmarks die ja nur über ein oder weniger GB Adressraum benchen, aber im Alltag muss sie dann ständig erstmal wieder den passenden Teil aus dem NAND nachladen, was eben viel länger als ein DRAM Zugriff dauert.
Das ist das andere Ende der Fahnenstange und von den billige DRAM less SSD bis zur Optane die nie einbricht egal welcher Workload anliegt und wie lange auf sie geschrieben wird, ist eben das ganze Spektrum am Markt vertreten und je teurer die SSD ist, umso besser performt sie dann auch bei anspruchsvollen Workloads, nur haben eben die meisten Heimanwender gar keine so anspruchsvollen Workloads für die SSD und können daher eben auch weiter unten zugreifen, wobei ich aber einen Bogen um DRAM less SSDs machen würde.
0xffffffff schrieb:
Und ich hantiere mit VMs und Datenbanken
Privat oder professionell?
r4yn3 schrieb:
Eine konstant hohe Schreibrate bieten sonst nur die Samsung Pros.
Nein, die kann man zwar über die ganze Kapazität mit der vollen Geschwindigkeit beschreiben, aber eben nur einmal, überschreibt man alles sofort wieder und dies womöglich mit zufälligen 4k Schreibzugriffen, so geht auch sie in den Steady State und die Schreibperformance fällt, bei einer Optane passiert selbst das nicht.
Kulasko schrieb:
Also nach der technischen Beschreibung im Artikel ist das gar keine QLC-SSD mit integriertem XPoint-Cache, sondern eine QLC-SSD und ein Optane-Cachemodul auf einem Träger.
So ist es, dies sind zwei getrennte PCIe 3.0 x2 SSDs auf einer Platine, einmal eine Intel 660p und eine Optane Memory / M10.
Das ist wie damals die
WD BLACK2 DUAL DRIVE, nur eben mit zwei PCIe NVMe SSDs.
Cool Master schrieb:
Das Produkt ist doch zu 100% an den Otto-Normalverbraucher gerichtet.
Die Optane 900P/905P sind für Enthusiasten, als die obersten Prozent der Privatkunden die nicht so aufs Geld schauen müssen und bereit sind für besondere Hardware auch einen entsprechenden Preis zu bezahlen. Genau wie die Intel 750 sind die Optane 900P/905P eben Consumerversionen von Enterprise SSDs.
Cool Master schrieb:
Optane Cache ist auch nicht wirklich interessant.
Das stimmt so nicht, dies ist nicht so interessant wenn man damit das Systemlaufwerk cachen will, aber es wird interessant, wenn damit das Datenlaufwerk cacht und das geht ja inzwischen auch, was leider vielen gar nicht bekannt zu sein scheint.
mkdr schrieb:
Wieso sollte ich einen kostbaren M.2 slot für diese gammel Optane-Speicher verbraten, dann kann ich gleich ne SSD da reinstecken.
Genau da setzt ja diese SSD an, man braucht nur einen Slot und kann da die 660p als Systemlaufwerk und trotzdem eine Optane Memory / M10 als Cache für die HDD einbauen und braucht nicht zwei Slots dafür oder sich zwischen beidem zu entscheiden.
luckysh0t schrieb:
Ich hoffe ja, dass durch dieses "fluten" des Marktes der allgemeine Optane Preis (900p,..) sinkt.
Das wäre schön.
Xes schrieb:
Eine neue SSHD hätte ich ansprechender gefunden.
Eine 3TB HDD + 250GB SSD-Cache zum attraktiven Preis käme dem ein oder anderen hier als großes Spielelaufwerk sicher gelegen.
Genau das bietet die H10 doch dann und zwar auch mit nur einem M.2 Slot, nur eben nicht mir so viel Cache, wobei es sowieso nicht sinnvoll ist einen zu großen Cache zu nehmen, da die Cachverwaltung sonst zu aufwendig ist und zu lange dauert. Laut Intel sind so bei 32 bis 64GB das Optimum.
fragemann schrieb:
Ne 2TB SSD kost doch quasi garnix mehr.
Wenn man sowieso alles auf SSDs hat weil die Kosten nicht abschrenken, dann braucht man natürlich kein Caching. Aber diese H10 ist für OEMs und da vor allem Notebooks gedacht und die OEMs werden sie da einbauen wo der Preis es eben nicht erlaubt eine fette 1TB oder 2TB SSD zu verbaut, sondern da wird dann der 660p Teil als Systemlaufwerk und der Optane Teil dann als Cache für die verbaute HDD verwendet.
Wattwanderer schrieb:
Schade, dass sich Intel so verzettelt. Am ehesten würnsche ich mir 10 GBE NICs von Intel auf Mainstream-Platformen.
Ja, aber verzetteln würde ich nicht sagen, dies sind ja unterschiedliche Abteilungen die parallel arbeiten und niemand wird von der Neztwerksparte abgezogen um solche SSDs zu entwickeln.
fragemann schrieb:
Weil der Optane Speicher nicht "im Chip" ist wie ein DRAM Cache, sondern einfach drangeklebt wird.
Was wie? Die Dies des 3D XPoint sind auch in einem Chip, keine Ahnung was damit meinst.
fragemann schrieb:
Technisch wie eine Steckkarte.
Nein, das ist technisch eben nicht eine, sondern zwei Karten, zwei unabhängige SSDs auf einer Steckkarte und daher ist die Anpassung die man braucht eben die Unterstützung der PCIe Lane Bifurkation für die PCIe Lanes des Slots, der natürlich 4 Lanes haben und eben in der Lage sein muss diese in zwei x2 aufgeteilt mit je einem Geräte an 2 Lanes zu betreiben. Bei den Lanes der Intel Chipsätze ist dies kein Thema, bei denen von der CPU schon, diese lassen sich nämlich nur bis maximal x4 aufteilen, aber für solche Rechner wo die NVMe SSDs an den Lanes der CPU hängen, ist diese SSD gar nicht gedacht.
user2357 schrieb:
Das ist doch aber nur bei der Verwendung als Cache so.
Das ist einerseits richtig, aber nicht bei dieser H10, die eben technisch zwei SSDs auf einer Platine ist.
user2357 schrieb:
Die Optane Memory sind technisch ganz normale (kleine) NVMe SSDs.
So ist es, ich habe eine Optane Memory als Systemlaufwerk für meinen Heimserver auf Xeon-D Basis mit Linux drauf. Der Xeon-D hat übrigens gleich 2 10GBASE-T Ports, aber die unterstützen eben kein NBASE-T, wie viele der älteren Enterprise 10GbE Produkte, denn NBASE-T ist ja noch recht neu.
Wattwanderer schrieb:
Bei mehr als 1 GBE muss man sowieso in NICs und Switches investieren. Warum dann nicht 10 GBE mit Rückfalloption auf 5 bzw. 2,5 statt gleich auf die kleinste Geschwindigkeit zu kappen?
Das sehe ich auch so, aber offenbar versuchen die Hersteller hier schrittweise die Geschwindigkeit zu erhöhen um den Kunden immer wieder mit etwas Neuen zum Kauf überreden zu können. Dies werde ich nicht mitmachen, schon jetzt schafft mein Heimserver mehr Durchsatz als 5GbE bietet und da der Xeon-D eben auch kein NBASE-T unterstützt, sind Lösungen die nur NBASE-T aber kein 10GBASE-T bieten, für mich auch total irrelevant.