Bericht Intel DC P4800X: Alle Details zur ersten Optane-SSD mit 3D XPoint

@Holt

"Zitat Zitat von Chris007 Beitrag anzeigen
da waren dann ja auch noch dual socket boards

"Jaja.. alles nur Server Sachen, dass hat in consumer PCs nichts zu suchen"
Bei wie vielen Heimanwendern machen heute Dual-Socket System Sinn? Doch allenfalls bei solchen die keine typischen Heimanwendungen damit betreiben."

Es ging mir ja darum das es Dual Socket Boards noch vor den ersten Dual Core Cpus gab (zumindest für Heimanwender, wenn sie sich denn sowas kaufen wollten).

Und dann gab es später Dual Core CPUs.

Ich will nur sagen Intels Technik wird in 1, 2 Jahre in leicht anderer Form dann auch für den normalen Heimanwender eventuell interessant und nicht nur für hardcore geeks.

Mich nervt einfach nur dieses bla bla bla ist nur für Server bla bla bla.

Eine Intel Optane wird wahrscheinlich selbst für Heimanwender schneller sein, selbst wenn es nur 20% oder so in manchen Fällen sein sollten, irgendjemand will immer ein bisschen mehr Leistung.


Und zu den Bootzeiten.. habe nicht behauptet das die schneller werden, kann ja auch sein, dass die bei einer Intel Optane ewig dauern, dann hätte der eine oder andere auch schon wieder keine Lust mehr darauf :P
 
Zuletzt bearbeitet:
Chris007 schrieb:
Eine Intel Optane wird wahrscheinlich selbst für Heimanwender schneller sein, selbst wenn es nur 20% oder so in manchen Fällen sein sollten, irgendjemand will immer ein bisschen mehr Leistung.
Vor allem es geht ja nicht nur um Leistung. Die Dinger haben noch ganz andere Vorteile. Nur im Moment noch typische Kinderkrankheiten. Das wird alles noch, die Richtung allein schon ist viel Wert.
 
MyNamesPitt schrieb:
Mit Bestellen über Geizhals
Über Geizhals ist nicht bei Geizhals!
MyNamesPitt schrieb:
Lässt sich halt immer noch gut verkaufen.
Die meisten Leute informieren sich halt nicht.
Es gibt von Intel ja auch Vorgaben für Ultrabook, die müssen SSD Cache haben, wenn sie mit einer HDD kommen. Außerdem sehen immer noch viele Leute nicht ein den Aufpreis für eine größere SSD zu bezahlen, wollen aber mit dem geringen Platz einer kleinen SSD als fest eingebautem Speicher auch nicht auskommen müssen.

Mcr-King schrieb:
Intel ist zu spät dran. Denn Samsung und die anderen schlafen nicht und die SSD Technik wird immer besser.
Das Ganze verzögert, aber im Vergleich zu den ganzen anderen Storage Class Memorys ist Intel als erster soweit ein marktreifes Produkt mit entsprechender Kapazität für den Einsatz in Servern zu bieten und eben nicht nur Chips im MB Bereich die allenfalls für Embedded zu gebrauchen sind. Die NAND und SSD Hersteller, allen voran Samsung, werden halt auch versuchen NAND dahin zu tunen um den Vorteil von Intels Optane SSDs wenigstens zu minimieren, aber ob und zu welchem Preis dies gelingen wird, darüber wissen wir noch nichts, derzeit sind die Daten der P4800X bei QD1 konkurrenzlos.
Mcr-King schrieb:
Was aber viel wichtiger wäre mehr Kapazität zu günstigeren Preis zumindest für den home User und für kleine bis mittlere Unternehmen.
Das ist nicht wirklich die Zielgruppe für Storage Class Memory, die braucht man um die Volumen zu steigern und damit die Preise zu senken, aber so wirklich relevant dürften die Vorteile gerade für die Heimanwender nicht sein und auch bei Servern auf denen nicht viel Last ist, wird man kaum so viel von den geringeren Antwortzeiten der SSD spüren, als dass der Aufpreis sich lohnen dürfte. Dies ist Technologie die eher für große Serverfarmen, wo die einzelnen Server schon nahe am Limit hängen und man eben entsprechend weniger Server braucht um die Aufgaben zu meisten, wenn man jeden einzelnen noch etwas besser tunen kann.
Mcr-King schrieb:
Denn wenn ich mir da so die HW und Software Basis ansehe nicht schön wirklich teilweise uralt und Sicherheitslücken ohne ende.
Und da denkst Du investiert dann jemand in so eine schnelle SSD, wenn die IT aussieht wie bei Hempels unterm Sofa?
 
Holt schrieb:
Über Geizhals ist nicht bei Geizhals!
Das nennt sich Umgangssprache.
Du weißt doch ganz genau worum es ging... :rolleyes:
Holt schrieb:
Dies ist Technologie die eher für große Serverfarmen, wo die einzelnen Server schon nahe am Limit hängen und man eben entsprechend weniger Server braucht um die Aufgaben zu meisten, wenn man jeden einzelnen noch etwas besser tunen kann.
Ich denke schon das es irgendwann den Heimbereich erreichen wird.
Bei jeder neuen Technik wie auch SSDs an sich, kamen Anfangs die gleichen Sätze.
 
Zuletzt bearbeitet:
Chris007 schrieb:
will nur sagen Intels Technik wird in 1, 2 Jahre in leicht anderer Form dann auch für den normalen Heimanwender eventuell interessant und nicht nur für hardcore geeks.
Aber kaum für die Masse der Heimanwender, solange der Preis nicht mit dem von NAND konkurrieren kann, die Masse will billig und in den letzten Jahren haben wir bei SSDs genau dieses Race-to-the-bottom gesehen, da wurden alles dem Preis geopfert, bis hin zum DRAM Cache für den Controller. Die Leistung ging bei den meisten Modellen eher rückwärts, meist eben nett mit einem Pseudo-SLC Schreibcache kaschiert, aber schau Dir z.B. Crucials SSDs an, nach der m550/MX100 wurden alle Nachfolger lahmer als ihre Vorgänger, weil die alleine auf den Preis optimiert wurden.

Chris007 schrieb:
Eine Intel Optane wird wahrscheinlich selbst für Heimanwender schneller sein, selbst wenn es nur 20% oder so in manchen Fällen sein sollten, irgendjemand will immer ein bisschen mehr Leistung.
Intel hat ja schon mit der 730er eine DC S3500 für private Endkunden gebracht und mit der 750er dann eine Endkundenversion der DC P3500, aber die waren eben nur etwas für Enthusiasten und nicht gerade billig. Eine derartige Endkundenversion wird dann sicher auch von der großen Optane kommen, es hat ja schon fast Tradition bei Intel so eine zu bringen, aber vielleicht sieht Intel auch keinen ausreichenden Markt und belässt es bei den kleinen 16/32GB M.2 SSD.
Chris007 schrieb:
kann ja auch sein, dass die bei einer Intel Optane ewig dauern, dann hätte der eine oder andere auch schon wieder keine Lust mehr darauf :P
Wieso sollte die SSD ewig brauchen um sich zu melden? Dann würde sie auch vielen Boards gar nicht laufen, weil das BIOS/UEFI eben auch ewig wartet, bis Geräte sich mal anmelden.

MyNamesPitt schrieb:
Nur im Moment noch typische Kinderkrankheiten.
Was für Kinderkrankheiten? Um da Kinderkrankheiten zu finden, müsste man sie doch erst einmal zumindest testen können! Die Technik ist neu und hat sicher noch eine Menge Optimierungspotential, aber dies ist doch nicht mit Kinderkrankheiten gleichzusetzen.
 
Holt schrieb:
Um da Kinderkrankheiten zu finden, müsste man sie doch erst einmal zumindest testen können!
Artikel nicht gelesen? Wurde doch getestet.
Nenn es wie du möchtest, es meint exakt dasselbe.

Können wir jetzt bitte den Kinderquatsch lasen?
 
MyNamesPitt schrieb:
Ich denke schon das es irgendwann den Heimbereich erreichen wird.
Bei jeder neuen Technik wie auch SSDs an sich, kamen Anfangs die gleichen Sätze.
Das Problem ist aber, dass es im Heimbereich schon mit den heutigen SSDs eine günstigere Alternative gibt und schau Dir an wie wenig die meisten Anwendungen von Heimanwendern überhaupt von einer schnelleren statt einer lahmen SSD profitieren. Selbst zwischen einer die bei 4k QD1 mit nur 20MB/s liest und einer die da immerhin 50MB/s schafft, sind die Unterschied in den echten Praxistests meist vernachlässigbar, die Performance reicht also um kein Flaschenhals zu sein und nur wenige Heimanwender haben eine Nutzung die wirklich nach schnellen SSDs verlangt und noch weniger dürften eine haben, die von den schnellen 4k Werten so massiv profitiert, dass dies einen deutlichen Aufpreis rechtfertigt.

Da liegt das Problem für die Verbreitung bei Heimanwendern, SSDs mit NAND sind billig und gut genug, RAM ist schneller und in den Mengen die Heimanwender verbauen billig genug um kein 3D XPoint zu brauchen um den gewünschten RAM Ausbau erreichen und bezahlen zu können. Bei Servern ist das anderes, da gibt es Anwendungen wo man noch mehr RAM haben möchte als man verbauen kann, hier wird 3D XPoint (und anderes Storage Class Memory) einen größeren "RAM" Ausbau als mit DRAM erlauben und daher findet es dann dort seinen Markt. Klar wird dann auch einer von Tausend oder Zehntausend Heimanwendern versuchen zuhause seinen Rechner mit einigen Hundert GB "RAM" zu versehen, aber dies sind Ausnahmen, so wie es eben Leute gibt die einen Serverschrank im Keller haben und dem Enterprise HW (meist alt und günstig gebraucht gekauft oder das ausrangierte Zeug aus der Firma) vollstopfen.
 
Wie gesagt (geschrieben), Leistung ist nicht das einzige Merkmal, primär habe ich z.B die Haltbarkeit bzw Leistungsabfall im Auge. Der Schwachpunkt der heutigen SSDs. Dazu noch recht klein, passt in HTPCs, Passivkühlung usw. Aber auch allgemein die Technik, die beiden Speicher quasi zu verschmelzen, wird dort mehr weiter entwickelt könnte das ganze irgendwann z.B. die bisherige Fest und Flüchtig Kombination ersetzen. Vielleicht schneller als momentan angenommen.

Natürlich lohnt sich das im Moment alles noch nicht wirklich, aber ich beziehe mich hauptsächlich auf die Zukunft und finde es gut das schon jetzt was gemacht wird und dafür wohl Abnehmer gefunden wurden. (Ich würde sogar bezweifeln dass es selbst im Server Bereich momentan wirklich gebraucht wird. Aber gut, nicht mein Gebiet.)

Besonders vorteilhaft ist das Samsung ebenfalls nachgelegt hat.
 
Die Haltbarkeit selbst der SSD mit planaren TLC NANDs ist für die Masse der Heimanwender mehr als ausreichend, wie es heise vor einiger Zeit erst wieder getestet hat. Da kam meine ich selbst die BX200 auf über 200TB und die anderen hatte noch mehr. Die meisten kommen auf 2 bis 3TB pro Jahr, wenige über 10TB/Jahr und damit dürfte die SSD entweder ausrangiert werden bevor die NANDs platt sind oder etwas andere in ihr kaputt gehen.

Der Leistungsabfall ist mehr oder weniger groß je voller sie sind, aber da die Leistung meist dicke reicht, merkt kaum einer das wirklich, er sieht es nur in den Reviews und da werden die SSDs meist viel intensiver belastet als im Alltag, wo dann die Pseudo-SLC Schreibcaches wieder leer sind und die Schreibleistung dann wieder optimal ist, wenn auch nur für ein paar GB, aber dies reicht für die typischen Heimanwendernutzung ja fast immer aus. Den doppelte oder dreifachen Preis bzw. im Moment ist es ja noch mehr, zahlt daher kein Heimanwender für so eine Optane SSD, die Freaks die nicht nach dem Sinn fragen sondern nur nach dem Wollen gehen, wie immer ausgenommen.

Im Serverbereich muss und kann man bisher ohne Optane SSDs auskommen, von daher wird es nicht lebensnotwenig gebraucht. Aber wenn man damit auf einem Server 10% mehr Leistung rauskitzen kann und der kostet dann ein Vielfaches (vor allem wenn noch SW Lizenzen dazu kommen) von dem was die Optane SSD kostet, dann wird man das machen sofern man sonst mehr oder größere Server kaufen müsste, weil es die wirtschaftlichere Alternative ist. Im Serverbereich wird sehr emotionslos entschieden und meist gut analysiert was Sinn macht und Kosten spart. Statt Faszination für neue Technik ist dort eher die Sorge um die Zuverlässigkeit verbreitet, denn Zuverlässigkeit ist dort extrem wichtig, Ausfälle sind inakzeptabel.
 
Ich weiß ja nicht ob das aktuell großartig anders aussieht, aber vor wenigen Jahren war da schnell Schicht im Schacht, vor allem bei den typischen Heimanwender die tatsächlich eine SSD kaufen statt Laptop mit Hybrid. 50 GB Spiel drauf, nach einer Woche wieder runter, 2 neue 60 GB spiele drauf. 250GB ist nicht genug, es muss direkt eine 0,5 oder 1 TB sein. usw usw...

Ich habe hier selbst noch eine ältere 30GB Intel SSD rumliegen, gefühlt wie HDD.
Außer ein paar magere Sekunden Einsparungen und schnelles formatieren sind da keine Vorteile mehr.

Nun ja, kleine Firmen/Privat werden nie Kapazitäten erreichen wo eine Optane vorteilhaft wäre. Großen kaufen keinen zweiten Server, die kaufen eine ganze Serverfarm. Wie ich das mal mitbekommen habe wäre jegliche Unterbrechung der Server schon ein Umsatz-Verlust. Wie du schon sagst: Zuverlässigkeit. Da wird auch keiner irgend ein relativ experimentelles Produkt einbauen.

Ein paar Ausnahmen gibt es immer wieder, genau wie im Heimbereich.
 
Heute auf der CeBIT war die DC P4800X ebenfalls ausgestellt und es gab eine Demo mit dem Memory Pooling.

Das funktioniert soweit schon ganz gut. Hauptvorteil ist sicherlich das QoS, was 60x bessere Werte gegenüber der aktuell schnellsten Intel Datacenter SSD (P3700) aufweist. Die hohe Leistung bei QD=1-4 ist natürlich auch nennenswert und spiegelt die reale Situation von Applikationen eher wieder, als synthetische I/O-Meter Benches mit QD=64+, wo zum aktuellen Zeitpunkt vielleicht noch die SSDs vorne liegen.

Die Dinger haben zudem kein DRAM-Cache, d.h. bei Stromausfall müssen keine Daten mehr mittels Kondensator vorgehalten werden. Controller ist eine Eigenentwicklung und kein klassischer NAND-Controller. Ansprechen einzelner Bits ist mit der Technik möglich, momentan werden aber noch 4K Blöcke addressiert.

Achja:

- Optane DIMM-Module erst 2018 mit Skylake-EP "Refresh".
 

Anhänge

  • IMG_20170320_140439.jpg
    IMG_20170320_140439.jpg
    955,6 KB · Aufrufe: 586
  • IMG_20170320_140449.jpg
    IMG_20170320_140449.jpg
    1,3 MB · Aufrufe: 579
  • IMG_20170320_140459.jpg
    IMG_20170320_140459.jpg
    937,2 KB · Aufrufe: 556
Simon schrieb:
- Optane DIMM-Module erst 2018 mit Skylake-EP "Refresh".
Das klingt als wäre die Haltbarkeit noch ein echtes Problem und in der Massenfertigung schlechter als zuvor im Labor. Oder man hat zu viele Bitfehler, bei einer SSD kann man ja recht gut über die interne Redundanz und ECC abfangen, wenn da öfter man Bits kippen, bei DRAM sind die Möglichkeiten eingeschränkter, da kann man nicht einfach noch mal so ein 10. Bit einführen um mehr Fehler korrigieren zu können. Das könnte auch erklären, warum Heimanwender kein Optane DIMM bekommen, denn die Heimanwender Plattformen von Intel haben ja nicht einmal das einfachste ECC fürs RAM, aufwendigere Techniken wie Chipkill gibt es sogar nur für die großen Xeons.
 
Ich denke momentan spielen mehrere Faktoren eine Rolle.

Zum einen gibt es mit der Purley-Plattform schon so eine Menge Verzögerungen (u.a. mit einem Storage-Feature in den CPUs gibt es ein paar Probleme), zum anderen sind die Fabs halt momentan voll auf NAND-Output getrimmt, da es da ohnehin schon Engpässe gibt. So nimmt man lieber die sichere Kohle mit, als sich in irgendwas komplett neuem zu verzetteln, was ohnehin nur für ein recht beschränktes Kundensegment gilt.

Für Privatanwender sehe ich auch wenig Sinn hinter Optane DIMMs. Wozu auch. Das Memory-Pooling funktioniert auch mit den PCIe Varianten und was will man als Privatanwender effektiv mit 400+ GB "RAM"? Für private Anwendungen sind aktuelle NVMe SSDs doch dicke ausreichend (sogar SATA) und von der Kapazität und Preis deutlich attraktiver.
 
Zurück
Oben