News Intel Optane DC P4800X: Die erste Enterprise-SSD mit 3D XPoint hat einen Namen

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.333
2400MB/s lesend und 2000MB/s schreibend sind in der Tat mager, da dürfte der Controller bremsen, denn wäre das Interface nicht schneller, würde die 3D XPoint wohl kaum als Ersatz für RAM taugen, dort müssen ja ganz andere Geschwindigkeiten gemeistert werden. Schade das es noch keinen Preis dazu gibt.
 
Was ich ehr lustig oder amüsant finde ist das bei den Z270 Boards bzw. den CPU's und dazu gehörigen Chipsätzen groß mit Optain Ready geworben wird. Jetzt steht hier das diese Technik für Endkunden erst 2018 Kaufbar sein soll. Typisch Marketing:freak:
 
3D XPoint war nie als RAM-Ersatz gedacht. Es ist eine zusätzliche (nicht flüchtige) Hierarchiestufe im System.

DRAM hat mit Zugriffszeiten im Nanosekundenbereich und Schreibzyklen 10^9+ ganz andere Eigenschaften als 3D Xpoint.

Abwarten. Es ist die 1. Generation.

@KillerGER87

In zwei Wochen gibt es von Lenovo neue Thinkpads zu kaufen, wo es als Option auch 16/32 GB große Optane Module gibt. Es ist also bald soweit, aber halt keine "Massenware" wie aktuell die SSD-Technik.
 
@Holt
Nunja 2GB/s r/w sind ja auch nicht schlecht und Anwendungen für Server die auf geringe Latenzen skalieren und gleichzeitig extrem hohe Transferraten brauchen muss man erst einmal haben.
 
KillerGER87, 2018 kommt das 3D XPoint als RAM DIMM, aber ich bezweifel das man diese in den Z270er Boards danna uch nutzen kann. Die Optane Unterstützung dürfte sich nur auf die Nutzung von 3D XPoint als Medium in M.2 NVMe SSDs unterstützt werden und die dann eben auch als Cache SSDs für SATA HDDs und SSDs genutzt werden kann. Die ersten von dene mit 16GB und 32 GB sollten ursprünglich schon Ende letzten Jahre erscheinen und dürften bald zu haben sein.

Simon schrieb:
3D XPoint war nie als RAM-Ersatz gedacht. Es ist eine zusätzliche (nicht flüchtige) Hierarchiestufe im System.
Zumindest als Ergänzung zum DRAM als normaler Arbeitsspeicher ist es von Anfang an gedacht gewesen, deshalb kommt es ja auch in Form von DDR4 kompatiblen DIMM Modulen. Bitte informiere Dich erst, bevor Du schreibst.

Piktogramm schrieb:
Nunja 2GB/s r/w sind ja auch nicht schlecht
Aber auch nicht gut schau Dur ab wie schnelle eine 960 Evo 250GB zumindest lesen kann. Dabei sollte daie Optane mehr Dies haben als die 960 Evo und die 3D XPoint haben eine geringere Latenz.
Piktogramm schrieb:
und Anwendungen für Server die auf geringe Latenzen skalieren und gleichzeitig extrem hohe Transferraten brauchen muss man erst einmal haben.
Es geht mir ja erstmal nicht um die Notwendigkeiten, sondern die Technologie und deren Eigenschaften.
 
Zuletzt bearbeitet:
@Holt

Nur weil etwas in einem DIMM-Format erscheint, heißt das noch lange nicht, dass es ein Ersatz zu DRAM ist.

Es gibt auch schon seit einiger Zeit von SanDisk die ULLtraDIMM SSDs. Das sind SSDs im DIMM-Formfaktor.

Der Formfaktor, Technologie und das Protokoll sind verschiedene paar Schuhe. Also lass den Scheiß mit vorher informieren. :rolleyes:

Es ist eine Brücken-Technologie zwischen klassischen DRAM & NAND-basierten Flash. Und für Low-Latency wird irgendwann auch das NVMe-Protokoll zu mächtig, weswegen man versuchen wird, dort den Overhead noch weiter zu reduzieren.

Edit:

Die Speicher-Hierarchie wird sich halt in Zukunft noch ein wenig ausdehnen.

Aktuell:

CPU - L1 (den fiktiven L0 Loop-Cache lassen wir mal aus)
CPU - L2
CPU - L3
RAM - DRAM (flüchtig)
SSD - NAND-basiert
HDD - Magnetscheibe

Zukunft:

CPU - L1
CPU - L2
CPU - L3
CPU - HBM/HMC
RAM1 - DRAM
RAM2 - High Density DRAM
SCM - NVDIMMs auf DRAM, 3DXP, ReRAM, whatever Basis
SSD - NAND-basiert (oder später auch 3DXP)
HDD - Magnetscheibe

Es kommen also ein paar Stufen dazu. Ok, in ferner Zukunft könnte der heutige DRAM vielleicht mal vollständig von Konstrukten wie HBM/HMC abgelöst werden, wenn die Technologie in Sachen Kapazität/Preis gleichwertig ist. Gleiches gilt für die HDD, die in wenigen Jahren wohl komplett obsolet wird, da schon heute die SSDs größer als die HDDs werden. Sobald sich das Preisniveau angeglichen hat, stirbt die Magnetscheibe schnell aus.
 
Zuletzt bearbeitet:
Darf ich fragen wo genau diese SSDs zum Einsatz kommen. Ob jetzt 1900 mikrosekunden oder 300, bei Anwendungen wie Excel wird das ja keine Rolle spielen :D

Ich kenne mich nicht aus bei welcher Software das so wichtig ist, evtl an der Wall Street?
 
El_Chapo schrieb:
Darf ich fragen wo genau diese SSDs zum Einsatz kommen. Ob jetzt 1900 mikrosekunden oder 300, bei Anwendungen wie Excel wird das ja keine Rolle spielen :D

Ich kenne mich nicht aus bei welcher Software das so wichtig ist, evtl an der Wall Street?

Vornehmlich in Transaktions-basierten Szenarios, wie bei Banken, Versicherungen, Automobilindustrie, Energieversorger und grossen (Online) Händlern (Retail). Auch wie gemacht für Hochverfügbarkeits-Cluster und Cloud-basierte Services die schnell skalieren müssen um Peaks besser abzudecken sowie Big Data and Cognitive Lösungen. Eigentlich nichts für den normalen PC Nutzer, aber das kommt auch etwas auf den Preis an, den Intel verlangen wird.
 
Zuletzt bearbeitet:
Der Stromverbrauch ist ja nun auch nicht gerade gering. Ok anständige Serverplatten ziehen auch.
 
@El_Chapo

Datenbanken skalieren wunderbar mit geringen Latenzen. Jeder Zugriff egal ob schreibend oder lesend auf Daten erzwingt einmal Warten auf die Daten (Latenz) und jede Aktion von einem Nutzer bedingt 1 bis zehntausende Zugriffe. Damit auch jedesmal die Latenz. Bei angenommen 1.000 Zugriffen bei einer Latenz von 1 ms wartet das Datenbanksystem 1s auf Daten, während bei einer Latenz von von 0,1ms insgesamt nur 0,1s gewartet werden muss um alle 1.000 Abfragen zu schaffen. Real ist es (viel) komplexer weil auch auf Softwareseite versucht wird Latenzen zu kompensieren wo es nur geht.


@MrZweistein
Deine genannten Anwendungsanfälle (Banken, Versicherung) sind Anwendungsfälle für Datenbanken.

Deine Nennung von Hochverfügbarkeits-Clustern, Cloud und Big-Data ist hingegen nur Marketing Bullshitbingo, aus dem sich nicht ableiten lässt, welche Anforderungen Software wie Hardware erfüllen müssen, da die Begriffe oftmals keinerlei Trennschärfe haben, da darunter viele Anbieter etwas Anderes vermarkten.
 
Schade.

Es zeichnete sich schon ab aber eine zweite SSD Revolution bleibt wohl aus.

Vor allem der Stromverbrauch... Daran werden selbst die dicken Brocken zu knabbern haben, jetzt wo alle um den Titel des grünsten Rechenzentrums streiten.
 
Den Stromverbrauch musst du einfach nur im Verhältnis sehen. Die selbe Perfomance aus einem HDD Array zu bekommen würde bedeuten, dass man sich mehrere Schränke HDDs hinstellen muss mit einem Leistungsbedarf im kW Bereich.

Selbst gegen SSDs bringen die verringerten Latenzen etwas, im Zweifelsfall bekommt ein Server so 10-20% mehr Abfragen abgewickelt, man kann also jeden 10. oder gar 5. Server einsparen. Unterm Strich kann so ein Ding also sehr sehr effizient dastehen.
 
Holt schrieb:
Und was genau soll da explizit drinstehen? Von RAM-Ersatz ist da nicht die Rede. Es ist Storage Class Memory.

In einer der unteren Folien steht es ziemlich eindeutig drin. DDR4 act as a Write-Back-Cache. Und genau an diesem Punkt wird es spannend: Wenn es als Write-Back ausgelegt ist, muss es im Falle eines Stromausfalles mit Hilfe von SuperCaps oder Akkus gesichert werden. Das Commit wird erst dann ausgeführt, wenn die Daten zurückgeschrieben werden. Das ist sonst für Datenbanken in der Konsistenz extrem ungünstig...
 
Es geht darum ob die 3D XPoint andere kommende Storage Class Memory in DIMM Form am RAM Controller dann wie RAM oder eben als Massenspeicher, ähnlich einer RAM Disk bzw. welche SW Konzepte man dann dafür findet. HW mässig sollen die 3D XPoint DIMMs mit DDR4 Riegeln kompatibel sein, aber eben langsamer und weniger haltbar sein, also wird der RAM Controller da eben selbst einen Unterschied machen und eben DRAM als schnellen Cache für 3D XPoint enhmen und / oder es gibt zwei Klassen von RAM, schnelles flüchtiger DRAM und den langsameren, nicht flüchtigen mit Storage Class Memory und in einer älteren Präsentation von Intel gab es auch den Hinweis, dass der in den Purley Xeons dann auch beiden gemischt handhaben kann, ob das für Kaby Lake schon zutrifft?

Gegen Stromausfälle sichert man sich in Rechenzentren übrigens über USVs .

Aber die DIMMs kommen erst 2018 und erstmal sind SSDs dran, daher sollten wie das Thema lassen und auch bei diesen SSDs wird man erst noch sehen müssen wo sich deren Einsatz lohnt, denn so billig wie die mit NAND werden sie sicher nicht werden, also wird auch jeder potentiellen Anwender genau hinsehen ob die Investition sich für seinen Einsatzzweck und seine HW wirklich lohnt. Erstmal sollte man aber abwarten und sehen was sie genau können. Daher wird das Fazit bei Reviews sehr davon abhängen wie sie dort getestet werden, genau wie es bei den PCIe NVMe SSDs jetzt schon ist und die meisten Reviews testen diese abseits einiger synthetischer gar nicht mit solche Lasten, dass sie ihre Vorteile gegenüber SATA SSDs wirklich ausspielen können. Dies mag der Realität von Heimanwendern entsprechen, zeigt aber eben nur einen Teil der Wahrheit.
 
Zuletzt bearbeitet:
Artikel-Update: Eine Product Change Notification (PDF) bestätigt die Intel SSD P4800X Series auf Basis des in einem 20-nm-Prozess hergestellten 3D-XPoint-Speichers. Auch hier ist nur die Rede von einem Modell mit 375 GByte Speicherkapazität.
 
Der link zur pdf erfordert einen Login - so gewollt?
 
Als Os Platte würden mich hier die wohl Anfangs kleineren Kapazitäten nicht stören und eine 180 GB Optane um die 100€ wäre absolut ok als Lösung zwischen p600 und Samsung 960.
Aber vermutlich werden die Preise eher bei 200€ liegen :D.
Naja wenn 3DXPoint derzeit in 20nm vom Band geht ist da ja auch noch Luft nach unten was die Fertigung und damit die Preise, Ausbeute angeht in Zukunft.
 
Zuletzt bearbeitet:
Im Privatbereich braucht man auch nicht millionen IOPS, macht halt bei Servern Sinn.
 
Zurück
Oben