News Intel Optane SSD 900P: Spezifikationen der High-End-Client-SSD mit 3D XPoint

Hallo32 schrieb:
Ohja, SSDs als RAID und deren Performance war da noch ein heiß diskutiertes Thema. ;)
SSDs waren damals eben noch neu und erst recht im RAID 0, die Erfahrungen damit musste man eben erst selbst sammeln um zu merken, dass dies in der Praxis eben kein so toller Ansatz ist wie er in der Theorie und den Benchmarks erscheint :evillol:
Hallo32 schrieb:
Mal sehen wie sich der 3D XPoint entwickelt, wobei es dort nur IMFT als Fertiger gibt. ...
Es steht aber eben in Konkurrenz zu andere Storage Class Memory Technologien, auch wenn diese derzeit noch zurückhängen und auch zu NAND. Die Preises müssen also auf jeden Fall gesenkt werden um eine größere Verbreitung zu ermöglichen und dazu muss es für eine möglichst breite Käuferschicht auch Produkte damit geben. Gerade im Enterprisesegment gibt es zwar die einen die nach jedem Strohhalm greifen der ihnen mehr Performance verspricht, aber die Masse wartet lieber erst einmal ab bis die Technik sich bewährt hat und dafür sind Produkte für Heimanwender eben sehr hilfreich. Letztlich testen dann eine Menge Leute auf einer Vielzahl von Plattformen für allem möglichen Anwendungen die Tauglichkeit der Produkte.

Hallo32 schrieb:
Es kann auch gut sein, dass der Controller noch nicht in Lage ist 3D XPoint voll auszureißen und das die Marketingabteilung ein Wort mitredet.
Die Marketingabteilung dürfte vor allem die LWD Beleuchtung durchgesetzt haben, so wie damals den Totenkopf auf der 730 und da frage ich mich schon, ob das eine bestimmte Zielgruppe anlocken oder nicht eher die ungewollte Zielgruppe der Enterprisekunden von den Heimanwenderprodukten abschrecken soll :lol:

Piktogramm schrieb:
Nur, dass der aller größte Teil der Endanwender keine Anwendungen nutzt die länger anhaltend viele kleine Zugriffe serieller Abfolge provozieren.
Genau, aber wieso nur? Gerade weil der Heimanwender normalerweise gar nicht die Anwendungen hat um größere QDs zu erzeugen, ist doch eine SSD wie die Optane die bei kleinen QDs eine hohe Performance bringt sehr vorteilhaft. Das könnte noch einmal ein wenig wie der Sprung von der HDD, die ja bei kurzen zufälligen Zugriffen ganz mies performt zur SSD werden, die zumindest lesend von Anfang an und Anfang sogar nur in dieser Disziplin den HDD überlegen war. Nur sind die NAND SSDs schon so schnell, das die CPU oft so lange auf den Daten arbeiten bzw. den Programmcode abarbeiten muss, dass eine weitere Beschleunigung dann oft nichts mehr bringen dürfte, genau wie Du es hier schreibst:
Piktogramm schrieb:
Die häufigste Anwendung wird da noch der Scan von einem Antivirusprogramm sein und da limitiert beizeiten typischerweise die CPU.
Eben, eine schnelle CPU ist sowieso Pflicht um die Leistung einer schnellen SSD auch halbwegs ausreizen zu können. Bei den allermeisten Reviews werden ja nicht einmal Fälle getestet in denen PCIe NVMe SSDs überhaupt so weit ausgereizt werden, dass diese ihre Vorteile gegenüber SATA SSD ausspielen könnten, aber bei hardwarecanucks wird so ein Test gemacht indem man Firefox Portable mit 100 Offline Pages startet und da sind die Ergebnisse sehr deutlich zugunsten der NVMe SSDs:



Sicher ist das keine für die Masse der Heimanwender alltägliche Nutzung, aber an Anwender die bei so einem Test nur mit den Kopf schütteln, richtet sich die SSD um die es hier geht doch sowieso nicht!

Piktogramm schrieb:
Abgesehen von Benchmarks bekommen normalo Endanwender solche performanten Laufwerke schlicht nicht umgesetzt.
Das wird von der Nutzung abhängen, man wird sehen bei welchen Anwendungen dies doch der Fall sein könnte.

xexex schrieb:
Ein Raid diente letztlich immer nur dazu von Ausfällen der fehlerträchtigen Festplatten zu schützen und um die Geschwindigkeit der Datenspeicher zu erhöhen. Das ist mit aktuellen PCIe SSDs obsolet geworden.
Nein, aber HW RAID Controller sind damit obsolet, da sind für die Performance solcher SSDs auch viel zu langsam, die RAIDs werden da alles als SW RAIDs realisiert! Gerade für den Windows Nutzer ist das natürlich blöd, weil Windows nur mehr Einschränkungen mit einem SW-RAID als Systemlaufwerk umgehen kann. Daher hat Intel den S.1151 Chipsätzen eben auch mit einem Trick die Fähigkeit gegeben RAIDs von PCIe SSDs zu unterstützen, was auch die einzige Alternative zu SW RAID bei diesen SSDs ist.

Nummer_1 schrieb:
ach ja, bezieht sich auf die Caching-Lösung, falls das nicht deutlich wurde.
Eben, die Caching SSDs decken den unteren Bereich ab, also vor allem für Fälle von OEM Rechnern wo gar keine SSD als Systemlaufwerk verbaut wid und die hier ist am anderen Ende des Spektrums angesiedelt, nämlich bei den Enthusiasten im High-End, also für Leute die einen Nachfolger für ihre 750er suchen, die sie sich damals gekauft haben kurz nachdem die erschienen ist.
 
ichmich2000 schrieb:
Also in der Folie steht da nur etwas vom Controller:
Intel controller backed by a 5-year warranty
Also ich würde das eher als eine Auflistung ansehen, dann wäre Intel controller nicht auf die Garantie bezogen, sondern auf die Qualität:
"Intel quality and reliability - Intel controller"
Unabhängig davon wäre die nächste Aussagen denn
"backed by a 5-year warranty"
Es macht ja keinen Sinn eine Garantie nur auf den Controller zu geben und die Garantie auf die Speichermedien wird ja sowieso schon über die TBW eingeschränkt, wenn diese überschritten wurde, dann verfällt die Garantie sowieso. Punkte oder Striche davor hätten dies klarer gemacht.
 
Zack, da ist die erste Consumer... Ich find's gut! go go go! :D

Holt schrieb:
Das ganze nochmal mit 400-500 Tabs?
Da hätten wir schon den ersten Anwendungsfall wo das Teil sogar für mich persönlich tatsächlich lohnen würde.. - Ich hoffe immer noch das ganze entwickelt sich weiter und wird auch mal annähernd bezahlbar (/preisleistungs,-/nutzungs-stärker)

Und immer noch:
Reine Transferraten interessieren mich weniger, das Teil soll eher ewig halten..
 
Ewig hält nichts und selbst wenn die Speichermedien (ob NAND oder 3D XPoint) noch sehr lange halten würden, es kann immer noch was anderes kaputt gehen und wenn es nur eine kalte Lötstelle ist, was ja auch bei Grakas immer gerne mal vorkommt und dann zuweilen durch "aufbacken" wieder für eine gewisse Zeit behoben werden kann. Üblicherweise ist solche HW eben auf 5 Jahre Nutzungsdauer ausgelegt, meist hält sie bei entsprechenden Behandlung auch etwas länger, aber selbst wenn die gar nicht kaputt gehen will, ist sie irgendwann so veraltet das man sie entweder nicht mehr nutzen will oder mangels passender HW- und SW Unterstützung nicht mehr nutzen kann.
 
Hallo32 schrieb:
Bist du dir sicher, dass das passt?

Im Dezember 2010 habe ich 1,64€/GB bei einer 240GB SSD bezahlt.
Ich habe 2009-03 sogar bei rund 6€/GB angefangen:
16GB MTron Mobi 3525 für 98€
 
Februar 09, 169€ für eine Mobi 32GB 3535, also rund 5,3€/GB. War trotz den 70-80MB/s um Welten geschmeidiger als jede HDD. Umso weniger verstehe ich wie Leute immer noch glauben es wäre die Bandbreite die ein System beschleunigen. Naja seis drum.

Gespannt bin ich welche Packages zum Einsatz kommen bei den 900P. Mit den 16GB Packages lässt sich ja nur die 280GB Version als AIC realisieren. Da man aber für die größeren P4800X Modelle auch schon größere Packages benötigt, wird das wohl nicht all zu lange dauern.

Anmerken wollte ich auch noch, dass die M.2 Optane Module unter GH nun den Namen "Optane Series SSD" haben: https://geizhals.at/?cat=hdssd&xf=1035_Intel~2028_32~4832_3
 
Hallo32 schrieb:
In vielen Fällen reicht es aber auch schon, wenn der Datenträger bei kurzzeitiger Spitzenlast nicht hinterherkommt und das System stockt. Persönlich kenne ich dieses gerade relativ oft in Kombination mit den BTRFS.

Normalo Endbenutzer und BTRFS passen bei mir nicht zusammen ;). Selbst auf Veranstaltungen wo Linux das Thema ist, ist BTRFS ja noch nicht vollkommen angekommen ;).


@Holt
Wenn man extra Anwendungsfälle konstruieren muss, um nachweisen zu können, dass div. Komponenten schneller sind als Andere, dann muss man einfach davon ausgehen, dass im Alltag diese Performancedifferenz nicht relevant ist. Normale Endanwender bringen eine halbwegs potente Sata-SSD schon nicht bzw. kaum ausgelastet. Alles was noch schneller, ist im Alltag entsprechend sinnlos.
Und ja, 100 Tabs mit dem Browser lokal zu laden ist ein komplett konstruierter Anwendungsfall.
 
Piktogramm, ich hatte doch geschrieben:
Holt schrieb:
Sicher ist das keine für die Masse der Heimanwender alltägliche Nutzung, aber an Anwender die bei so einem Test nur mit den Kopf schütteln, richtet sich die SSD um die es hier geht doch sowieso nicht!
Die andere die bei so einem Testergebnis aber hellhörig werden, weil so eine intensive Belastung der SSD eben bei kaum einem Review getestet wird und sie ebenfalls eine Anwendung haben bei der I/O kritisch ist, die werden sich dafür interessieren. Die sind dann auch oft bereit dafür so viel Geld auf den Tisch zu legen, wie eben die Käufer von Consumer SSDs in 2009 oder 2010, als diese nicht nur noch viel sehr teurer, sondern im Verhältnis zu heutigen auch noch lahm und unausgereift waren und sehr kleine Kapazitäten boten. Die ersten Modelle hatte nur bei zufälligen Lesevorgängen einen Performancevorteil gegenüber HDDs, bei zufälligen Schreibvorgängen meist nicht und gerade mit dem JM602 waren da fürchterlich lahm, der genehmigte sich dabei nämlich gerne mal eine 2s Auszeit und da liegt auch der wahre Grund warum man alle Schreibvorgänge auf die SSD möglichst vermeiden wollte.
Trotzdem habe haben einige Leute diese SSDs damals gekauft, obwohl die für normal Heimanwender damals nicht interessant waren.

Warum darf es wenn man Deine Ausführungen liest, scheinbar keine Heimanwender gegen die auch von so eine Optane einen Vorteil für ihre sicher nicht gerade Heimanwendertypiache Nutzung einen Vorteil haben? Das dies kein Massenprodukt wird, so wie die Intel 750 keines war, dürften eigentlich sowieso klar sein und das propagiert ja auch niemand, da musst Du also nicht ständig versuchen etwas zu widerlegen was gar nicht behauptet wird.
 
Ach Holt,
dein Lastfall den du so gerne bringst ist ein rein synthetischer Wert. Die Aussagekraft ist da so hoch wie bei jedem anderem synthetischem Benchmark auch. Die Aussagen auf reale Anwendungsfälle ist da nichtig. Was lustigerweise die ganzen Benchmarks zeigen die diverse Worklfows darstellen. Wobei diese Benchmarks oft schon extreme Lastfälle abbilden die Powerusern entsprechen. Entsprechend halte ich den von dir vorgebrachten Bench schlicht für verfälschend. Synthetische Lastfälle / Benchmarks fernab der Realität sollten einfach klar als solche dargestellt werden und dann bitte auch mit ner Nennung wie groß die zu erwartende Gewinne im Alltag sind. Wobei diese Aussage da recht einfach ist, da kein Vorteil für Endanwender zu erwarten ist.
Selbst die ersten SSDs mit ihren Kinderkrankheiten haben fürs Geld für die meisten Anwender Vorteile geboten fürs Geld. Das ist bei den XPoint Speichern für Endanwender derzeit schlicht nicht zu erwarten. Zumindest nicht im Vergleich zu anderen, schnellen Festspeichern die es am Markt gibt.

Meine Aussage ist nicht absolut, es mag Anwender geben, wo diese schnellen Speicher etwas bringen. Nur sind das keine Anwendungen, die typisch für Endanwender sind (Internetkram, Multimediakonsum bzw. -produktion im kleinen Rahmen, Spiele, Office, ...). Es sind neben Benchmarks sehr spezielle Anwendungsfälle, die auf diesen Speicherkarten überhaupt gescheit skalieren können. Mir fällt nur überhaupt keine ein, die ich schon mal irgendwo außerhalb div. IT-Fachveranstaltungen gesehen habe.

Also gerne her mit dem Kram für dicke Server und gegebenenfalls für dicke Workstations. Endanwender verbrennen mit 3D XPoint Speichern derzeit nur ihre Geld.
 
Piktogramm schrieb:
Normalo Endbenutzer und BTRFS passen bei mir nicht zusammen ;).

Ich habe im Laufe eines Projekts die Snapshot Funktion von BTRFS sehr zu schätzen gelernt und würde diese ungern missen. Besonders wenn sich nur ein kleiner Teil des Projekts ändert und der Großteil konstant ist.
 
BTRFS bietet viele schöne Funktionen, aber bei der Frage ob das Dateisystem produktiv eingesetzt wird, schnellen auch auf Konferenzen mit Linux als Schwerpunktthema nicht mal 50% der Hände nach oben und es sitzt nicht eine Person im Raum, die ich als normalen Endanwender bezeichnen würde. ;)
 
Zuletzt bearbeitet:
@Piktogramm

Das Risiko ist in den Fall sehr gering und im produktiv Einsatz im Unternehmen würde ich es auch nicht ausrollen sondern eher eine konservative Wahl treffen. Auf den Konferenzen dürften sich viele Personen befinden, die einen nicht zu vernachlässigen Teil an Verantwortung tragen und sich daher gegen BTRFS entscheiden.

Aber wie du gesagt hast, es hat viele schöne Funktionen, die ich mit einen Backup im Rücken, auch gerne nutze.
 
Ein Vergleich zu M.2 SSDs wäre interessant. Mit Samsungs 950 Pro geht schließlich im RAID auch die Post ab.
 
Man braucht kein RAID damit mit einer 950 Pro die Post abgeht und wenn doch, dann kommt es bei der Nutzung offenbar vor allem auf die seq. Transferraten an und die könnte man sogar mit einem RAID mit entsprechend vielen HDDs bekommen. Das wären dann aber Anwendungen die gerade nicht von einer Optane profitieren, da deren Stärke eben gerade in den Zugriffszeiten und Transferraten bei kurzen Zugriffen und kleine QDs liegt, also wenn nur wenig parallele Zugriffe erfolgen.
 
Zuletzt bearbeitet:
MichaG schrieb:
als mini ssd cache

da scheint man den Entwicklungsmüll auf dem Weg zum eigentlichen Produkt abverkaufen zu wollen und später dem(-selben) Kunden dann nochmal Geld für die eigentlichen Produkte aus der Börse zu ziehen.
 
Anmeldeblödsinn schrieb:

So ist es fast immer im Internet - Hype und Spionage gehören zum Alltagsgeschäft. Das muss niemand mitmachen. Der normale Mensch nimmt neue Produkte frühestens wahr, wenn sie im Supermarkt als Noname zu Billigpreisen im Regal liegen.

Inzwischen habe ich in einigen PCs SSDs, von denen ich nicht mal den Namen mehr weiß, und vielleicht auch eines Tages eine Optane. Deren Technik scheint gut zu werden. Aber inzwischen sind PCs für mich so uninteressant, dass ich jedem die Füße küssen würde, der mir eine neue, interessante und nützliche Anwendung nennt, die meinen PC wirklich mal an seine Grenzen bringt.
Ergänzung ()

Piktogramm schrieb:
BTRFS bietet viele schöne Funktionen,

Welche meinst Du? Ich bin Endanwender mit BTRFS wegen meiner SSDs, die manchmal zu Bitverlusten neigen. Kürzlich hat mich btrfs scrub nach einem plötzlichen Stromausfall beruhigt.

Windows liefert leider kein ähnliches Dateisystem für Normalanwender. Bei Ubuntu vermisse ich eine idiotensichere grafische Oberfläche für die Pflege von BTRFS, und Backups mache ich mit Clonezilla.
 
Gerk schrieb:
Windows liefert leider kein ähnliches Dateisystem für Normalanwender.

Durchaus. ReFS und Storage Spaces sind "normalanwenderfreundlich" und entsprechen in etwa btfrs. Einige der "Features" wie Snapshots oder Unterstützung grosser Volumes beherrscht aber NTFS ebenfalls seit Jahren.
 
Zuletzt bearbeitet:
Holt schrieb:
Man braucht kein RAID damit mit einer 950 Pro die Post abgeht und wenn doch, dann kommt es bei der Nutzung offenbar vor allem auf die seq. Transferraten an und die könnte man sogar mit einem RAID mit entsprechend vielen HDDs bekommen. Das wären dann aber Anwendungen die gerade nicht von einer Optane profitieren, da deren Stärke eben gerade in den Zugriffszeiten und Transferraten bei kurzen Zugriffen und kleine QDs liegt, also wenn nur wenig parallele Zugriffe erfolgen.

Yupp! QD1 Monster und es könnte noch mehr (CascadeLake und DIMMs) drinne sein :)

Aproppo Optane; würde es Intel gewissermaßen dazu zwingen den Preis im Retail Channel nach unten zu drücken, wenn die 99,99% nicht eingehalten werden können, da einfach 99% aller potenziellen Nutzer die 900P über den mit ~250μs Latenzen bestückten PCH jagen...also die 10μs mehr nur für den Enterprise Markt von Vorteil sind?

Bei einem gemogelten Preis von 2,5€ pro GB wären das schon alleine bei der Einsteiger SKU 700 Euro...was auch gerundet der Preis damals für die Einsteiger SKU der ersten Intel SSD X25-M war (595$). Also ich hoffe mal nur Intel haut noch etwas aus dem eigenem Gelbeutel drauf und der Preis liegt dann bei knapp 400 bis 500€, denn mehr und man kann auch getrost auf Samsung's Z-Nand warten, komme Oktober 2018.
 
Die 99,99% werden an einem Referenzsystem mit einen definierten Benchmark gefahren, was die User bekommen die andere System haben, ist dann deren Problem. Die Hersteller interessiert es auch nicht, wenn man eine SATA 6Gb/s an einem SATA 3Gb/s Ports betreibt oder eine PCIe 3.0 x4 SSDs an PCIe 2.0 x2 und daher nicht die angegebene Leistung bekommt.
 
Zurück
Oben