News Intel Optane: Roadmap nennt erste SSDs mit 3D XPoint für Ende 2016

digitalangel18 schrieb:
benötigt xpoint überhaupt aufwendige controller, oder wird da wahlfrei zugegriffen wie bei DRAM?

Selbst bei 100-1000 facher Zelllebensdauer vs. Flash wird 3D xpoint Wearleveling benötigen. Sonst kann ein bösartiges Programm (virus z.b.) deine 3D Xpoint SSD in wenigen sekundnen durch das mehfache Beschreiben desselben Sektors dauerhaft beschädigen.
Also ja, es wird mindestens ein Controller zu PCIe/NVMe Protokollumsetzung und Warleveling benötigt.
Das Wearleveling muss aber nicht so komplex sein und so aggressiv arbeiten wie bei Flash.

Und Cache wird vermutlich auch benötigt. Allerdings macht DRAM nicht mehr viel sinn als cache. Ich tippe auf ein Paar hundert KB SRAM direkt im Controller.

RAM wird 3D Xpoint wohl nie ersetzen können. Die typischen Speicherzugriffsmuster auf RAM würden 3DXpoint ohne Wearleveling in wenigen Minuten / Stunden / Tagen zerstören. Allerdings wenn vor dem 3D Xpoint ein auf 3D Xpoint abgestimmtes Write-Back DRAM Cache vorgeschalten wird könnte es was werden mit dem RAM ersatz. 8GB 3D Xpoint mit 512MB LPDDR4 cache wäre doch was für das nächste Galaxy S8 :D
 
Zuletzt bearbeitet:
strex schrieb:
Weil Intel das selbst verkündigt hat erst für Server (Enterprise) zu liefern. Da sieht mir deutlich zu teuer für Consumer aus.
Wo steht das? In den Berichten die ich eben überflog stand nirgendwo was davon. Einzig dass XPoint im DIMM Format wohl erst 2017 erscheinen, und diese zunächst bei der Purley Plattform ihr Debüt feiern. Eventuell beziehst du dich hierauf?

Bezüglich Mainboards. Klar, die ~250€ werden das wohl nicht bieten, sofern nicht schon nativ vom Chipsatz supportet. Aber bei den Highend Boards wärs wohl langsam mal wieder Zeit, für die horrenden Preise ein paar Alleinstellungsmerkmale zu bieten.
 
v_ossi schrieb:
wo liegt da in absehbarer Zeit der Vorteil für den Endnutzer?
Bei 4k QD1 lesend und schreibend Werte die weit über denen von NAND SSD liegen, davon hat auch der private Endnutzet etwas, denn der hat selten so lange Zugriffe oder so viele parallele Zugriffe, dass NAND basierte SSD überhaupt an das Limit ihrer Schnittstelle kommen, erst recht wenn es PCIe SSD sind.
v_ossi schrieb:
Wie seht ihr das für diese neue SSD Generation? Werden die SSDs spürbar schneller?
Wenn eine SSD die Chance hat auch für Heimanwender spürbar schneller als eine gute NAND SSD wie die 850 Evo zu sein, dann die mit 3D XPoint, aber ob man die als Generation oder nur als Intel / Micron SSDs sehen wird, ist schwer zu sagen, denn meines Wissens sind derzeit vergleichbare Technologien von anderen Herstellern noch nicht in Sicht. Billig dürften die auch kaum werden, denn sonst würde Intel nicht auch gleich noch SSDs mit 3D NANDs ankündigen.

r4yn3 schrieb:
Ja, ich denke auch dass man zumindest beim X99 Nachfolger vermehrt 10Gbit sehen wird.
Das erwarte ich eigentlich und vielleicht werden wir das sogar schon im Z270 sehen, denn die Xeon-D SoC haben es schon alle drin, die Technologie ist also da.

r4yn3 schrieb:
Die meisten , die nicht wirklich mit dem System arbeiten, können jetzt schon nicht mit der Bandbreite anfangen, nicht umsonst wird in fast jedem Kaufberatungsthread von einer schnellen PCIe abgeraten.
Abrate tun meist die, die so eine SSD nicht haben, aber ja, man braucht schon einen schnellen Rechner und eine I/O intensivere Anwendung als Surfen, Office und Games. Wobei gerade bei Office und Games wohl die Kompression der Daten ein Hemmschuh ist, es mag bei HDDs ja Sinn machen die Daten zu komprimieren, da man dann nur weniger Daten von der Platte lesen muss und die CPU diese schneller entpackt als wenn man sie entpackt lesen würde, aber spätestens mit schnellen PCIe SSDs dürfte das meist anderes aussehen und das Entpacken mit der CPU bremst dann eher.

strex schrieb:
Kostet der 10G Port immer noch locker 100€ und mehr.
Nein, es wird teuer verkauft, aber so teuer muss es nicht mehr sein. Die Verbreitung von 10GbE nimmt ja aber auch schon zu, bei den S.1150 Xeon Boards gab es noch keines mit 10GbE Onboard, noch vor kurzem gab es das allenfalls auf einigen weniger Xeon Boards mit dem großem S.2011-3, während es nun einige S. 1151 Boards damit gibt, es verbreitet sich also nach unten und wenn selbst billigste Pentrium-D 1507 SoC für 103$ Listenpreis zwei 10GbE Ports hat, dann kann es nicht so teuer sein wie es heute verkauft wird und wird sich früher oder später auch in Mainstream Chipsätzen wiederfinden. Vielleicht macht ja AMD da mal den Anfang, deren ARM-Basiert Opteron A1100 SoC ja auch mit 10GbE kommen.


Noch ist der Z170 ja in 22nm gefertigt, während die SoCs der Xeon-D Familie alle 14nm sind, aber ich möchte wetten, wenn die Chipsätze auch in 14nm kommen, wird Intel da einfach die Schaltung der 10GbE Logik aus den SoCs übernehmen, auch wenn diese halt den Nachteil hat kein 100Base-T mehr zu unterstützen, aber wer hat denn zuhause noch nicht wenigstens Gigabit? Und für die paar Leute reicht es dann einen billigen Gigabitswitch dazwischen zu hängen oder man nimmt ein Board mit einem zusätzlichen Netzwerkchip drauf.

Übrigens ist auch bei den S.1151 Xeon Boards der Aufpreis für 10GbE deutlich geringer als wenn man nachrüsten würde, das Supermicro X11SSH-TF retail (MBD-X11SSH-TF-O) ab € 375,03 hat den X550 und zwei Ports, das sonst gut vergleichbare Supermicro X11SSH-F retail (MBD-X11SSH-F-O) ab € 232,55 ohne 10GbE kostet keine 150€ weniger, während eine X550er Netzwerkkarte mit einem Port rund 300€ und mit 2 Ports etwa 360€ kostet, also fast so viel wie das ganze Mainboard wo die gleich Technik schon drauf ist. :wall:
strex schrieb:
Wenn es klappt statt 10G ASICs (welche man aktuell für NBASE verwendet) welche mit 2,5 bzw. 5G zu liefern die preislich günstiger sind ist die Wahrscheinlichkeit höher das so etwas kommen wird.
2,5GBASE-T und 5GBASE-T werden auf die gleiche aufwendige Modulation setzen wie 10GBASE-T, nur mit geringere Frequenzen mit die alten Cat5e Kabel auch bei längere Stecken als bei 10GBASE-T noch mehr 1Gb/s zu erzielen, billiger wird die Technik aber dadurch eben nicht, bzw. allenfalls weil es bei der Verbreitung hilft.
strex schrieb:
Es ist ja nicht so das die 10G Ports günstiger am Board ist.
Doch natürlich wird es das, denn erst wenn Consumerchipsätze dies bieten, wird es sich auch im Consumermarkt verbreiten und damit werden auch die Preise für Zubehör wie Switches fallen. Solange 10GBASE-T immer noch vor allem zu Vernetzung in Racks und Bladecentern verwendet wird, ist nicht mit günstigen Preisen zu rechnen.

yurij schrieb:
Selbst bei 100-1000 facher Zelllebensdauer vs. Flash wird 3D xpoint Wearleveling benötigen.
Vielleicht unterscheidet das dann Enterprise von Consumer SSD und beim Konzept der Nutzung als RAM wird ja auch DRAM als Cache vorgesehen, womit Daten die sich ständig ändern und das 3D XPoint damit schnell verschleißen würden, dann erst mal im RAM landen.
yurij schrieb:
Sonst kann ein bösartiges Programm (virus z.b.) deine 3D Xpoint SSD in wenigen sekundnen durch das mehfache Beschreiben desselben Sektors dauerhaft beschädigen.
In Sekunden ist ja nun übertrieben, anständige CPUs habe ja auch noch Caches und fangen solche Hot-Data erstmal nur dort ab und schreiben nicht gleich jede Änderung ins RAM runter.
yurij schrieb:
Ich tippe auf ein Paar hundert KB SRAM direkt im Controller.
Das hat jeder Controller sowieso und nicht nur ein paar hundert kB.
 
Zuletzt bearbeitet:
@Holt

Das Problem sind ja nicht die 10G NICs/PHYs auf den Mainboards, sondern die Switche. Ein 8-Port 10 Gbit/s Switch muss mal eben 160 Gbit/s Non-Blocking liefern, wenn es kein Over-Subscription (2:1 / 4:1) der Backplane geben soll. Zum Vergleich: Selbst ein 48-Port 1 Gbit/s Switch brauch mit 96 Gbit/s in der Switching Kapazität nur gut die Hälfte.

Dementsprechend kostet so ein 10G-ASIC selbst in einer minimalen Konfiguration noch vergleichsweise viel.

Daher wäre so ein NBase-T Switch schon kein dummer Ansatz. Das wird spätestens mit der 802.11ac Wave 2 interessant, wenn die Netto-Bandbreiten im WLAN schon > 1 Gbit/s landen.
 
Die Switches werden günstiger, wenn gezielt Produkte für Endkunden auf den Markt kommen und außerdem reicht es vielen Usern doch erstmal wenn sie ihren Heimserver oder ihr NAS mit mehr Bandbreite anbinden könnten und dazu braucht man nicht zwingend einen Switch, meist haben bessere Board ja auch noch einen zweiten Port und der kann dann an den Switch gehen.
 
Mir erschließt sich bei den Argumentationen immernoch nicht die Vorteile für den Alltag von Endusern wie uns. Und ich rede von echten, also spürbaren Vorteilen.
 
In Sekunden ist ja nun übertrieben, anständige CPUs habe ja auch noch Caches und fangen solche Hot-Data erstmal nur dort ab und schreiben nicht gleich jede Änderung ins RAM runter.
Normale Anwendungen ja. Ein virus würde aber msynch() benutzen, was das flushen des caches in den RAM erzwingt. Hab msynch nicht selbst gebencht, aber paar Mio write operationen pro sekunde dürften realistisch sein.
Ausserdem laufen DMA transfers, ausser device-to-device, über ungecacheten RAM, und sehr oft über die selben vorallozierten speicherbereiche, was die problematik noch mal verschärft. Ein I/O intensiver Treiber, wie z.b. 10GbE, könnte rückzuck das aus für 3D Xpoint bedeuten.

Ich behaupte ausserdem mal, dass 3d xpoint den RAM grundsätzlich langsamer macht, da jetzt DRAM selbst als cache mit der ganzen komplexität dahinter un den daraus resultierenden Latenzoverhead fungieren muss. Somit lohnt es sich nur dort wo rießiges RAM benötigt aber nich mit klasichen DRAM wirtschaflich realisiert werden kann. Also Server, Mainframes, Sciense Computing.

Privatanwender brauchen keine 512 GB RAM, die kauffen sich 16GB für 69,90€ was für alle erdenklichen Spiele und Home Anwendungen mehr als ausreichend ist, und müssen sich mit den Nachteilen des langsamen 3d xpoint nicht herumschlagen.
Als RAM Erweiterung für daheim also völlig uninteressant. Nicht mal für Enthusiasten. Die kauffen sich 64GB DDR4 und freuen sich wie die Kinder über 10% Speicherauslastung unter Battlefield.

Als SSD ist 3dxpoint dagegen sehr wohl interessant.
 
Zuletzt bearbeitet:
Wolfsrabe schrieb:
ich rede von echten, also spürbaren Vorteilen.
Solange es keine solchen SSDs zu kaufen und damit auch zum Testen gibt, kann über die Spürbarkeit der Vorteile keine Aussage getroffen werden, aber mit Sicherheit wird es auch dort vom System (je potenter die CPU, umso größer der Vorteil) und der Anwendung (je mehr I/O Last und weniger CPU Last umso spürbarer) abhängen.

yurij schrieb:
Normale Anwendungen ja. Ein virus würde aber msynch() benutzen, was das flushen des caches in den RAM erzwingt.
Was für ein msynch()? Wenn ich danach Google, dann bekomme ich was zu einer "Cell phone and tablet tracking software", aber keinen Systemaufruf einer C Lib mit der ich eine normale x86er CPU auffordern kann Cacheinhalte ins RAM zu schreiben und msync - synchronize a file with a memory map (msync(2) ist laut manpages) hat auch eine andere Funktion als die welche Du meinst: "msync() flushes changes made to the in-core copy of a file that was mapped into memory using mmap(2) back to the filesystem."

Nach meinem Wissen kann man so einfach auch gar nicht den Cache umsehen und selbst wenn es da nun einen Assemblerbefehl dafür gibt, so kann Intel es immer noch so interpretieren, dass dieser Daten aus dem Cache der CPU ins RAM und nicht ins 3D XPoint schreibt und schon läuft die Schadsoftware ins Leere. Wobei laut Anandtechs Artikel ja auch DRAM "nur" eine beschränkte Haltbarkeit von 10^15 Zyklen hat, 3D XPoint 10^7.

Bei Dauerbetrieb wäre damit etwa alle 16s eine Schreiboperation auf das 3D XPoint nötig um diese 10^7 Zyklen zu erreichen, im Einsatz als DRAM wäre es wohl möglich, aber bei Nutzung als SSDs müssten so viele Zugriffe damit schon so lange erfolgen, dass den Nutzer dies auffallen müsste und außerdem hat bisher auch ein Virus angefangen konventionelle SSDs kaputtzuschreiben und HDDs zu verschleißen, denn die haben ja auch nur noch einen begrenzten Workload und der ist bei Desktopplatten nur 55TB pro Jahr an gelesen wie geschriebenen Daten. Viren dürften also kaum ein realen Problem der 3D XPoint Technologie werden.
yurij schrieb:
Hab msynch nicht selbst gebencht, aber paar Mio write operationen pro sekunde dürften realistisch sein.
Wo hast Du das denn gefunden und auf welches msynch bezieht sich diese Aussage?
yurij schrieb:
Ausserdem laufen DMA transfers, ausser device-to-device, über ungecacheten RAM, und sehr oft über die selben vorallozierten speicherbereiche, was die problematik noch mal verschärft. Ein I/O intensiver Treiber, wie z.b. 10GbE, könnte rückzuck das aus für 3D Xpoint bedeuten.
Wohin DMA Schreibzugriffe dann gehen liegt doch in der Hand des RAM Controllers und der steckt in der CPU und kommt genau wie das 3D XPoint daher von Intel, der kann also solche Zugriffe auf DRAM lenken und wird das schon aus Performancegründen auch tun, wenn ein Treiber einen Speicherbereich belegt dessen Inhalt sich ständig ändert. Bisher gibt es so eine Technologie ja noch nicht und alle Befehle die RAM allocieren können daher auch noch gar nicht wählen ob die normales DRAM oder 3D XPoint bekommen möchte, diese Entscheidung liegt daher alleine beim RAM Controller und der nur RAM Bereich auf 3D XPoint auslagern, bei denen es wenige Zugriffe und vor allen weniger Schreibzugriffe gibt.

yurij schrieb:
Ich behaupte ausserdem mal, dass 3d xpoint den RAM grundsätzlich langsamer macht, da jetzt DRAM selbst als cache mit der ganzen komplexität dahinter un den daraus resultierenden Latenzoverhead fungieren muss.
Das wurde ja auch so kommuniziert und deshalb ist ja auch eine Betrieb angedacht bei dem eben das RAM als Cache für 3D XPoint arbeiten wird, nur ist damit immer noch ein viel größerer Arbeitsspeicher als nur mit DRAM realisierbar und die Daten aus dem 3D XPoint werden fiel schneller kommen als von der schnellsten SSD.
yurij schrieb:
Somit lohnt es sich nur dort wo rießiges RAM benötigt aber nich mit klasichen DRAM wirtschaflich realisiert werden kann. Also Server, Mainframes, Sciense Computing.
Das ist klar und ist die Zielgruppe für die Anwendung von 3D XPoint in Form von DRAM Riegeln, aber hier in der News geht es vor allem um die Nutzung als Ersatz für NAND in SSDs.

yurij schrieb:
Die kauffen sich 64GB DDR4 und freuen sich wie die Kinder über 10% Speicherauslastung unter Battlefield.
Da Windows wie alle modernen Betriebssystem sonst unbenutztes RAM als Diskcache verwendet, kann man eigentlich nie unnötig viel RAM im Rechner haben, sofern man nicht wirklich nur bootet und ein Spiel spielt, bei dem dann nie etwas zweimal von der Platte geladen wird.
 
r4yn3 schrieb:
Wo steht das? In den Berichten die ich eben überflog stand nirgendwo was davon. Einzig dass XPoint im DIMM Format wohl erst 2017 erscheinen, und diese zunächst bei der Purley Plattform ihr Debüt feiern. Eventuell beziehst du dich hierauf?

An den Kosten für den Speicher. 1GB Kosten in der Richtung von RAM Preisen. Zudem auf Basis dieser Folie, denn die gesamten Präsentationen sind bis jetzt nur auf Enterprise ausgelegt inklusive der Ansprache der dort vorkommenden Applikationen:

intel_3d_xpoint_projections.png

Holt schrieb:
Nein, es wird teuer verkauft, aber so teuer muss es nicht mehr sein. Die Verbreitung von 10GbE nimmt ja aber auch schon zu, bei den S.1150 Xeon Boards gab es noch keines mit 10GbE Onboard, noch vor kurzem gab es das allenfalls auf einigen weniger Xeon Boards mit dem großem S.2011-3,...

Natürlich schon, sonst gäbe es längst billige China Kopien mit den billigsten 10G ASICs. Die gibt es aber nicht, da die Chips immer noch sehr teuer sind.

Holt schrieb:
einige S. 1151 Boards damit gibt, es verbreitet sich also nach unten und wenn selbst billigste Pentrium-D 1507 SoC für 103$ Listenpreis zwei 10GbE Ports hat, dann kann es nicht so teuer sein wie es heute verkauft wird und wird sich früher oder später auch in Mainstream Chipsätzen wiederfinden. Vielleicht macht ja AMD da mal den Anfang, deren ARM-Basiert Opteron A1100 SoC ja auch mit 10GbE kommen.

Du musst aber beim 1507 wie auch beim A1100 nicht vergessen, dass dort auch noch einiges am Board liegt. Sprich aus den 199$ beim 1520 wird schnell 450 bis 550€. Da sind dann auch die Kosten dabei. Bei Switches ist das gesamte Problem noch höher, neu gibt es die nicht für unter 100€ pro Port alleine für die notwendige Backplane als Mesh die bis zu Tbs verarbeiten muss. Karte für unter 100€ pro 10G Port, nur gebraucht bei ebay.

Könnte ein Hersteller den Preis massiv unterbieten, hätte er längst billige 10G Karten veröffentlich, die um Enterprise-Funktionalitäten kastriert sind. Dann wären sie auch dort nicht einsetzbar und wären perfekt im Consumer-Bereich weil sie den Enterprise-Markt nicht zerstören. Das aber schafft aktuell niemand, nicht einmal der billigste ASIC für 10G der Tehuti TN4010 oder TN9310 gibt es für >1000 Stück unter 80€ (ohne Board). Thecus setzt so einen auch ein und kostet, was erwarten wir, über 200€ mit einem Port.

Lieber Holt, die Realität sieht bis jetzt noch ganz anders aus, auch wenn du dir etwas anderes wünschen würdest.
 
Zuletzt bearbeitet:
Wo steht denn bisher was zu den Preisen?
Und ja mag schon sein dass man bisher meist im Zusammenhang mit Enterprise von XPoint sprach, weil dort der Bedarf ungleich größer ist als beim Consumer. Dennoch siehst du ja anhand der News, das man durchaus "normale" Enthusiasten ansprechen will.

Bezüglich 10GbE, klärt mich da mal auf was genau da so teuer ist?
Überall im PC werden neuere schnellere Standards geschaffen, DDR4, PCIe 3.0 usw. oder LTE z.B. ohne das die pauschal teurer werden, aber im Netzwerkbereich ist das nicht möglich?
 
128GB DDR4 kosten ~530€, eine Samsung SM951 128GB kostet ~76€.
Jetzt bin ich wirklich gespannt mit welcher Performance zu welchem Preis so eine 3DXPoint SSD auf den Markt kommt.
 
@r4yn3

Bei DIMMs bis zu 50% des Preises von DRAM, PCIe etwas darunter:

Intel-3D-XPoint-DIMMs.jpg

Wenn man max. Enthusiasten noch zum Consumer rechnet, dann schon. Preislich wird es direkt aber am Anfang nicht so attraktiv wenn man von 30% bis 50% von DRAM ausgeht, somit der Fokus eher auf Enterprise. Macht man doch dort auch die dicke Kohle mit geringer Menge. Wenn es dann gut läuft, ist ja nichts gegen den Consumer einzuwenden.

--

Bezüglich 10G: 5G (Mobilfunk) wird auch teurer zu LTE, aufwendigeres Equipment notwendig. Alle anderen Standards was du aufzeigst überbrücken ja kaum mehr als 50cm, also schwer vergleichbar mit Ethernet. Und das ist das Problem, aufwendige Technik zur Fehlerkennung/Bereinigung bei 100m oder mehr. Ethernet eben, das macht den ASIC groß und teuer, zumal er schnell mal 5 Watt (Base-T) und mehr liefern muss für die Signale.

Ein ASIC für 8, 16, 24 oder 48 10G Ports als Switch mit einer Mesh Backplane (960G bei 48) ist ein Kaliber der einen extrem großen, aufwendigen ASIC benötigt der nicht billig ist. Von 40 oder 100G sprechen wir schon mal gar nicht.
 
Ja wie gesagt, bei DIMMs ist klar dass das zunächst nur für Enterprise kommt.

Für SSDs find ich die Preise aber nicht kritisch, wird man halt zunächst wie bei den SATA SSDs mit kleinen 60-120GB Platten rein fürs System den Anfang machen. Wenn die gefühlte Performance so einen Sprung schafft wie von HDD zu SSD bin ich auch bereit für 60GB wieder 200€ zu zahlen.

Bei den Systembeschleuniger Platten wird man hier wohl wieder bei 20GB landen, die als Systemcache dienen. Gabs ja damals auch ein paar SATA Exemplare.
 
r4yn3 schrieb:
Für SSDs find ich die Preise aber nicht kritisch, wird man halt zunächst wie bei den SATA SSDs mit kleinen 60-120GB Platten rein fürs System den Anfang machen. Wenn die gefühlte Performance so einen Sprung schafft wie von HDD zu SSD bin ich auch bereit für 60GB wieder 200€ zu zahlen.

Macht dann bei 120GB 250€ oder bei 60GB 125€. Wenn man der Angabe von Intel glaubt. Die Frage wäre kauft sich das als Consumer bei dem Verhältnis Speicher/Geld (im Verhältnis zu SSD) und ist es überhaupt in der Menge für Consumer lieferbar.

Ich sehe da eher ein Markt (für Consumer) für Tablet/Smartphone wo man sich den RAM spart und rein auf xPoint setzt. Leistung sollte pro Channel reichen und man spart Strom und ein Boot ist nicht mehr notwendig. Win Win für alle und man braucht nur geringe Kapazitäten die bei schlechter Ausbeute möglich wäre. Ein SoC aus CPU, GPU, LTE und xPoint als Speicher (RAM) wäre mal ein Lösung die durchaus den Zugang zum Markt ermöglichen könnte.
 
Zuletzt bearbeitet:
strex schrieb:
Du musst aber beim 1507 wie auch beim A1100 nicht vergessen, dass dort auch noch einiges am Board liegt. Sprich aus den 199$ beim 1520 wird schnell 450 bis 550€.
Das ist mir auch klar, trotzdem liegen die Kosten weit unter dem, was für solche 10GBASE-T Karten verlangt wird, siehe das Beispiel der beiden Xeon Boards von Supermicro wo das welches alles drauf hat was eine Karte für 360€ hat, nur 160€ mehr kostet als ein vergleichbares Board ohne und die X550er Karten kosten mit einem Port 300€ und mit 2 Ports 60€ mehr, also dürfte was ab dem Netzwerkchip bis zur RJ45 Buchse noch nötig ist, pro Port auch nur 60€ kosten, war doch alles schon in meinem Post erwähnt. Vergleich man nun das Supermicro X10SDV-F retail (MBD-X10SDV-F-O) ab € 914,15 welches die 10GBASE-T nicht bestückt hat mit dem sonst identischen Supermicro X10SDV-8C-TLN4F retail (MBD-X10SDV-8C-TLN4F-O) ab € 1000,05 mit zwei 10GBASE-T Ports, dann sind es keine 100€ Aufpreis für alles, was man braucht um zwei Ports von einem Chip auf dem Board zu realisieren. Wenn 10GBASE-T erst mal Mainstream ist weil Consumerchipsätze es bieten, werden die Kosten auch dafür noch fallen, außerdem wäre selbst 50€ oder 60€ für einen 10GBASE-T Port für ein Enthusiastenboard nun auch nicht so viel.

strex schrieb:
Bei Switches ist das gesamte Problem noch höher, neu gibt es die nicht für unter 100€ pro Port
Auch die Switches werden langsam billiger und 12 Ports für 920€ sind 77€/Port. Es ist alles eine Frage der Masse und des Zielmarktes, denn solange es reine Enterprise Hardware ist, werden die Preis natürlich hoch bleiben.
strex schrieb:
der billigste ASIC für 10G der Tehuti TN4010 oder TN9310 gibt es für >1000 Stück unter 80€ (ohne Board).
Was plus 60€ für den Rest dann für 150€ statt für 200€ als Karte zu realisieren wäre, aber 80€ sind zu teurer wenn man überlegt, dass ein X550 und die beiden 10GBASE-T Ports das Supermicro X11SSH-TF gegenüber dem sonst gut vergleichbare Supermicro X11SSH-F um keine 150€ verteuern und ein Pentium-D 1507 SoC für 103$ schon zwei solche Ports hat, neben den beiden Broadwell Kernen und Chipsatz mit SATA und USB Ports. In entsprechenden Mengen gefertigt, wären vielleicht 20 bis 30$ der Preis dafür, nicht 80.

r4yn3 schrieb:
Wo steht denn bisher was zu den Preisen?
Die Preise sollen zwischen denen von NAND und DRAM liegen, genau wie die Latenz und die Zyklenfestigkeit. Diese Aussage gab es gleich bei der ersten Vorstellung der Technologie vor einem Jahr.
r4yn3 schrieb:
Bezüglich 10GbE, klärt mich da mal auf was genau da so teuer ist?
Es ist teuer, weil es bisher nur für Enterpriseanwendungen ist, also kein Massenprodukt und bis vor recht kurzer Zeit war es auch vor allem für Glasfaser verbreitet um Verbindungen über größere Distanzen wie zwischen mehreren Gebäuden zu realisieren und ggf. die Switches in den Etagen zu verbinden. Das ist doch immer das Gleiche, erst wenn etwas Neues im Consumersegment angekommen ist und die Stückzahlen damit ansteigen, fallen die Preise. So war es auch beim Gigabit Ethernet und so sieht man es gerade bei NVMe SSDs, die ersten waren nur teure Enterprise Modelle, auch die Intel 750 ist ja im Grunde eines mit einem Monster Controller mit 18 Kanälen, dann kamen die kleinen Controller in den OEM SSDs von Samsung und haben die Preise schon mal deutlich gedrückt, nun kommen immer mehr Anbieter mit Controllern die vor allem für Consumer NVMe SSDs sind auf den Markt und in einem Jahr oder maximal 2 Jahren, wird es kaum noch einen Aufpreis für PCIe NVMe gegenüber vergleichbaren SATA SSDs mehr geben, weil einfach dann die Massenproduktion läuft und es ist am Ende egal welche Masken in der Fab auf dem Wafer liegen und ob die dann einen SSD Controller mit SATA oder PCIe Anbindung ergeben.

Vorher lässt sich aber wegen der besseren Performance noch gut daran verdienen und daher werden entsprechende Preise verlangt, was eben auch nötig ist um die Entwicklungskosten wieder einzuspielen und wenn am Ende nicht mehr viel dran zu verdienen ist, so ein i210-AT steht bei Intel mit 3,20$ in der Preisliste, dann muss irgendwann immer was neues her um die Margen wieder zu steigern.

Es gibt ja schon ein erstes X99er Board mit 2x 10GBASE-T (Intel X540) drauf, auch wenn es noch ein sauteures Board mit WS in der Bezeichnung ist, so ist es der Anfang, weitere werden nachziehen und irgendwann landet die Technik im Chipsatz und wird Mainstream. Wer meint das ausgerechnet 10GBASE-T da eine Ausnahme bilden wird nur weil es noch teuer ist, der irrt. Aber die Zeit wird das zeigen und nun zurück zum 3D XPoint, mit dem Intel dann auch die von manchen bisher vermissten M.2 PCIe SSDs bringen wird und das alleine wird auch Intels Interesse daran steigern die Netzwerkbandbreiten steigen zu lassen, damit die Leute eben dann normale SATA SSD statt des Netzwerkes als Flaschenhals ansehen und eher bereit sind für eine schnellere SSD Geld auszugeben.
 
Holt schrieb:
Vergleich man nun das Supermicro X10SDV-F retail (MBD-X10SDV-F-O) ab € 914,15 welches die 10GBASE-T nicht bestückt hat mit dem sonst identischen Supermicro X10SDV-8C-TLN4F retail (MBD-X10SDV-8C-TLN4F-O) ab € 1000,05 mit zwei 10GBASE-T Ports, dann sind es keine 100€ Aufpreis für alles, was man braucht um zwei Ports von einem Chip auf dem Board zu realisieren. Wenn 10GBASE-T erst mal Mainstream ist weil Consumerchipsätze es bieten, werden die Kosten auch dafür noch fallen, außerdem wäre selbst 50€ oder 60€ für einen 10GBASE-T Port für ein Enthusiastenboard nun auch nicht so viel.

Reine Mischkalkulation bei dem Supermicro Board und deinen Beispielen, das ohne 10G enthält bereits Vorbereitung für 10G und somit kann man nicht direkt von den Kosten auf 10G schließen. Denn das zahlt der Käufer zum Teil schon mit, auch wenn er das Board ohne 10G ASIC kauft. Denn das müsste dann schon komplett ohne kommen.

Rechnet man das raus sind wir wieder bei um die 100€. Denn wenn man das so vergleicht, müsste man auch die Single und Dual Port Karten anschauen. Zum Beispiel enthalten die Single Karten bereits den Transceiver für Base-T ala Marvell Alaska X 88X3140/3120 der schon zwei oder vier Ports ansteuern kann. Bedeutet die Single Karte ist bereits vorbereitet für mehr Ports und dementsprechend die Kosten höher. Deshalb ist der Aufschlag auf Dual Ports dann auch nicht wieder so hoch. Den der entspricht hier ungefähr die des weiteren TN4010 der notwendig wäre.

Aber das ist auch eine schwierige Diskussion, denn die ASICs unterscheiden sich oft sehr grundlegend. Was wird in Software erledigt, was ist in Hardware integriert und per Offloading verfügbar. Da schneiden die günstigen meistens nicht gut ab. Wer da Richtung volles Offloading landet (Storage) kommt dann schnell zu einem Chelsio T520 mit 16W Leistungsaufnahme für 500$/Port Liste.

--

Apropos, heute wurde NVMe over Fabric angekündigt. Sprich vergleichbares wie FCoE oder iSCSI. Passende Ethernet Lösung für xPoint :D

https://www.openfabrics.org/images/eventpresos/workshops2015/DevWorkshop/Monday/monday_10.pdf
 
Zuletzt bearbeitet:
Danke euch beiden für eure Antworten.
 
Es ist ja fast schon erschreckend, welche Performancesprünge sich derzeit auf dem Speichermarkt auftun.
Jahrelang hat die Leistung von Speicher in Form von HDDs stagniert und war die Bremse im System, während die CPU-Leistung permanent eine unfassbare Entwicklung hingelegt hat... und jetzt?

Genau anders herum.

Kaum ist ein neuer Übertragungsstandard auf dem Markt angekommen, wird er auch schon fast von neuen Festspeichern bis zur Grenze ausgenutzt, während die CPU-Leistung stagniert...
:D

Wir profitieren gerade maximal von der Vielzahl an Teilnehmern auf dem Speichermarkt.
Ich dachte mit den aktuellen PCIe NVMe SSDs wäre zunächst einmal für längere Zeit die "Krone der Schöpfung" erreicht... doch kaum sind diese auf dem Markt (und nutzen die Kapazität von PCIe 4x auch fast von Beginn an fast maximal aus), kommt schon die nächste Revolution.

Das ist völlig verrückt, aber auch irgendwo gut, weil so wie es derzeit aussieht, die PCIe-SSDs ja im Alltag für Programmstart etc trotz des zugriffzeitoptimierten NVMe-Protokolls nur geringen Nutzen bringen und genau hier könnten die X-Point-Geräte dann angreifen.

Ich sage nur Wow!
 
Vergiss nicht das bei einem Programmstart mehr als nur das Lesen von der Platte passiert, da schaut meist noch ein Virenfinder drauf und dann muss die CPU die geladenen Codezeilen auch abarbeiten. Auch wenn die 4k Lesend bei QD1 deutlich besser werden, wird es auch weiterhin vom System und der Anwendung abhängen wie spürbar so eine SSD dann am Ende ein System beschleunigen kann.
Ergänzung ()

strex, eigentlich wollte ich in diesem Thread ja nicht weiter auf 10GbE eingehen, aber nur soviel:
Also zumindest AMD wird den Servern reichlich 10GbE spendieren und die Daten bzgl. des Cache stimmen mit dem überein, was auch für die Desktopmodelle im Gespräch ist, nämlich 2MB L3 Cache pro Kern und Gruppen zu je 8 Kernen. Damit bleibt die Frage ob AMD nun zwei Netzwerklösungen entwickelt hat, also 10GbE für die Server- und Gigabit für die Consumer Chipsätze oder nur eine und damit auch die Consumerchipsätze in den Genuss von 10GbE kommen werden. Wir werden sehen, aber wenn AMD dies zuerst bietet, können sie sich besser von Intel absetzen und damit zusätzliche Kunden gewinnen.

An sonstigen Schnittstellen wird es dem Serverchip auch nicht mangeln:
Naples has eight independent memory channels and up to 128 lanes of gen 3 PCIe. This makes it suitable for fast NVMO memory controllers and drives. Naples also support up to 32 SATA or NVME drives.
Der 32 Kerner wird ja wohl zwei Dies in einem Gehäuse vereinen und die Desktops werden wohl am Ende nur ein Viertel davon sein, was dann eben Dual-Channel NAND, 32 PCIe Lanes und 8 SATA/NVMe Laufwerke bedeuten dürfte und immer noch stattlich wäre.
 
Holt schrieb:
Vergiss nicht das bei einem Programmstart mehr als nur das Lesen von der Platte passiert, da schaut meist noch ein Virenfinder drauf und dann muss die CPU die geladenen Codezeilen auch abarbeiten. Auch wenn die 4k Lesend bei QD1 deutlich besser werden, wird es auch weiterhin vom System und der Anwendung abhängen wie spürbar so eine SSD dann am Ende ein System beschleunigen kann.

Ja ich erinnere mich daran, dass wir schon einmal darüber diskutiert hatten, wie es kommt, dass die PCIe-SSDs im Alltag so wenig spürbare Mehrleistung bringen.
Du hattest damals bereits diese Sache mit dem Programmstart und komplexen Dingen, die da passieren erwähnt.
Für mich war das alles etwas "mystisch", aber ich habs hingenommen.

Ich vermute inzwischen jedoch in ganz andere Richtungen, vor allem eines:
die Zugriffszeit spielt dabei in der Tat doch eine größere Rolle, als ich früher dachte... die normale SSD-Technik scheint da an einem limitierenden Punkt angekommen zu sein, ab dem auch alle noch so hohen Transferraten nicht mehr wirklich im Alltag weiter helfen.

Die Programme starten einfach nicht merkbar schneller auf PCIe-SSDs.

Aber sie starten vielvielviel schneller, würde man sie auf einer RAM-Disk installieren, selbst wenn man RAM mit relativ langsamem Durchsatz verwendet... das Problem ist also NICHT rein prinzipiell, sondern scheinbar doch rein technisch!
Der relevante und große Unterschied zwischen SSD und RAM-Disk ist ja in erster Linie die beschleunigte Zugriffszeit.

Inzwischen habe ich die Vermutung, dass der zugriffszeitbezogene Flaschenhals bei den PCIe-SSDs nicht mehr beim Protokoll liegt, sondern bei dem Festspeicher selber.
Meine Vermutung: Erst eine neue Grundlagentechnik könnte hier die Fähigkeiten des NVMe-Protokolls voll ausnutzen und das würde dann auch endlich wieder einen spürbaren Performanceschub bringen.

Theor. ermöglichen NVMe und PCIe erheblich schnellere Zugriffszeiten... wie schnell maximal und in konkreten Zahlen ausgedrückt, dazu finde ich jedoch leider nichts!

Rein praktisch (in Produkten betrachtet) sieht es ja auch so aus, dass die Zugriffszeiten der SSD durch PCIe nur geringfügig besser geworden sind.
So hat eine Samsung 850 pro eine mittlere lesende Zugriffszeit von 290 Microsekunden, während eine SM951 auf 310 Microsekunden = 310000 Nanosekunden kommt.
Also auch wenn der Durchsatz bei den "ach so modernen" PCIe-SSDs erheblich gestiegen ist, die Zugriffszeit ist in der selben Liga, wie die "alten SSDs" und daher verwundert es kaum, dass der Programmstart nicht wirklich beschleunigt wird.
Zum Vergleich: RAM hingegen hat eine Zugriffszeit von 10 Nanosekunden= 0,01 Mikrosekunden und ist damit im Zugriff immer noch um den erstaunlichen Faktor 31000 schneller als derzeit übliche SSD.

Um selber mal eine Vorstellung zu bekommen in welchem Ausmaß die Zugriffszeit sich verbessern muss damit man es im Alltag deutlich spürt, hier noch mal der Vergleich HDD zu SSD:

Eine relativ gute HDD hatte am Schluss eine Zugriffszeit von ungefährt 5 Millisekunden=5000 Microsekunden. Im Vergleich ist somit eine SM951 gerade mal um den Faktor 16 schneller im Zugriff, als eine HDD.

Um ehrlich zu sein... das ist nicht mal sooooo überragend viel schneller, wenn man bedenkt, dass sämtliche mechanischen Teile wegfallen!
Ein Faktor 16 von einem elektronischen Bauteil ggü. der mechanischen Technik ist sogar eine ausgesprochen mieser Steigerungswert!
Und dennoch haben wir eine ordentliche Steigerung der Performance im Alltag bemerkt.

Also im Endeffekt gibt es zwischen derzeitigen SSDs und RAM noch sehrsehr viel Raum die fühlbare Geschwindigkeit über verbesserte Zugriffsgeschwindigkeiten zu steigern.

Sagen wir X-Point wird eine ähnliche Verbesserung einführen wollen, wie damals die SSD vs. HDD, dann muss es eine Zugriffszeit von 310 Microsekunden / 16 = 20 Microsekunden = 20000 Nanosekunden bieten.
Das ist keineswegs unrealistisch schnell... im Gegenteil: RAM wäre dann immernoch um den Faktor 2000 schneller...
Nicht vergessen darf man darüber hinaus, dass RAM nun seit 20 Jahren auf die selbe Zugriffszeit von ca. 10ns festgenagelt ist.
Erst jetzt mit DDR4 wird die Zugriffszeit von RAM sich das erste Mal in der Geschichte des RAM überhaupt Stück für Stück merklich nach unten verbessern.

Also ich bin selber im Besitz einer SM951 inzwischen, aber würde ich jetzt mit diesem Wissen erneut vor der Entscheidung stehen, diese zu kaufen oder nicht, so würde ich das nicht machen, sondern darauf warten, bis endlich auch Modelle mit einer schnelleren Zugriffszeit kommen, so dass ich auch real profitieren kann.
Die aktuellen SSD-Modelle blenden uns alle mehr oder weniger mit hohen Transferraten, NVMe und moderne Schnittstellen erlauben rein THEORETISCH viel schnellere Zugriffszeiten, etcpp... jedoch können sie alle diese Vorteile gar nicht wirklich nutzen, denn der verwendete NAND ist einfach zu lahmarschig!
Sie sind in Punkto Zugriffszeit kein Fortschritt!!
Stillstand!!!
Die ersten wirklich brauchbaren SSDs, die auf den Markt kamen, waren in Punkto Zugriffszeit bereits fast genauso schnell, wie eine aktuelle PCIe-SSD...

Wenn ihr mich fragt, die bislang erhältlichen PCIe-SSDs sind irgendwo eine Mogelpackung.
Wie ein Musclecar... hört sich alles toll an, sie gut aus, lange Balken wo man hinsieht, aber die PS kommen einfach nicht auf der Straße an.

Auf den Zugriff kommt es aber eben genau an, wenn man davon merklich im System im Alltag profitieren möchte.
Der Zugriff ist der einzige echte Faktor!

Das wissen wir eigentlich schon von HDD vs. SSD!

Das ist auch die Erklärung, warum immer neuere Generationen von SSDs keinen echten Performanceschub mehr gebracht haben, auch wenn der Durchsatz weiter gestiegen ist.
Es lag einfach daran, das die Zugriffzeiten "heimlich" gleich "schlecht" geblieben sind.
Ganz ehrlich... kaum ein Test oder Review gibt den Zugriffszeiten den Stellenwert, den sie eigentlich haben sollten.

Welche Technik künftig schnellere Zugriffszeiten ermöglichen wird ist mir dabei völlig egal!
Mann kann es ja X-Point nennen oder auch gern NAND, oder wie auch immer, hauptsache der Zugriff wird schneller werden...
 
Zuletzt bearbeitet:
Zurück
Oben