Also ich verstehe auch weder was das Ganze soll noch was daran besonders toll wäre. Klar kann man die Speicherhierarchien abschaffen, mit DRAM geht das heute schon und mit Storage Class Speichern wie dem 3D XPoint wird es noch einfacher und billiger. Aber Speicherhierarchien wurden ja nicht geschaffen um die Leute zu ärgern, die haben ja eine Sinn. Die schnellsten Speicher wie SRAM und DRAM sind teuer und die heutige HW erlaubt eben nicht so viel davon zu verwenden. Ein DDR4 LRDIMM oder RDIMM haben maximal 64GB pro Riegel, ein großer Xeon kann bei Quadchannel maximal 3 pro Kanal ansprechen, also insgesamt 12, macht 768GB oder 1,5TiB bei Dual-CPU Rechnern.
Nur kostet das
über 10€/GB und ist damit sehr teuer, selbst eine wirklich schnelle Enterprise SSD wie die
Intel DC P3608 4TB (ab 9177€, 2,30€/GB) bietet mehr Kapazität für deutlich weniger €/GB.
15krpm Enterprise SAS HDDs gehen pro GB ab 0,50€ los und 3.5" HDD bei 0,025€/GB, selbst die
größten mit 10TB ab 0,04€/GB, was um den Faktor 250 günstiger als die größten RAM Module ist! Klar sind die um mehr als den Faktor 250 schneller, aber solange die SW meist nur einen Teil der Daten von der HDD wirklich braucht und womöglich einen noch größeren Teil in der schnellen SSD zwischenspeichert, dürften die gewohnten Speicherhierarchien immer noch der wirtschaftlich sinnvollste Weg sein.
HP baut also eine Kiste mit letztlich extrem viel RAM und dies sollte auch noch persistent sein und damit die Datenspeicher gleich mit ersetzen. Die Big-Data Jungs haben da sicher Interesse dran, können sich das hoffentlich auch leisten, aber für den Rest der IT Welt sehe ich weniger Nutzen in der Sache. Im RAM wird nichts berechnet und es gibt halt nicht so viele Anwendungen die ständig auf alle Daten zugreifen müssen, wenn aber ein Algorithmus eine Weile auf nur einen Teil des Datenbestandes arbeitet, dann lohnen sich die Speicherhierarchien schon wieder, weil eben die Masse der Daten auf den zwar langsamen aber billigen Datenträger liegen kann und die Zeit zum Laden dieser Daten in den eigentlichen Hauptspeicher umso irrelevanter wird, je länger die CPU danach damit beschäftigt ist.
Konsequent zu ende gedacht müsste "The Maschine" also eine CPU mit einem gigantischen L1 Cache sein in den alle Daten passen und wo sie auch bei Spannungsabfall nicht verloren gehen. Nur gibt es so schnelle persistente Speicher nicht, SRAM ist der schnellste Speicher überhaupt, danach kommt DRAM und auch die kommenden Storage Class Speicher werden nicht einmal die Performance von DRAM erreichen, von der Haltbarkeit mal abgesehen. Soll dann der ganze Speicher aus Storage-Class bestehen, wären "RAM Zugriffe" der CPU wieder langsamer als bei DRAM und sie wäre auf ihre Caches angewiesen um nicht laufend sehr viele Wartezyklen einlegen zu müssen und dann haben wir doch wieder Speicherhierarchien!