markox schrieb:
Ich wüsste nicht, was mir ein revolutionärer neuer Arbeitsspeicher, bzw. dessen Ersatz für einen größeren Vorteil bieten sollte, im normalen Alltagsgebrauch. Klar, der PC könnte ohne Wartezeit sofort angehen, aber auf die 10 Sekunden kommt es mir da auch nicht mehr an, ein Mal den Stuhl gerade gerückt und ich kann loslegen. Und flüssiger als flüssig kann der PC auch nicht laufen. Am Ende bleiben nur noch spezialisierte Anwendungen die aber die wenigsten die wenigst Zeit ausführen dürften.
Ich glaube du unterschätzt das. Nicht nur das Hochfahren würde wegfallen, sondern das öffnen von Dateien/Programmen, denn wenn man den RAM durch ein persistenten Speicher ersetzt könnte, wären alle Dateien/Programme dauerhaft offen, Ladezeiten wäre größtenteils Vergangenheit. Natürlich würden sehr I/O-lastige Anwendungen besonders profitieren, aber auch für den Normalnutzer wäre ein solches "Instant-On"-Gefühl sicherlich eine Offenbarung.
Holt schrieb:
Bei den Ladezeiten von Games spielt meist der Entpacken der in aller Regel gepackt vorliegenden Daten die größte Rolle und dann bringt auch die schnellste SSD nichts, weil die CPU der begrenzende Faktor ist, die diese Daten entpacken muss.
Jein. Häufig werden Kompressionsalgorithmen so ausgewählt, dass aktuelle CPUs min. so schnell entpacken können wie HDD/SSDs lesen können. Werden die Datenträger schneller wählt man einfach einen schnelleren Algorithmus. Facebook hat z.B. vor kurzem einen neuen Algorithmus vorgestellt, der besser als zip/gzip komprimiert und trotzdem so wenig CPU-Zeit braucht, dass ein einzelner Kern mehrere GiB/s dekomprimieren kann. Sollte man irgendwann den RAM durch einen persistenten Speicher ersetzen kann man die (De-)Kompression auch in Hardware gießen wie man es bei den Videocodecs bereits tut.
Holt schrieb:
Die geringe Zellgröße und damit hohe Speicherdichte von NAND ist der Hauptgrund warum dies so bald nicht verschwinden wird, dann diese dürfte kaum eine anderen Technologie übertreffen können. Damit wird NAND auch lange oder immer die günstigste Form sein wie man Daten in Halbleitern speichern kann.
NAND wird mittelfristig weiterhin der Halbleiterspeicher mit der geringsten Zellgröße bleiben. Bei anderen Halbleiterspeicherarten gibt es allerdings welche, die theoretisch ähnliche Zellgrößen erlauben würden, z.B. eben SST-MRAM. Aber selbst wenn sie diese nicht ganz erreichen könnten sie im Endeffekt trotzdem zu höheren Datendichten führen, denn da sie wie RAM und im Gegensatz zu NAND keiner alterungsbedingten Abnutzung unterliegt könnte man bei dieser QLC und noch kleinere Strukturbreiten einsetzen wo NAND aus Haltbarkeitsgründen nicht mehr nutzbar wäre.
Ob und falls ja wann SST-MRAM sein Potential ausschöpfen kann ist allerdings noch ziemlich unsicher. Da aber einige der großen Halbleiterunternehmen (IBM, Samsung, GloFo, TSMC, Freescale, Hynix, …) daran forschen und teils sogar schon fertige Produkte angeboten werden (Everspin) sehe ich die Chancen nicht schlecht dafür.