Okay, gerade mal ein Feldversuch gemacht:
Einfach mal mit FilelocatorPro die C Platte (System) nach *.* durchsucht. Findet hier auf 230GB knapp 800.000 Files.
Anhang anzeigen 620315
Anhang anzeigen 620316
von 792.044 Dateien sind die 538.561 kleinsten Dateien zusammen
nicht mal 3 GB groß.
671.491 Dateien sind zusammen 17.59 GB groß, von 227Gb Gesamtdatenmenge.
Ohne jegliche Analyse ob und wann verwendet, Komprimierung oÄ kann man also auf einer 16 GB Caching SSD, egal ob Optane oder sonstwas schon gut 7 von 8 Dateien zwischenspeichern bzw 7 von 8 Lesezugriffe quasi eliminieren (da SSD Faktor 1000 weniger Latenz).
Pakt man noch mehr Intelligenz rein, zb eine Analyse wann wie gelesen und zuletzt verwendet, noch einen Write Cache, ggf Logik nach gewissem Datei Typs, usw... dann sieht man dass für viele Anwendungsfälle schon ein kleiner Cache viel bringen kann.
Anderes Beispiel. Wenn ich nun Filme oder sagen wir ~5 MB große MP3s auf der Platte hab, dann hab ich wohl wenig von die auf teurem SSD Speicher abzulegen. (außer Metadaten vllt).
Ob die 30 GB große MKV nun in 8 ms Latenz oder 0,08ms Latenz aufgerufen wird ist relativ Wurst und hat kaum Einfluss. Ob ich aber 20000 1kb große ini Dateien beim Programm Start in 20000x8ms = 160s oder (16000x0,08ms + 4000*8ms) = 33,28s abrufe schon eher.