Nur was nutzt die hohe Zugriffszeit wenn der eigentliche Datentransfer dann sowieso viel länger als die Zugriffszeit dauert? Daher werden eben nur kurze Zugriffe gecacht, denn bei denen fällt die hohe Zugriffszeit der HDDs im Vergleich zu der kurzen Zeit der Übertragung der Daten eben sehr ins Gewicht. Würde man nun auch noch einen komplexen Algorithmus für die Cacheverwaltung nutzen, wäre die Zugriffszeit auch noch höher, man muss ja vor dem Zugriff sowieso schon prüfen ob die Daten im Cache stehen und dann ggf. auch noch entscheiden, welche alten Daten nun verdrängt werden, wenn neue gecacht werden sollen und letzteres muss man entschieden haben, während die HDDs den Zugriff macht, damit man eben die gelesenen Daten sofort mit ins NAND schreiben kann, denn soll man die Daten sonst lassen, wen sofort der nächste Zugriff kommt? Bleibt da Zeit um alle Zugriffe mit der Zeit des Zugriffs zu protokollieren und auszuwerten, damit man wirklich die zuletzt am häufigsten genutzten cacht?
Und selbst wenn, was ist mit der Datei die auf die gestern dreimal zugegriffen wurde, soll die aus dem Cache von einer verdrängt werden die heute zum zweiten mal gelesen wurde? Oder doch erst nach dem dritte oder vierten Zugriff, weil dann klar ist, dass die von gestern heute gar nicht mehr gebraucht wird? Versuche einen guten Algorithmus zu finden und vergleiche dessen Aufwand mit dem einfachsten, eben alle zu Cache was gerade mit kurzen Zugriffen gelesen wurde und wenig Aufwand bedeutet und dann landest Du am Ende bei dem, zumal der auch gut in Benchmarks funktioniert. Denn was nutzt es wenn die Daten des letzten Benchmarks noch gespeichert sind und nicht die von dem er nun gerade läuft und dessen Dateien nun drei- oder fünfmal hintereinander gelesen werden.