Auch scheint zfs nicht nur zu cachen es haelt auch immer viele daten im speicher die gar nicht dort sein muessten, soweit ich das verstanden habe, mags gruende geben fuer enterprise umgebungen ist ram billiger da verbraet man dann halt mal 1 2 gb ram zum Spass wenn dadurch 1% mehr speed raus kommt, das muss dann aber eben nicht fuer alle einsatzzwecke ideal sein.
Woran machst du fest dass die Dateien da nicht sein müssten? Lies dir halt durch wie der ARC arbeitet. Blöcke, nicht Dateien genauergesagt, werden im Ram gehalten um diese Daten schneller liefern zu können. Dabei wird der Ram benutzt der halt da ist.
Ist weniger Ram da, kann halt nicht soviel gecached werden, logisch, dann müssen die Blöcke eben von den Platten gelesen werden. Müssten sie bei einem anderen Dateisystem aber genauso. Mit wenig Ram fällt nur dieser Turbo weg. Man kann da doch nicht mit "ausbremsen" argumentieren, dass ist ein Vergleich von Äpfel mit Birnen.
Nen Benchmark werde ich jetzt nicht liefern, weil ich da jetzt einfach zu faul für bin, du kannst mir glauben oder es sein lassen, aber mein NAS/Server mit 4GB ist nunmal leicht schneller als der mit 9GB. In meinen Augen liegt das an der CPU und weil dort mehrere HDDs verbaut sind. Wie gesagt glauben musst du es nicht.
Caching also der ARC bei Mediadateien macht auch nicht viel Sinn da dort die Blöcke nur einmal gelesen werden, außer man guckt sich immer wieder und wieder dasselbe an. Daher ist mehr Ram auch hier gar nicht sinnvoll weil nicht sinnvoll nutzbar, das ist einfache Logik.
Du gingst auch nicht auf die 128bit ein ist doch logisch das umso mehr bit etwa verarbeiten muss es um so verschwenderischer mit resourcen um gehen muss.
Ist doch irrelevant. Wichtiger ist was am Ende bei raus kommt an Leistung. Ob es da irgendeinen theoretischen Nachteil gibt interesiert doch nicht, wenn dieser in der Praxis nicht wirklich relevant ist.
Die jetzigen implementierungen sind eh nur 64bit und die restlichen 64bit sind aufgefüllt mit Nullen um später einfach auf 128bit umzustellen. Warscheinlich werden die also eh weitesgehend ignoriert in der Datenverarbeitung solange bis man 128bit wirklich benötigt.
Sollte das eine falschinformation sein, das zfs sehr viel speicher braucht um halbwegs vernuenftig zu laufen, ist das auch incht mein problem, dann haben die entwickler und alle extrem schlechtes Marketing gemacht, und dieses "Geruecht" oft selbst in umlauf gebracht, du kennst vielleicht jupiterbroadcasting und da gabs oder gibts ja auch bsd now show oder so ahenlich, dort kamen auch immer wieder zuschauerfragen, und dort wurde immer von 4 bisser 8 geredet.
In meinen Augen ruht das daher dass ZFS eben in Rechenzentren etc eingesetzt wird und nicht auf einfachen kleinen Rechnern zuhause und es dort eben sowieso "tonnenweise" Ram gibt, welcher dort auch sinnvoll genutzt werden kann weil dort zig User gleichzeitig zugreifen. Und grade da profitiert man davon wenn Blöcke nicht von der HDD sondern direkt aus dem Ram gelesen werden können.
Daraus ist vielleicht irgendwann entstanden dass man für ZFS umbedingt viel Ram benötigt weil man sich da auf irgendwelche "Faustformeln" für Server in Rechenzentren berufen hat, weil man ansonsten einfach nicht viel andere Informationen hatte. Das da "oben" von wegen 1GB für 1TB Speicher ist doch auch Humbug. Für was soll das gelten? Was ist wenn du das ganze als Coldstorage einsetzt mit sagen wir mal 100TB, brauchste da jetzt umbedingt auch 100GB Ram damit es gut läuft? Genauso wenig brauch ich bei 10TB umbedingt 10GB Ram. Es kann Sinn machen, muss es aber nicht, und nicht immer. Es "kommt drauf an"
Meine Erfahrung ist die es läuft mit 4GB gut, und eine Aufrüstung auf 8GB bringt manchmal sogar gar nichts, je nach Anwendungsfall. Beziehe es auf die Verwendung zuhause wie schon gesagt im privaten Umfeld.
Haste mehr User macht mehr Ram also schon Sinn. Oder greifst immer wieder auf dieselben Blöcke hinzu.