1.) Auf eine RAM-Disk wird im Serverbereich überhaupt nichts gepackt. Hier geht es in erster Linie um Zuverlässigkeit und Sicherheit der Daten. Die Performance ist da eher sekundär.
2.) Mit VMWare habe ich mir schon einmal ein Windows auf eine RAM-Disk gelegt. Das XP hat in 3 Sekunden gebootet. Recht viel mehr war dann aber nicht mehr drin, da ich nur 2GB RAM hatte mit einer 1400MB RAMDisk und dann schauen wollte, wie schnell das Defragmentieren der 5GB Platte geht und schwupps war die Maschine hinüber.
3.) Ist klar, dass ein Terminal Server auch einiges braucht, aber es werden kaum alle Leute gleichzeitig eine Anwendung mit 2GB RAM Verbrauch starten, sondern im Schnitt vielleicht jeder 2-3 Anwendungen (nach Programmen gezählt und nicht nach offenen Explorer Fenstern). Da kann man mit 4x8GB auch schon einiges anstellen. Wirklich RAM benötigt man nur, wenn der Terminal Server wirklich als Hauptarbeitsplatz genutzt wird, was aber in den meisten Firmen, die ich bisher gesehen habe noch nicht der Fall war, da man dann oft auch mobile Nutzer hat, spezielle Anwendungen, die einen physischen Arbeitsplatz erfordern, kleinere externe Standorte, die man nicht so einfach ans Firmennetzwerk anbinden kann, weil zu langsam usw. Desktop Virtualisierung ist zwar ein theoretisch ganz tolles Thema, funktioniert aber in der Praxis noch nicht so recht.
Bei einem ordentlichen Datenbanksystem bringt es aber schon einiges, wenn alles im Cache liegt und in der Realität werden leider sehr oft Full Table Scans durchgeführt wegen schlecht optimierter Software. Dasselbe gilt für größere Webserver, wo es auch von der Performance ein Vielfaches bringt, wenn auch einzelner größerer Downloads alles im RAM liegt und nicht von der Platte geholt werden muss.
4.) Ab Vista/Server 2008 werden sowieso alle Dateien, die gelesen werden solange im Cache behalten, bis der RAM ausgeht und es werden auch viele Daten im Vorhinein geladen. Man kann also alle Lesezugriffe in den RAM laden. Nur beim ersten Zugriff muss man auf die Platte zugreifen, was aber bei einem Server ziemlich egal ist, da der sowieso in der Regel über Monate durchläuft. Linux macht das meines Wissens schon seit Urzeiten so, dass alles im Cache gehalten wird. Was bleibt sind nur noch die Schreibzugriffe und die lassen sich sowieso nicht ohne möglichen Datenverlust im Cache halten und der Schreibcache kann nur für ein paar Sekunden zur Lastverteilung genutzt werden.