Bei der geringen Anzahl an Dateien die meist bei Aufgabe für Schule/Studium genutzt werden ist die Festplatte und eigentlich auch CPU, RAM nicht wirklich entscheidend.
Das erste mal wo ich festgestellt habe wie stark diese Faktoren das ganze beeinflussen könnte war dann beim einstieg ins Berufsleben.
Das Projekt für das ich zuständig bin hat etwa 150k Zeilen Code, aufgeteilt in ca 30 Teilprojekte welche jeweils mindestens aus 6 Dateien(im Schnitt etwa aus 10 würde ich schätzen) und nutzt einen Haufen von Includes.
Altes System
Core i7 620m
HDD 5400upm
8GB RAM
Rebuild des kompletten Projekts ~45m
Neues System
Core i7 4702MQ
Samsung 1TB SSD
16GB RAM
Rebuild des kompletten Projekts ~15m
Was durch durch eine bessere Festplatte vor allem auffällt ist das dadurch die CPU konstanter voll ausgelastet werden kann. Bei dem alten System schwankte die Last der 2 Kerne+SMT zwischen 0 und 100 %, auf dem neuem System werden die 4 Kerne+SMT fast durchgängig zu 100% ausgelastet.
PS: Musste das Projekt übernehmen(einführen neuer Bibliotheken, entfernen und doppelten Codezeilen, aufräumen der Includes, gescheite Klassenhierarchien usw.. Teilweise werden da aktuell Dateien einfach in die 30 Unterprojekte kopiert was zur folge hat das sie 30mal neu kompiliert werden und aufgrund deren scheiß Implementierung man das auch nicht auf die schnelle auflösen kann
) und bin dort stark am umbauen, was fürs Rebuilt benötigte Zeit immer weiter nach unten drückt. Ursprünglich dauerte ein Rebuild mal etwas über einer Stunde.^^ Ich vermute das wenn ich das Projekt irgend wann mal aufgeräumt habe wird die Zeit mindestens auf unter 10min gedrückt werden.