Ho una directory con circa 100000 piccoli file (ogni file è di 1-3 righe, ogni file è un file di testo). In termini di dimensioni, la directory non è molto grande (<2 GB). Questi dati vivono in un server NFS amministrato professionalmente. Il server esegue Linux. Penso che il filesystem sia ext3, ma non lo so per certo. Inoltre, non ho accesso come root al server.
Questi file sono il risultato di un esperimento scientifico su larga scala, sul quale non ho il controllo. Tuttavia, devo analizzare i risultati.
Qualsiasi operazione / elaborazione I / O in questa directory è molto, molto lenta. L'apertura di un file (fopen in python), la lettura da un file aperto, la chiusura di un file, sono tutti molto lenti. In bash ls, du, ecc. Non funzionano.
La domanda è:
Qual è il numero massimo di file in una directory in Linux in modo tale da rendere pratico l'elaborazione, il fopen, la lettura, ecc.? Capisco che la risposta dipende da molte cose: tipo di fs, versione del kernel, versione del server, hardware, ecc. Voglio solo una regola empirica, se possibile.