Abbiamo un lavoro regolare che fa du
riassunti di una serie di sottodirectory, selezionando i peggiori trasgressori e usando l'output per scoprire se ci sono cose che stanno rapidamente aumentando per individuare potenziali problemi. Usiamo diff
contro le istantanee per confrontarle.
Esiste una directory di livello superiore, con un numero (poche centinaia) di sottodirectory, ognuna delle quali può contenere 10 o migliaia di file ciascuna (o più).
Un " du -s
" in questo contesto può essere molto aggressivo per l'IO, facendo sì che il nostro server esegua il bailing della sua cache e quindi enormi picchi di IO che sono un effetto secondario molto sgradito.
Quale strategia può essere utilizzata per ottenere gli stessi dati, senza gli effetti collaterali indesiderati?