Ho creato un raid di software Linux livello 5 composto da dischi da 4 * 2 TB. L'array di dischi è stato creato con una dimensione di striping di 64k e senza altri parametri di configurazione. Dopo la ricostruzione iniziale ho provato a creare un filesystem e questo passaggio richiede molto tempo (circa mezz'ora o più). Ho provato a creare un filesystem xfs ed ext3, entrambi hanno impiegato molto tempo, con mkfs.ext3 ho osservato il seguente comportamento, che potrebbe essere utile:
- la scrittura di tabelle di inode viene eseguita rapidamente fino a raggiungere 1053 (~ 1 secondo), quindi scrive circa 50, attende due secondi, quindi vengono scritti i 50 successivi (in base al display della console)
- quando provo ad annullare l'operazione con Control + C si blocca per mezzo minuto prima che venga realmente annullato
Le prestazioni dei dischi singolarmente sono molto buone, ho eseguito bonnie ++ su ciascuno separatamente con valori di scrittura / lettura di circa 95/110 MB / s. Anche quando eseguo bonnie ++ su ogni unità in parallelo, i valori vengono ridotti solo di circa 10 MB. Quindi escludo la pianificazione hardware / I / O in generale come fonte di problemi.
Ho provato diversi parametri di configurazione per stripe_cache_size e readahead size senza successo, ma non credo che siano così rilevanti per l'operazione di creazione del file system.
I dettagli del server:
- Server Linux 2.6.35-27-generico # 48-Ubuntu SMP x86_64 GNU / Linux
- mdadm - v2.6.7.1
Qualcuno ha un suggerimento su come eseguire ulteriormente il debug di questo?
time mkfs.xfs -l sunit=128 -d agsize=64g,sunit=128,swidth=512 -b size=4096 /dev/md0 -f
che ha richiesto all'incirca lo stesso tempo di mkfs senza parametri