Durante il fine settimana, ho ricevuto diverse e-mail dal nostro server di archiviazione di rete (solo una scatola personalizzata con CentOS 5 e 2 raid software 2 unità da 2 TB) che indicava che SMART ha rilevato problemi con una delle unità.
Ho fatto uno status e 2 delle partizioni razziate sono state contrassegnate come fallite:
[root@aapsan01 ~]# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sdb1[1] sda1[0]
104320 blocks [2/2] [UU]
md0 : active raid1 sdb3[1] sda3[2](F)
4064320 blocks [2/1] [_U]
md3 : active raid1 sdb5[1] sda5[0]
1928860160 blocks [2/2] [UU]
md2 : active raid1 sdb2[1] sda2[2](F)
20482752 blocks [2/1] [_U]
Quindi, ho impostato tutte le partizioni di sda su "fallito", ho rimosso tutti i mirror di sda con successo, ho inserito un nuovissimo drive identico da 2 TB (dopo l'arresto) e avviato. Ora, non riesco a raggiungere il login perché i messaggi di errore continuano a ripetersi dopo che l'array raid md: autodetect è stato raggiunto durante il processo di avvio. All'inizio gli errori erano qualcosa del tipo:
DRDY err (UNC) -- exception emask media error
Ora ricevo errori I / O. Ho provato con l'unità corrotta rimossa e poi di nuovo dentro. Lo stesso spettacolo. Le scritture che ho trovato mostrano che si tratta di un semplice processo di recupero. Cosa dà? Qualcuno incontra qualcosa di simile? Sembra che il processo di avvio continui, anche se ci vogliono eoni per passare attraverso ogni passaggio. Qualcuno ha mai dovuto aspettare così tanto tempo per raggiungere il prompt? Spero che, se non riesco a ottenere il prompt, riesco a trovare un posto con il cd di ripristino.