Dopo l'avvio, il mio dispositivo RAID1 ( /dev/md_d0
*) a volte passa in uno stato divertente e non riesco a montarlo.
* Inizialmente ho creato /dev/md0
ma in qualche modo si è cambiato /dev/md_d0
.
# mount /opt
mount: wrong fs type, bad option, bad superblock on /dev/md_d0,
missing codepage or helper program, or other error
(could this be the IDE device where you in fact use
ide-scsi so that sr0 or sda or so is needed?)
In some cases useful info is found in syslog - try
dmesg | tail or so
Il dispositivo RAID sembra essere inattivo in qualche modo:
# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5]
[raid4] [raid10]
md_d0 : inactive sda4[0](S)
241095104 blocks
# mdadm --detail /dev/md_d0
mdadm: md device /dev/md_d0 does not appear to be active.
La domanda è: come rendere nuovamente attivo il dispositivo (utilizzo mdmadm
, presumo)?
(Altre volte va bene (attivo) dopo l'avvio e posso montarlo manualmente senza problemi. Ma non si monterà automaticamente anche se ce l'ho /etc/fstab
:
/dev/md_d0 /opt ext4 defaults 0 0
Quindi una domanda bonus: cosa devo fare per far montare automaticamente il dispositivo RAID /opt
all'avvio? )
Questa è una workstation Ubuntu 9.10. Informazioni di base sulla mia configurazione RAID in questa domanda .
Modifica : il mio /etc/mdadm/mdadm.conf
assomiglia a questo. Non ho mai toccato questo file, almeno a mano.
# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR <my mail address>
# definitions of existing MD arrays
# This file was auto-generated on Wed, 27 Jan 2010 17:14:36 +0200
In /proc/partitions
ultimo ingresso è md_d0
almeno ora, dopo il riavvio, quando il dispositivo sembra essere di nuovo attivo. (Non sono sicuro che sarebbe lo stesso quando è inattivo.)
Risoluzione : come ha suggerito Jimmy Hedman , ho preso l'output di mdadm --examine --scan
:
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=de8fbd92[...]
e aggiunto in /etc/mdadm/mdadm.conf
, che sembra aver risolto il problema principale. Dopo aver cambiato /etc/fstab
per /dev/md0
riutilizzarlo (anziché /dev/md_d0
), anche il dispositivo RAID viene montato automaticamente!
mdadm --examine --scan
prodottoARRAY /dev/md0 level=raid1 num-devices=2 UUID=...
(Nota md0 invece di md_d0!) L'ho messo nel file mdadm.conf (manualmente, perché c'era qualche problema con sudo e>>
("permesso negato"), e sudo è richiesto) e ho anche aggiornato fstab da usare md0 (non di nuovo md_d0). Ora non mi sembra più di incontrare il problema "inattivo" e il dispositivo RAID si monta automaticamente su / optare all'avvio. Quindi grazie!