Dispositivo già montato o risorsa occupata


9

Problema :::

Installo Redhat 5.10 x64 sul server che aveva un hdd difettoso. Ho rimosso il vecchio hdd difettoso e ne ho installato uno nuovo con capacità da 500 GB e dopo l'installazione ho bisogno di copiare alcuni dati dal vecchio hdd al nuovo HDD con / u001. Quindi ho collegato il vecchio HDD (320 GB) al server. Sta mostrando fdisk -lma quando provo a montare usando

sudo mount / dev / sdb2 o / dev / sdb5 dice

Nota: il vecchio hdd aveva anche il vecchio sistema operativo installato su di esso, come puoi vedere in fdisk -l
/ dev / sda = Nuovo HDD
/ dev / sdb = Vecchio HDD

Dispositivo già montato o risorsa occupata

Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1          25      200781   83  Linux
/dev/sda2              26       10346    82903432+  8e  Linux LVM
/dev/sda3           10347       11390     8385930   82  Linux swap / Solaris
/dev/sda4           11391       60801   396893857+   5  Extended
/dev/sda5           11391       60801   396893826   8e  Linux LVM

Disk /dev/sdb: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1          13      104391   83  Linux
/dev/sdb2              14       10242    82164442+  8e  Linux LVM
/dev/sdb3           10243       11286     8385930   82  Linux swap / Solaris
/dev/sdb4           11287       38888   221713065    5  Extended
/dev/sdb5           11287       38888   221713033+  8e  Linux LVM
[admin@testsrv ~]$ sudo mount /dev/sdb2 /media/test/
mount: /dev/sdb2 already mounted or /media/test/ busy
[admin@testsrv ~]$ sudo mount /dev/sdb5 /media/test/
mount: /dev/sdb5 already mounted or /media/test/ busy

Monte risultato :::

/dev/mapper/VolGroup00_root-LogVol00 on / type ext3 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
/dev/mapper/VolGroup00_u001-LogVol00 on /u001/app/oracle type ext3 (rw)
/dev/sda1 on /boot type ext3 (rw)
tmpfs on /dev/shm type tmpfs (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)

PVDISPLAY :: output

    sudo pvdisplay
      --- Physical volume ---
      PV Name               /dev/sda5
      VG Name               VolGroup00_u001
      PV Size               378.51 GB / not usable 7.63 MB
      Allocatable           yes (but full)
      PE Size (KByte)       32768
      Total PE              12112
      Free PE               0
      Allocated PE          12112
      PV UUID               E2ibW6-uaDJ-7FMA-OZS0-sApR-DNwK-0jO3Ob

      --- Physical volume ---
      PV Name               /dev/sda2
      VG Name               VolGroup00_root
      PV Size               79.06 GB / not usable 392.50 KB
      Allocatable           yes
      PE Size (KByte)       32768
      Total PE              2530
      Free PE               1
      Allocated PE          2529
      PV UUID               YSGQwx-yIsO-CR0C-4G6r-GI9O-nUya-gE22yk

LVMDISkSCAN :: Output

sudo lvmdiskscan
  /dev/ramdisk                                                        [       16.00 MB]
  /dev/root                                                           [       79.03 GB]
  /dev/ram                                                            [       16.00 MB]
  /dev/sda1                                                           [      196.08 MB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45   [      297.90 GB]
  /dev/ram2                                                           [       16.00 MB]
  /dev/sda2                                                           [       79.06 GB] LVM physical volume
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p1 [      101.94 MB]
  /dev/ram3                                                           [       16.00 MB]
  /dev/sda3                                                           [        8.00 GB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p2 [       78.36 GB] LVM physical volume
  /dev/ram4                                                           [       16.00 MB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p3 [        8.00 GB]
  /dev/ram5                                                           [       16.00 MB]
  /dev/sda5                                                           [      378.51 GB] LVM physical volume
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p5 [      211.44 GB] LVM physical volume
  /dev/ram6                                                           [       16.00 MB]
  /dev/VolGroup00_ora/LogVol00                                        [      211.44 GB]
  /dev/ram7                                                           [       16.00 MB]
  /dev/VolGroup00_u001/LogVol00                                       [      378.50 GB]
  /dev/ram8                                                           [       16.00 MB]
  /dev/ram9                                                           [       16.00 MB]
  /dev/ram10                                                          [       16.00 MB]
  /dev/ram11                                                          [       16.00 MB]
  /dev/ram12                                                          [       16.00 MB]
  /dev/ram13                                                          [       16.00 MB]
  /dev/ram14                                                          [       16.00 MB]
  /dev/ram15                                                          [       16.00 MB]
  /dev/sdb1                                                           [      101.94 MB]
  /dev/sdb2                                                           [       78.36 GB]
  /dev/sdb3                                                           [        8.00 GB]
  /dev/sdb5                                                           [      211.44 GB]
  3 disks
  25 partitions
  0 LVM physical volume whole disks
  4 LVM physical volumes

Qual è l'output di mount?
csny,

Puoi mostrare l'output di findmnto mount?
Spacca il

Inoltre, l'output di lsof +D /media/test/sarebbe utile
csny

1
Il problema è che il vecchio disco non ha file system semplici sulle partizioni ma ha un livello LVM tra il dispositivo e i file system, come mostrato dal tipo di partizione. Assicurati che sul tuo nuovo sistema siano installati gli strumenti LVM, riavvia con il vecchio disco collegato e controlla lvdisplayquali dispositivi LVM sono stati rilevati. Dovresti essere in grado di accedere a quelli invece di /dev/sdbX.
Wurtel,

2
A tutti gli aiutanti, mi dispiace è stato puramente un mio errore, ho completamente dimenticato che si trattava di partizioni LVM. E devi montare usando mount / dev / mapper / VG_u001 / media / test @wurtel puoi dire quali strumenti possono essere usati per ripristinare i file da LVMs.
OmiPenguin,

Risposte:


2

Anche in 5.x, RHEL utilizzava LVM per impostazione predefinita. Prima di montare i volumi LVM, devi prima eseguire alcuni passaggi.

Se hai usato lo stesso nome VG sul nuovo disco come su quello vecchio, hai un piccolo problema: hai due VG con lo stesso nome. Per identificare in modo univoco i VG che vuoi manipolare (cioè quello acceso /dev/sdb), avrai bisogno degli UUID VG. Correre:

# pvs -o +vg_uuid

per elencare tutti i PV LVM rilevati inclusi i loro UUID VG. Vedrai anche il nome VG di ogni partizione, in modo da poter vedere se ci sono o meno conflitti di nomi.

LVM è abbastanza intelligente da non rovinare la tua configurazione VG attiva a meno che tu non faccia di tutto per confonderla. Quindi, se il pvscomando sopra menzionato non mostra nulla /dev/sdb, esegui vgscane riprova.

Una volta che conosci gli UUID VG, puoi usare il comando vgrename per rinominare qualsiasi VG in conflitto. Se non ci sono conflitti di nomi, puoi saltare a vgchange.

(Per montare i LV all'interno di un VG, dovrai attivare il VG e un VG non si attiverà se il suo nome è in conflitto con un VG già esistente.)

Il comando per rinominare un VG è simile al seguente:

vgrename Zvlifi-Ep3t-e0Ng-U42h-o0ye-KHu1-nl7Ns4 new_name_for_vg

dove la Zvlifi-...minestra dell'alfabeto è l'UUID VG e l'altro parametro è solo il nuovo nome per questo VG.

Una volta risolti i conflitti di nomi VG (o se non ci sono conflitti in primo luogo), dovrai attivare i VG /dev/sdb. Puoi semplicemente attivare tutti i VG non attivati ​​che LVM vede con questo comando:

vgchange -ay

Quando si attiva un VG, appariranno i nomi dei dispositivi (collegamenti) di qualsiasi LV al suo interno /dev/mapper/<VG name>-<LV name>. (Anche /dev/<VG name>/<LV name>per motivi di compatibilità legacy.)

A questo punto, puoi montarli come al solito.


Questo ha funzionato per me! Stavo ricevendo l'errore già montato o occupato, quindi l'ho fatto vgchange -aye quindi sono stato in grado di eseguire:mount -t ext4 /dev/mapper/my--server--vg-root /tmp/myserver
josephdpurcell,

1

Se ad es

mount /dev/sda1 /mnt/tmp

stampe

mount: /dev/sda1 is already mounted or /mnt/tmp busy

controlla se c'è qualche processo usando quel dispositivo (/ dev / sda1).

Spesso è un processo fsck che si avvia automaticamente all'avvio del sistema. Puoi verificarlo rapidamente, ad es

ps aux | grep sda1

Era esattamente la radice del mio problema, grazie! (sperando ancora che il disco si monti correttamente dopo che il controllo fsck è terminato)
Franck

0

Ho affrontato una situazione del genere. L'esperienza e la soluzione sono narrate nel mio blog .

lo snippet è qui:

Errore: mount: / dev / mapper / STORBCK-backup già montato o / STORBCK occupato?

Diagnostica: quando proviamo a montare il / STORBCK FS stiamo ottenendo l'errore sopra menzionato.

Risoluzione: 1. Poiché l'altro FS è diventato di sola lettura, ho arrestato / avviato il servizio iscsi. si è connesso correttamente al dispositivo. /etc/init.d/iscsi stop /etc/init.d/iscsi start https://manastri.blogspot.in/2016/11/mount-devmapperstorbck-backup-already.html

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.