Semplice mdadm RAID 1 non attiva riserva


24

Avevo creato due partizioni HDD da 2 TB ( /dev/sdb1e /dev/sdc1) in un array RAID 1 chiamato /dev/md0usando mdadmsu Ubuntu 12.04 LTS Precise Pangolin.

Il comando sudo mdadm --detail /dev/md0utilizzato per indicare entrambe le unità come sincronizzazione attiva .

Quindi, per il test, ho fallito, l'ho /dev/sdb1rimosso, quindi l'ho aggiunto di nuovo con il comandosudo mdadm /dev/md0 --add /dev/sdb1

watch cat /proc/mdstat mostrava una barra di avanzamento della ricostruzione dell'array, ma non avrei trascorso ore a guardarla, quindi ho pensato che il software sapesse cosa stava facendo.

Dopo che la barra di avanzamento non veniva più visualizzata, cat /proc/mdstatviene visualizzato:

md0 : active raid1 sdb1[2](S) sdc1[1]
      1953511288 blocks super 1.2 [2/1] [U_]

E sudo mdadm --detail /dev/md0mostra:

/dev/md0:
        Version : 1.2
  Creation Time : Sun May 27 11:26:05 2012
     Raid Level : raid1
     Array Size : 1953511288 (1863.01 GiB 2000.40 GB)
  Used Dev Size : 1953511288 (1863.01 GiB 2000.40 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Mon May 28 11:16:49 2012
          State : clean, degraded 
 Active Devices : 1
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 1

           Name : Deltique:0  (local to host Deltique)
           UUID : 49733c26:dd5f67b5:13741fb7:c568bd04
         Events : 32365

    Number   Major   Minor   RaidDevice State
       1       8       33        0      active sync   /dev/sdc1
       1       0        0        1      removed

       2       8       17        -      spare   /dev/sdb1

Mi è stato detto che mdadm sostituisce automaticamente le unità rimosse con ricambi, ma /dev/sdb1non viene spostato nella posizione prevista, RaidDevice 1.


AGGIORNAMENTO (30 maggio 2012): un badblockstest distruttivo in lettura e scrittura dell'intero /dev/sdbnon ha prodotto errori come previsto; entrambi gli HDD sono nuovi.

A partire dall'ultima modifica, ho assemblato l'array con questo comando:

sudo mdadm --assemble --force --no-degraded /dev/md0 /dev/sdb1 /dev/sdc1

L'output è stato:

mdadm: /dev/md0 has been started with 1 drive (out of 2) and 1 rebuilding.

La ricostruzione sembra che stia procedendo normalmente:

md0 : active raid1 sdc1[1] sdb1[2]
      1953511288 blocks super 1.2 [2/1] [U_]
      [>....................]  recovery =  0.6% (13261504/1953511288) finish=2299.7min speed=14060K/sec

unused devices: <none>

Ora sto aspettando questa ricostruzione, ma mi aspetto /dev/sdb1di diventare un ricambio proprio come le cinque o sei volte che ho provato a ricostruire prima.


AGGIORNAMENTO (31 maggio 2012): Sì, è ancora un ricambio. Ugh!


AGGIORNAMENTO (01 giugno 2012): Sto provando il comando suggerito da Adrian Kelly :

sudo mdadm --assemble --update=resync /dev/md0 /dev/sdb1 /dev/sdc1

In attesa di ricostruzione ora ...


AGGIORNAMENTO (02 giugno 2012): No, ancora un ricambio ...


UPDATE (04 giugno 2012): PB portato una preoccupazione che ho trascurato: forse /dev/sdc1sta incontrando errori di I / O . Non mi ero preso la briga di controllare /dev/sdc1perché sembrava funzionare bene ed era nuovo di zecca, ma errori di I / O verso la fine del drive sono una possibilità razionale.

Ho comprato questi HDD in vendita, quindi non sorprende che uno di loro stia già fallendo. Inoltre, nessuno dei due ha il supporto per SMART , quindi non c'è da stupirsi che fossero così economici ...

Ecco la procedura di recupero dei dati che ho appena creato e sto seguendo:

  1. sudo mdadm /dev/md0 --fail /dev/sdb1in modo che io possa eliminare /dev/sdb1.
  2. sudo mdadm /dev/md0 --remove /dev/sdb1per rimuovere /dev/sdb1dall'array.
  3. /dev/sdc1 è montato a /media/DtkBk
  4. Formatta /dev/sdb1come ext4.
  5. Montare /dev/sdb1su /media/DtkBkTemp.
  6. cd /media lavorare in quella zona.
  7. sudo chown deltik DtkBkTempper darmi (username deltik) diritti sulla partizione.
  8. Copia di tutti i file e le directory: sudo rsync -avzHXShP DtkBk/* DtkBkTemp

AGGIORNAMENTO (06 giugno 2012): ho eseguito un badblockstest distruttivo in modalità scrittura su /dev/sdc, seguendo le seguenti procedure:

  1. sudo umount /media/DtkBk per consentire l'abbattimento dell'array.
  2. sudo mdadm --stop /dev/md0 per fermare l'array.
  3. sudo badblocks -w -p 1 /dev/sdc -s -vper cancellare il disco rigido sospetto e, nel processo, verificare la presenza di errori I / O. Se ci sono errori I / O, questo non è un buon segno. Spero di ottenere un rimborso ...

Ho ora confermato che non ci sono problemi di input / output su entrambi i dischi rigidi .

Da tutte queste indagini, le mie due domande originali rimangono valide.


Le mie domande sono:

  1. Perché l'unità di riserva non sta diventando attiva?
  2. Come posso rendere attiva l'unità di riserva?

Risposte:


14

In questo modo semplicemente gira l'unità nell'array senza realmente farci nulla, cioè è un membro dell'array ma non è attivo in esso. Per impostazione predefinita, questo lo trasforma in un ricambio:

sudo mdadm /dev/md0 --add /dev/sdb1

Se si dispone di un'unità di riserva, è possibile aumentarla forzando il numero di unità attive per la crescita dell'array. Con 3 unità e 2 che dovrebbero essere attive, è necessario aumentare il conteggio attivo a 3.

mdadm --grow /dev/md0 --raid-devices=3

Il driver dell'array raid noterà che sei "a corto" di un'unità, quindi cerca un pezzo di ricambio. Trovare il ricambio, lo integrerà nell'array come unità attiva. Apri un terminale di riserva e lascia che questa riga di comando piuttosto grezza venga eseguita al suo interno, per tenere sotto controllo l'avanzamento della risincronizzazione. Assicurati di digitarlo come una riga o usa il carattere di interruzione di riga (\) e, una volta terminata la ricostruzione, digita semplicemente Ctrl-C nel terminale.

while true; do sleep 60; clear; sudo mdadm --detail /dev/md0; echo; cat /proc/mdstat; done

L'array avrà ora due unità attive sincronizzate, ma poiché non ci sono 3 unità, non sarà pulita al 100%. Rimuovere l'unità guasta, quindi ridimensionare l'array. Nota che la --growbandiera è un po 'impropria - può significare sia crescere che ridursi:

sudo mdadm /dev/md0 --fail /dev/{failed drive}
sudo mdadm /dev/md0 --remove /dev/{failed drive}
sudo mdadm --grow /dev/md0 --raid-devices=2

Per quanto riguarda gli errori, un problema di collegamento con l'unità (ovvero la porta PATA / SATA, il cavo o il connettore dell'unità) non è sufficiente per innescare un failover di un hot spare, poiché il kernel in genere passa all'utilizzo dell'altro "buono" unità mentre reimposta il collegamento all'unità "non valida". Lo so perché eseguo un array a 3 unità, 2 hot, 1 di riserva e una delle unità ha recentemente deciso di inserirsi un po 'nei registri. Quando ho testato tutte le unità dell'array, tutte e 3 hanno superato la versione "lunga" del test SMART, quindi non è un problema con i piatti, i componenti meccanici o il controller integrato, che lascia un cavo di collegamento traballante o un porta SATA errata. Forse questo è quello che stai vedendo. Prova a passare l'unità a un'altra porta della scheda madre o a utilizzare un cavo diverso e verifica se migliora.


Un follow-up: ho completato la mia espansione del mirror su 3 unità, ho fallito e rimosso l'unità traballante dall'array md, ho sostituito a caldo il cavo con uno nuovo (la scheda madre supporta questo) e ho aggiunto nuovamente l'unità. Dopo l'aggiunta, ha immediatamente avviato una risincronizzazione dell'unità. Finora, non è comparso un singolo errore nel registro nonostante l'unità sia utilizzata pesantemente. Quindi, sì, i cavi dell'unità possono diventare instabili.


Cavo di collegamento traballante? Compro quella spiegazione, ma non posso più provarla perché ho riproposto entrambe le unità mesi fa. Accetto questa risposta come la migliore risposta per il mio problema particolare, ma un'altra grande risposta è questa .
Deltik,

Come aggiornamento, questa risposta rimane la più utile per la maggior parte delle persone, motivo per cui l'ho accettata, ma ciò che è effettivamente accaduto è stato che una delle unità nel mio array RAID 1 era difettosa, molto probabilmente /dev/sdc1al momento perché /dev/sdc1veniva letta mentre /dev/sdb1veniva scritto, e i settori danneggiati /dev/sdb1sarebbero stati rimappati in modo trasparente durante la scrittura.
Deltik,

1
Per tenere sotto controllo il processo di risincronizzazione, fare watch -n 60 cat /proc/mdstatdov'è 60il numero di secondi tra gli aggiornamenti.
Erk,

8

Ho avuto esattamente lo stesso problema e nel mio caso ho scoperto che il disco RAID attivo ha subito errori di lettura durante la sincronizzazione. Pertanto, il nuovo disco è stato sincronizzato con successo e, pertanto, è stato contrassegnato come riserva.

Potresti voler controllare i tuoi / var / log / messaggi e altri registri di sistema per errori. Inoltre, potrebbe anche essere una buona idea controllare lo stato SMART del disco:
1) Eseguire il breve test:

"smartctl -t short / dev / sda"

2) Visualizza i risultati del test:

"smartctl -l selftest / dev / sda"

Nel mio caso questo ha restituito qualcosa del genere:

=== INIZIO DI LEGGERE SEZIONE DATI SMART ===
SMART Numero di revisione della struttura del registro di auto-test 1
Num Test_Description Status Durata rimanente (ore) LBA_of_first_error
1 Esteso offline Completato: errore di lettura 90% 7564 27134728
2 Breve offline Completato: errore di lettura 90% 7467 1408449701

Ho dovuto avviare una distribuzione live e copiare manualmente i dati dal disco difettoso nel nuovo (attualmente "di riserva").


Aha! Non pensavo di sospettare l'unità attiva per errori I / O. Per qualche motivo, SMART non è supportato su questi HDD. Questo e possibili errori I / O su due nuovissimi HDD? Penso di aver fatto un cattivo acquisto ... Ad ogni modo, sto prendendo le procedure di recupero dei dati in questo momento sull'HDD che so essere buono. Aggiornerò presto.
Deltik,

+50 rappresentanti a te PB . Nessuno è stato in grado di rispondere correttamente alle mie domande, ma ho pensato che invece di sprecare 50 punti reputazione in nulla, le avrei regalate come regalo di benvenuto. Benvenuto in Stack Exchange!
Deltik,

3

Ho avuto esattamente lo stesso problema e ho sempre pensato che il mio secondo disco, che volevo aggiungere nuovamente all'array, avesse degli errori. Ma era il mio disco originale con errori di lettura.

Puoi verificarlo con smartctl -t short /dev/sdXe vedere i risultati pochi minuti dopo con smartctl -l selftest /dev/sdX. Per me sembrava così:

=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed: read failure       20%     25151         734566647

Ho provato a risolverli con questo manuale . È stato divertente :-). So che hai verificato la presenza di errori su entrambi i dischi, ma penso che il tuo problema sia che il disco che è ancora nell'array md abbia errori di lettura, quindi l'aggiunta di un secondo disco non riesce.

Aggiornare

Dovresti inoltre eseguire a smartctl -a /dev/sdX Se vedi Current_Pending_Sector> 0 qualcosa non va

197 Current_Pending_Sector 0x0012 098 098 000 Old_age Sempre - 69

Per me è stato sicuramente il problema che ho rimosso un disco dal raid solo per testare e risincronizzare non è stato possibile a causa di errori di lettura. La sincronizzazione è stata interrotta a metà strada. Quando ho controllato il mio disco che era ancora nell'array raid smartctl ha segnalato problemi.

Ho potuto risolverli con il manuale sopra e ho visto il numero di settori in sospeso ridotti. Ma ce n'erano molti ed è una procedura lunga e noiosa, quindi ho usato il mio backup e ripristinato i dati su un altro server.

Dato che non hai avuto l'opportunità di utilizzare SMART, immagino che il tuo autotest non abbia mostrato quei settori distrutti.

Per me è una lezione appresa: controlla i tuoi dischi prima di rimuoverne uno dall'array.


Al momento della risposta, l'array RAID 1 ha cessato di esistere ed è stato riscontrato che entrambe le unità non presentavano errori di I / O. Puoi verificare che la tua risposta sia applicabile?
Deltik,

Finalmente accettato. Questa risposta è la più probabile per aiutare i futuri visitatori. Io, ho rinunciato al RAID in generale. Non è che possiedo un datacenter.
Deltik,

Questa non è più la risposta accettata, ma è comunque una buona risposta e può aiutare qualcun altro. Questa risposta è la più applicabile per me, ma questa risposta è probabilmente la più applicabile ad altre persone. Inoltre, riprendo ciò che ho detto su RAID in questo commento .
Deltik,

3

Ho riscontrato un problema simile e risolto aumentando la quantità di dischi RAID array da 1 a 2.

mdadm --grow --raid-devices=2 /dev/md1

3

AGGIORNAMENTO (24 maggio 2015): Dopo tre anni, ho studiato la vera causa del degrado dell'array RAID 1.

tl; dr: una delle unità era difettosa e non me ne sono accorta perché avevo eseguito solo un test di superficie completo sulla buona unità.

Tre anni fa, non pensavo di controllare alcun registro sui problemi di I / O. Se avessi pensato di controllare /var/log/syslog, avrei visto qualcosa di simile quando avrei mdadmrinunciato a ricostruire l'array:

May 24 14:08:32 node51 kernel: [51887.853786] sd 8:0:0:0: [sdi] Unhandled sense code
May 24 14:08:32 node51 kernel: [51887.853794] sd 8:0:0:0: [sdi]
May 24 14:08:32 node51 kernel: [51887.853798] Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
May 24 14:08:32 node51 kernel: [51887.853802] sd 8:0:0:0: [sdi]
May 24 14:08:32 node51 kernel: [51887.853805] Sense Key : Medium Error [current]
May 24 14:08:32 node51 kernel: [51887.853812] sd 8:0:0:0: [sdi]
May 24 14:08:32 node51 kernel: [51887.853815] Add. Sense: Unrecovered read error
May 24 14:08:32 node51 kernel: [51887.853819] sd 8:0:0:0: [sdi] CDB:
May 24 14:08:32 node51 kernel: [51887.853822] Read(10): 28 00 00 1b 6e 00 00 00 01 00
May 24 14:08:32 node51 kernel: [51887.853836] end_request: critical medium error, dev sdi, sector 14381056
May 24 14:08:32 node51 kernel: [51887.853849] Buffer I/O error on device sdi, logical block 1797632

Per ottenere quell'output nel registro, ho cercato il primo LBA problematico (14381058, nel mio caso) con questo comando:

root@node51 [~]# dd if=/dev/sdi of=/dev/zero bs=512 count=1 skip=14381058
dd: error reading ‘/dev/sdi’: Input/output error
0+0 records in
0+0 records out
0 bytes (0 B) copied, 7.49287 s, 0.0 kB/s

Nessuna meraviglia mdrinunciato! Non è possibile ricostruire un array da un'unità guasta.

La nuova tecnologia (migliore smartmontoolscompatibilità hardware?) Mi ha permesso di ottenere informazioni SMART dall'unità, inclusi gli ultimi cinque errori (di 1393 errori finora):

root@node51 [~]# smartctl -a /dev/sdi
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.13.0-43-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Hitachi Deskstar 5K3000
Device Model:     Hitachi HDS5C3020ALA632
Serial Number:    ML2220FA040K9E
LU WWN Device Id: 5 000cca 36ac1d394
Firmware Version: ML6OA800
User Capacity:    2,000,398,934,016 bytes [2.00 TB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    5940 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS T13/1699-D revision 4
SATA Version is:  SATA 2.6, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Sun May 24 14:13:35 2015 CDT
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART STATUS RETURN: incomplete response, ATA output registers missing
SMART overall-health self-assessment test result: PASSED
Warning: This result is based on an Attribute check.

General SMART Values:
Offline data collection status:  (0x84) Offline data collection activity
                                        was suspended by an interrupting command from host.
                                        Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0) The previous self-test routine completed
                                        without error or no self-test has ever
                                        been run.
Total time to complete Offline
data collection:                (21438) seconds.
Offline data collection
capabilities:                    (0x5b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        No Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   1) minutes.
Extended self-test routine
recommended polling time:        ( 358) minutes.
SCT capabilities:              (0x003d) SCT Status supported.
                                        SCT Error Recovery Control supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000b   100   100   016    Pre-fail  Always       -       0
  2 Throughput_Performance  0x0005   136   136   054    Pre-fail  Offline      -       93
  3 Spin_Up_Time            0x0007   172   172   024    Pre-fail  Always       -       277 (Average 362)
  4 Start_Stop_Count        0x0012   100   100   000    Old_age   Always       -       174
  5 Reallocated_Sector_Ct   0x0033   100   100   005    Pre-fail  Always       -       8
  7 Seek_Error_Rate         0x000b   100   100   067    Pre-fail  Always       -       0
  8 Seek_Time_Performance   0x0005   146   146   020    Pre-fail  Offline      -       29
  9 Power_On_Hours          0x0012   097   097   000    Old_age   Always       -       22419
 10 Spin_Retry_Count        0x0013   100   100   060    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       161
192 Power-Off_Retract_Count 0x0032   100   100   000    Old_age   Always       -       900
193 Load_Cycle_Count        0x0012   100   100   000    Old_age   Always       -       900
194 Temperature_Celsius     0x0002   127   127   000    Old_age   Always       -       47 (Min/Max 19/60)
196 Reallocated_Event_Count 0x0032   100   100   000    Old_age   Always       -       8
197 Current_Pending_Sector  0x0022   100   100   000    Old_age   Always       -       30
198 Offline_Uncorrectable   0x0008   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x000a   200   200   000    Old_age   Always       -       2

SMART Error Log Version: 1
ATA Error Count: 1393 (device log contains only the most recent five errors)
        CR = Command Register [HEX]
        FR = Features Register [HEX]
        SC = Sector Count Register [HEX]
        SN = Sector Number Register [HEX]
        CL = Cylinder Low Register [HEX]
        CH = Cylinder High Register [HEX]
        DH = Device/Head Register [HEX]
        DC = Device Command Register [HEX]
        ER = Error register [HEX]
        ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 1393 occurred at disk power-on lifetime: 22419 hours (934 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 06 02 70 db 00  Error: UNC 6 sectors at LBA = 0x00db7002 = 14381058

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  25 00 08 00 70 db 40 00   1d+03:59:34.096  READ DMA EXT
  25 00 08 00 70 db 40 00   1d+03:59:30.334  READ DMA EXT
  b0 d5 01 09 4f c2 00 00   1d+03:57:59.057  SMART READ LOG
  b0 d5 01 06 4f c2 00 00   1d+03:57:58.766  SMART READ LOG
  b0 d5 01 01 4f c2 00 00   1d+03:57:58.476  SMART READ LOG

Error 1392 occurred at disk power-on lifetime: 22419 hours (934 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 06 02 70 db 00  Error: UNC 6 sectors at LBA = 0x00db7002 = 14381058

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  25 00 08 00 70 db 40 00   1d+03:59:30.334  READ DMA EXT
  b0 d5 01 09 4f c2 00 00   1d+03:57:59.057  SMART READ LOG
  b0 d5 01 06 4f c2 00 00   1d+03:57:58.766  SMART READ LOG
  b0 d5 01 01 4f c2 00 00   1d+03:57:58.476  SMART READ LOG
  b0 d5 01 00 4f c2 00 00   1d+03:57:58.475  SMART READ LOG

Error 1391 occurred at disk power-on lifetime: 22419 hours (934 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 06 02 70 db 00  Error: UNC 6 sectors at LBA = 0x00db7002 = 14381058

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  25 00 08 00 70 db 40 00   1d+03:56:28.228  READ DMA EXT
  25 00 08 00 70 db 40 00   1d+03:56:24.549  READ DMA EXT
  25 00 08 00 70 db 40 00   1d+03:56:06.711  READ DMA EXT
  25 00 10 f0 71 db 40 00   1d+03:56:06.711  READ DMA EXT
  25 00 f0 00 71 db 40 00   1d+03:56:06.710  READ DMA EXT

Error 1390 occurred at disk power-on lifetime: 22419 hours (934 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 06 02 70 db 00  Error: UNC 6 sectors at LBA = 0x00db7002 = 14381058

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  25 00 08 00 70 db 40 00   1d+03:56:24.549  READ DMA EXT
  25 00 08 00 70 db 40 00   1d+03:56:06.711  READ DMA EXT
  25 00 10 f0 71 db 40 00   1d+03:56:06.711  READ DMA EXT
  25 00 f0 00 71 db 40 00   1d+03:56:06.710  READ DMA EXT
  25 00 10 f0 70 db 40 00   1d+03:56:06.687  READ DMA EXT

Error 1389 occurred at disk power-on lifetime: 22419 hours (934 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 06 02 70 db 00  Error: UNC 6 sectors at LBA = 0x00db7002 = 14381058

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  25 00 08 00 70 db 40 00   1d+03:56:06.711  READ DMA EXT
  25 00 10 f0 71 db 40 00   1d+03:56:06.711  READ DMA EXT
  25 00 f0 00 71 db 40 00   1d+03:56:06.710  READ DMA EXT
  25 00 10 f0 70 db 40 00   1d+03:56:06.687  READ DMA EXT
  25 00 f0 00 70 db 40 00   1d+03:56:03.026  READ DMA EXT

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Extended offline    Completed: read failure       90%     21249         14381058

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Ahh ... quello lo farebbe.

Ora, ho risolto questa domanda in tre semplici passaggi:

  1. Diventa un amministratore di sistema in tre anni.
  2. Controlla i registri.
  3. Torna da Super User e ride del mio approccio di tre anni fa .

AGGIORNAMENTO (19 luglio 2015): per chiunque sia curioso, l'unità ha finito i settori per rimappare:

root@node51 [~]# smartctl -a /dev/sdg
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.13.0-43-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Hitachi Deskstar 5K3000
Device Model:     Hitachi HDS5C3020ALA632
Serial Number:    ML2220FA040K9E
LU WWN Device Id: 5 000cca 36ac1d394
Firmware Version: ML6OA800
User Capacity:    2,000,398,934,016 bytes [2.00 TB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    5940 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS T13/1699-D revision 4
SATA Version is:  SATA 2.6, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Sun Jul 19 14:00:33 2015 CDT
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART STATUS RETURN: incomplete response, ATA output registers missing
SMART overall-health self-assessment test result: FAILED!
Drive failure expected in less than 24 hours. SAVE ALL DATA.
See vendor-specific Attribute list for failed Attributes.

General SMART Values:
Offline data collection status:  (0x85) Offline data collection activity
                                        was aborted by an interrupting command from host.
                                        Auto Offline Data Collection: Enabled.
Self-test execution status:      ( 117) The previous self-test completed having
                                        the read element of the test failed.
Total time to complete Offline
data collection:                (21438) seconds.
Offline data collection
capabilities:                    (0x5b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        No Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   1) minutes.
Extended self-test routine
recommended polling time:        ( 358) minutes.
SCT capabilities:              (0x003d) SCT Status supported.
                                        SCT Error Recovery Control supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000b   099   099   016    Pre-fail  Always       -       2
  2 Throughput_Performance  0x0005   136   136   054    Pre-fail  Offline      -       93
  3 Spin_Up_Time            0x0007   163   163   024    Pre-fail  Always       -       318 (Average 355)
  4 Start_Stop_Count        0x0012   100   100   000    Old_age   Always       -       181
  5 Reallocated_Sector_Ct   0x0033   001   001   005    Pre-fail  Always   FAILING_NOW 1978
  7 Seek_Error_Rate         0x000b   086   086   067    Pre-fail  Always       -       1245192
  8 Seek_Time_Performance   0x0005   146   146   020    Pre-fail  Offline      -       29
  9 Power_On_Hours          0x0012   097   097   000    Old_age   Always       -       23763
 10 Spin_Retry_Count        0x0013   100   100   060    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       167
192 Power-Off_Retract_Count 0x0032   092   092   000    Old_age   Always       -       10251
193 Load_Cycle_Count        0x0012   092   092   000    Old_age   Always       -       10251
194 Temperature_Celsius     0x0002   111   111   000    Old_age   Always       -       54 (Min/Max 19/63)
196 Reallocated_Event_Count 0x0032   001   001   000    Old_age   Always       -       2927
197 Current_Pending_Sector  0x0022   100   100   000    Old_age   Always       -       33
198 Offline_Uncorrectable   0x0008   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x000a   200   200   000    Old_age   Always       -       2

SMART Error Log Version: 1
ATA Error Count: 2240 (device log contains only the most recent five errors)
        CR = Command Register [HEX]
        FR = Features Register [HEX]
        SC = Sector Count Register [HEX]
        SN = Sector Number Register [HEX]
        CL = Cylinder Low Register [HEX]
        CH = Cylinder High Register [HEX]
        DH = Device/Head Register [HEX]
        DC = Device Command Register [HEX]
        ER = Error register [HEX]
        ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 2240 occurred at disk power-on lifetime: 23763 hours (990 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  10 51 f0 18 0f 2f 00  Error: IDNF 240 sectors at LBA = 0x002f0f18 = 3084056

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  35 00 f0 18 0f 2f 40 00      00:25:01.942  WRITE DMA EXT
  35 00 f0 28 0e 2f 40 00      00:25:01.168  WRITE DMA EXT
  35 00 f0 38 0d 2f 40 00      00:25:01.157  WRITE DMA EXT
  35 00 f0 48 0c 2f 40 00      00:25:01.147  WRITE DMA EXT
  35 00 f0 58 0b 2f 40 00      00:25:01.136  WRITE DMA EXT

Error 2239 occurred at disk power-on lifetime: 23763 hours (990 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  10 51 5a 4e f7 2e 00  Error: IDNF 90 sectors at LBA = 0x002ef74e = 3077966

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  35 00 f0 b8 f6 2e 40 00      00:24:57.967  WRITE DMA EXT
  35 00 f0 c8 f5 2e 40 00      00:24:57.956  WRITE DMA EXT
  35 00 f0 d8 f4 2e 40 00      00:24:57.945  WRITE DMA EXT
  35 00 f0 e8 f3 2e 40 00      00:24:57.934  WRITE DMA EXT
  35 00 f0 f8 f2 2e 40 00      00:24:57.924  WRITE DMA EXT

Error 2238 occurred at disk power-on lifetime: 23763 hours (990 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  10 51 40 a8 c6 2e 00  Error: IDNF 64 sectors at LBA = 0x002ec6a8 = 3065512

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  35 00 f0 f8 c5 2e 40 00      00:24:49.444  WRITE DMA EXT
  35 00 f0 08 c5 2e 40 00      00:24:49.433  WRITE DMA EXT
  35 00 f0 18 c4 2e 40 00      00:24:49.422  WRITE DMA EXT
  35 00 f0 28 c3 2e 40 00      00:24:49.412  WRITE DMA EXT
  35 00 f0 38 c2 2e 40 00      00:24:49.401  WRITE DMA EXT

Error 2237 occurred at disk power-on lifetime: 23763 hours (990 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  10 51 ea be ba 2e 00  Error: IDNF 234 sectors at LBA = 0x002ebabe = 3062462

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  35 00 f0 b8 ba 2e 40 00      00:24:39.263  WRITE DMA EXT
  35 00 f0 c8 b9 2e 40 00      00:24:38.885  WRITE DMA EXT
  35 00 f0 d8 b8 2e 40 00      00:24:38.874  WRITE DMA EXT
  35 00 f0 e8 b7 2e 40 00      00:24:38.862  WRITE DMA EXT
  35 00 f0 f8 b6 2e 40 00      00:24:38.852  WRITE DMA EXT

Error 2236 occurred at disk power-on lifetime: 23763 hours (990 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  10 51 86 c2 2a 2e 00  Error: IDNF 134 sectors at LBA = 0x002e2ac2 = 3025602

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  35 00 f0 58 2a 2e 40 00      00:24:25.605  WRITE DMA EXT
  35 00 f0 68 29 2e 40 00      00:24:25.594  WRITE DMA EXT
  35 00 f0 78 28 2e 40 00      00:24:25.583  WRITE DMA EXT
  35 00 f0 88 27 2e 40 00      00:24:25.572  WRITE DMA EXT
  35 00 f0 98 26 2e 40 00      00:24:25.561  WRITE DMA EXT

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short captive       Completed: read failure       50%     23763         869280
# 2  Extended offline    Completed without error       00%     22451         -
# 3  Short offline       Completed without error       00%     22439         -
# 4  Extended offline    Completed: read failure       90%     21249         14381058
1 of 2 failed self-tests are outdated by newer successful extended offline self-test # 2

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

1
sì, esattamente quello che è appena successo al mio RAID! Questa è la vera risposta alla tua domanda! Grazie per tenerlo aggiornato !!!
Preexo,

1

Nel mio caso, era anche un disco di origine danneggiato. Anche se in quel momento sembrava che non lo fosse (il / proc / mdstat è progredito normalmente al di sopra del 99,9% - ma in realtà è fallito al 99,97%, il che è coinciso con il termine della sincronizzazione regolare). Quindi devi controllare l' dmesg(1)output - ti dirà se ci sono errori di lettura.

Puoi vedere i dettagli del mio caso nel bug Debian # 767243 . Alla fine sono riuscito a terminare la sincronizzazione sovrascrivendo forzatamente alcuni settori danneggiati sul disco di origine (che fortunatamente sono stati scomposti nel mio caso, altrimenti ci sarebbe stata la perdita di dati)


0

Potresti provare

sudo mdadm --assemble --update=resync /dev/md0 /dev/sdb1 /dev/sdc1

per aggiornare le unità e risincronizzarle.


Provando questo ora ... riferirò quando la ricostruzione dovrebbe essere completata.
Deltik,

Non ha funzionato /dev/sdb1non sta ancora diventando "attivo" dopo essere stato ricostruito come ricambio.
Deltik,

0

Non sono sicuro che funzionerà da quando hai già --addeditato il disco ma --re-addsembra essere l'opzione che ti serve.

O forse è necessario --growil dispositivo per 2 dischi attivi, mdadm --grow -n 2? Non testato quindi fai attenzione.


sudo mdadm --grow -n 2è stata una delle prime cose che ho fatto, quindi è per questo che sudo mdadm --detail /dev/md0mostra due slot. Siamo spiacenti, non funziona.
Deltik,

0

Consiglierei di rimuovere sdc1, azzerando il super blocco su sdc1 e quindi aggiungendolo nuovamente.

mdadm /dev/md0 -r /dev/sdc1
mdadm --zero-superblock /dev/sdc1
mdadm /dev/md0 -a /dev/sdc1

Ho spostato i miei dati su ciascun HDD mentre ho azzerato il superblocco sull'altro HDD. Il problema che sto riscontrando si ripresenta anche con la completa ricreazione dell'array RAID 1.
Deltik,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.